ответвлено от main/is_dnn
Изменил(а) на 'labworks/LW2/LW2_variant2.md'
Этот коммит содержится в:
@@ -1661,3 +1661,45 @@ print("=" * 60)
|
||||
Стандартное отклонение: 0.029058
|
||||
```
|
||||
|
||||
### Пункт №10. Параметры наилучшего автокодировщика и результаты обнаружения аномалий.
|
||||
|
||||
|
||||
**Табл. 2 Результаты задания №2:**
|
||||
|
||||
|
||||
| Dataset name | Количество скрытых слоев | Количество нейронов в скрытых слоях | Количество эпох обучения | Ошибка MSE_stop | Порог ошибки реконструкции | % обнаруженных аномалий |
|
||||
|---|---|---|---|---|---|---|
|
||||
| WBC (White Blood Cells) | 9 | 30-24-18-12-8-12-18-24-30 | 50000 | 0.143102 | 0.136186 | 80.11% |
|
||||
|
||||
|
||||
### Пункт №11. Выводы.
|
||||
|
||||
**Вывод:**
|
||||
|
||||
```
|
||||
1. Данные для обучения:
|
||||
|
||||
Требуется тщательная предобработка и нормализация
|
||||
|
||||
Объем данных должен соответствовать сложности модели
|
||||
|
||||
2. Архитектура автокодировщика:
|
||||
|
||||
Глубокие сети (5+ слоев) для высокоразмерных данных
|
||||
|
||||
Постепенное сжатие к bottleneck
|
||||
|
||||
3. Количество эпох:
|
||||
|
||||
Десятки тысяч эпох для сложных архитектур
|
||||
|
||||
Обязательное использование EarlyStopping
|
||||
|
||||
4. MSE_stop критерий:
|
||||
|
||||
MSE_stop порядка 0.01 – 0.1
|
||||
|
||||
5. Порог обнаружения:
|
||||
|
||||
На основе статистики ошибок обучающей выборки
|
||||
```
|
||||
Ссылка в новой задаче
Block a user