Изменил(а) на 'labworks/LW2/LW2_variant2.md'
Этот коммит содержится в:
@@ -1661,3 +1661,45 @@ print("=" * 60)
|
|||||||
Стандартное отклонение: 0.029058
|
Стандартное отклонение: 0.029058
|
||||||
```
|
```
|
||||||
|
|
||||||
|
### Пункт №10. Параметры наилучшего автокодировщика и результаты обнаружения аномалий.
|
||||||
|
|
||||||
|
|
||||||
|
**Табл. 2 Результаты задания №2:**
|
||||||
|
|
||||||
|
|
||||||
|
| Dataset name | Количество скрытых слоев | Количество нейронов в скрытых слоях | Количество эпох обучения | Ошибка MSE_stop | Порог ошибки реконструкции | % обнаруженных аномалий |
|
||||||
|
|---|---|---|---|---|---|---|
|
||||||
|
| WBC (White Blood Cells) | 9 | 30-24-18-12-8-12-18-24-30 | 50000 | 0.143102 | 0.136186 | 80.11% |
|
||||||
|
|
||||||
|
|
||||||
|
### Пункт №11. Выводы.
|
||||||
|
|
||||||
|
**Вывод:**
|
||||||
|
|
||||||
|
```
|
||||||
|
1. Данные для обучения:
|
||||||
|
|
||||||
|
Требуется тщательная предобработка и нормализация
|
||||||
|
|
||||||
|
Объем данных должен соответствовать сложности модели
|
||||||
|
|
||||||
|
2. Архитектура автокодировщика:
|
||||||
|
|
||||||
|
Глубокие сети (5+ слоев) для высокоразмерных данных
|
||||||
|
|
||||||
|
Постепенное сжатие к bottleneck
|
||||||
|
|
||||||
|
3. Количество эпох:
|
||||||
|
|
||||||
|
Десятки тысяч эпох для сложных архитектур
|
||||||
|
|
||||||
|
Обязательное использование EarlyStopping
|
||||||
|
|
||||||
|
4. MSE_stop критерий:
|
||||||
|
|
||||||
|
MSE_stop порядка 0.01 – 0.1
|
||||||
|
|
||||||
|
5. Порог обнаружения:
|
||||||
|
|
||||||
|
На основе статистики ошибок обучающей выборки
|
||||||
|
```
|
||||||
Ссылка в новой задаче
Block a user