Изменил(а) на 'labworks/LW2/LW2_variant2.md'

main
AnikeevAnA 2 недель назад
Родитель caf5544694
Сommit e5a6973187

@ -1661,3 +1661,45 @@ print("=" * 60)
Стандартное отклонение: 0.029058 Стандартное отклонение: 0.029058
``` ```
### Пункт №10. Параметры наилучшего автокодировщика и результаты обнаружения аномалий.
**Табл. 2 Результаты задания №2:**
| Dataset name | Количество скрытых слоев | Количество нейронов в скрытых слоях | Количество эпох обучения | Ошибка MSE_stop | Порог ошибки реконструкции | % обнаруженных аномалий |
|---|---|---|---|---|---|---|
| WBC (White Blood Cells) | 9 | 30-24-18-12-8-12-18-24-30 | 50000 | 0.143102 | 0.136186 | 80.11% |
### Пункт №11. Выводы.
**Вывод:**
```
1. Данные для обучения:
Требуется тщательная предобработка и нормализация
Объем данных должен соответствовать сложности модели
2. Архитектура автокодировщика:
Глубокие сети (5+ слоев) для высокоразмерных данных
Постепенное сжатие к bottleneck
3. Количество эпох:
Десятки тысяч эпох для сложных архитектур
Обязательное использование EarlyStopping
4. MSE_stop критерий:
MSE_stop порядка 0.01 – 0.1
5. Порог обнаружения:
На основе статистики ошибок обучающей выборки
```
Загрузка…
Отмена
Сохранить