diff --git a/labworks/LW2/LW2_variant2.md b/labworks/LW2/LW2_variant2.md index b451022..ecbd7b8 100644 --- a/labworks/LW2/LW2_variant2.md +++ b/labworks/LW2/LW2_variant2.md @@ -1661,3 +1661,45 @@ print("=" * 60) Стандартное отклонение: 0.029058 ``` +### Пункт №10. Параметры наилучшего автокодировщика и результаты обнаружения аномалий. + + +**Табл. 2 Результаты задания №2:** + + +| Dataset name | Количество скрытых слоев | Количество нейронов в скрытых слоях | Количество эпох обучения | Ошибка MSE_stop | Порог ошибки реконструкции | % обнаруженных аномалий | +|---|---|---|---|---|---|---| +| WBC (White Blood Cells) | 9 | 30-24-18-12-8-12-18-24-30 | 50000 | 0.143102 | 0.136186 | 80.11% | + + +### Пункт №11. Выводы. + +**Вывод:** + +``` +1. Данные для обучения: + + Требуется тщательная предобработка и нормализация + + Объем данных должен соответствовать сложности модели + +2. Архитектура автокодировщика: + + Глубокие сети (5+ слоев) для высокоразмерных данных + + Постепенное сжатие к bottleneck + +3. Количество эпох: + + Десятки тысяч эпох для сложных архитектур + + Обязательное использование EarlyStopping + +4. MSE_stop критерий: + + MSE_stop порядка 0.01 – 0.1 + +5. Порог обнаружения: + + На основе статистики ошибок обучающей выборки +``` \ No newline at end of file