From 3b3165fdbdc196b6a1d16cf96d571286c7233ebf Mon Sep 17 00:00:00 2001 From: AnikeevAnA Date: Fri, 17 Oct 2025 15:13:13 +0000 Subject: [PATCH] =?UTF-8?q?=D0=98=D0=B7=D0=BC=D0=B5=D0=BD=D0=B8=D0=BB(?= =?UTF-8?q?=D0=B0)=20=D0=BD=D0=B0=20'labworks/LW2/LW2=5Fvariant2.md'?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- labworks/LW2/LW2_variant2.md | 51 ++++++++++++++++++++++++++++++++++++ 1 file changed, 51 insertions(+) diff --git a/labworks/LW2/LW2_variant2.md b/labworks/LW2/LW2_variant2.md index ffbc729..df8ffe9 100644 --- a/labworks/LW2/LW2_variant2.md +++ b/labworks/LW2/LW2_variant2.md @@ -899,3 +899,54 @@ print("- out/comparison_visualization.png") ![Результаты тестирования](15.png) +### Пункт №11. ТАБЛ. 1 РЕЗУЛЬТАТЫ ЗАДАНИЯ №1 + +| Модель | Количество скрытых слоев | Количество нейронов в скрытых слоях | Количество эпох обучения | Ошибка MSE_stop | Порог ошибки реконструкции | Значение показателя Excess | Значение показателя Approx | Количество обнаруженных аномалий | +|--------|--------------------------|-------------------------------------|--------------------------|-----------------|----------------------------|----------------------------|----------------------------|-----------------------------------| +| AE1 | 1 | [1] | ~700 | 0.009176 | 0.067896 | 0.0000 | 0.009176 | 0 | +| AE2 | 5 | [3, 2, 1, 2, 3] | ~4600 | 0.004918 | 0.060338 | 0.0000 | 0.004918 | 0 | + +### Пункт №12. Выводы. + +**Вывод:** +``` +## 1. Требования к данным для обучения +- Объем данных: достаточное количество нормальных примеров (1000+ точек) +- Качество данных: отсутствие аномалий в обучающей выборке +- Предобработка: нормализация данных для стабильного обучения +- Сбалансированность: равномерное покрытие области нормального поведения + +## 2. Требования к архитектуре автокодировщика +- Сложность архитектуры: + - Простые задачи: 1-3 скрытых слоя (AE1: 1 слой) + - Сложные задачи: 3-5+ скрытых слоев (AE2: 5 слоев) +- Размерность bottleneck: + - Должна обеспечивать существенное сжатие (AE2: 1 нейрон в bottleneck) + - Сохранять достаточную информацию для реконструкции +- Активационные функции: tanh/relu для скрытых слоев, linear для выходного + +## 3. Требования к количеству эпох обучения +- Минимальное количество: 500+ эпох для базового обучения +- Оптимальное количество: 1000-5000 эпох +- Критерий остановки: EarlyStopping с patience 300-400 эпох +- Переобучение: мониторинг validation loss для предотвращения + +## 4. Требования к ошибке MSE_stop +- Целевые значения: 0.001-0.01 для качественной реконструкции +- AE1: 0.009176 - приемлемый уровень +- AE2: 0.004918 - хороший уровень +- Критерий: стабилизация ошибки на протяжении 300+ эпох + +## 5. Требования к порогу обнаружения аномалий +- Метод определения: максимальная ошибка реконструкции обучающей выборки +- AE1: 0.067896 - более консервативный порог +- AE2: 0.060338 - более чувствительный порог +- Адаптивность: порог должен корректироваться под конкретную задачу + +## 6. Требования к характеристикам качества обучения EDCA +- Low Excess: < 0.05 (доля ложных срабатываний) +- Low Approx: близко к MSE_stop (качественная реконструкция нормальных точек) +- Stability: стабильные метрики на валидационной выборке +- Generalization: способность обнаруживать новые типы аномалий +``` +