Изменил(а) на 'labworks/LW2/LW2_variant2.md'
Этот коммит содержится в:
@@ -899,3 +899,54 @@ print("- out/comparison_visualization.png")
|
||||
|
||||

|
||||
|
||||
### Пункт №11. ТАБЛ. 1 РЕЗУЛЬТАТЫ ЗАДАНИЯ №1
|
||||
|
||||
| Модель | Количество скрытых слоев | Количество нейронов в скрытых слоях | Количество эпох обучения | Ошибка MSE_stop | Порог ошибки реконструкции | Значение показателя Excess | Значение показателя Approx | Количество обнаруженных аномалий |
|
||||
|--------|--------------------------|-------------------------------------|--------------------------|-----------------|----------------------------|----------------------------|----------------------------|-----------------------------------|
|
||||
| AE1 | 1 | [1] | ~700 | 0.009176 | 0.067896 | 0.0000 | 0.009176 | 0 |
|
||||
| AE2 | 5 | [3, 2, 1, 2, 3] | ~4600 | 0.004918 | 0.060338 | 0.0000 | 0.004918 | 0 |
|
||||
|
||||
### Пункт №12. Выводы.
|
||||
|
||||
**Вывод:**
|
||||
```
|
||||
## 1. Требования к данным для обучения
|
||||
- Объем данных: достаточное количество нормальных примеров (1000+ точек)
|
||||
- Качество данных: отсутствие аномалий в обучающей выборке
|
||||
- Предобработка: нормализация данных для стабильного обучения
|
||||
- Сбалансированность: равномерное покрытие области нормального поведения
|
||||
|
||||
## 2. Требования к архитектуре автокодировщика
|
||||
- Сложность архитектуры:
|
||||
- Простые задачи: 1-3 скрытых слоя (AE1: 1 слой)
|
||||
- Сложные задачи: 3-5+ скрытых слоев (AE2: 5 слоев)
|
||||
- Размерность bottleneck:
|
||||
- Должна обеспечивать существенное сжатие (AE2: 1 нейрон в bottleneck)
|
||||
- Сохранять достаточную информацию для реконструкции
|
||||
- Активационные функции: tanh/relu для скрытых слоев, linear для выходного
|
||||
|
||||
## 3. Требования к количеству эпох обучения
|
||||
- Минимальное количество: 500+ эпох для базового обучения
|
||||
- Оптимальное количество: 1000-5000 эпох
|
||||
- Критерий остановки: EarlyStopping с patience 300-400 эпох
|
||||
- Переобучение: мониторинг validation loss для предотвращения
|
||||
|
||||
## 4. Требования к ошибке MSE_stop
|
||||
- Целевые значения: 0.001-0.01 для качественной реконструкции
|
||||
- AE1: 0.009176 - приемлемый уровень
|
||||
- AE2: 0.004918 - хороший уровень
|
||||
- Критерий: стабилизация ошибки на протяжении 300+ эпох
|
||||
|
||||
## 5. Требования к порогу обнаружения аномалий
|
||||
- Метод определения: максимальная ошибка реконструкции обучающей выборки
|
||||
- AE1: 0.067896 - более консервативный порог
|
||||
- AE2: 0.060338 - более чувствительный порог
|
||||
- Адаптивность: порог должен корректироваться под конкретную задачу
|
||||
|
||||
## 6. Требования к характеристикам качества обучения EDCA
|
||||
- Low Excess: < 0.05 (доля ложных срабатываний)
|
||||
- Low Approx: близко к MSE_stop (качественная реконструкция нормальных точек)
|
||||
- Stability: стабильные метрики на валидационной выборке
|
||||
- Generalization: способность обнаруживать новые типы аномалий
|
||||
```
|
||||
|
||||
|
||||
Ссылка в новой задаче
Block a user