- Для многомерных данных требуется более сложная архитектура с большим количеством скрытых слоёв.
- Архитектура должна постепенно сужаться к бутылочному горлышку (bottleneck), а затем постепенно возвращаться к исходным выходным размерам.
- Широкая архитектура с большим количеством нейронов в начальных слоях (например, 100 -> 68 -> 48 -> 32 -> 24 -> 16 -> 8 -> 16 -> 24 -> 32 -> 48 -> 64 -> 100) позволяет лучше аппроксимировать сложные зависимости в многомерных данных.
- Широкая архитектура с большим количеством нейронов в начальных слоях (например, 100 → 68 → 48 → 32 → 24 → 16 → 8 → 16 → 24 → 32 → 48 → 64 → 100) позволяет лучше аппроксимировать сложные зависимости в многомерных данных.
**Требования к количеству эпох обучения:**
- Для многомерных данных требуется значительно большее количество эпох обучения (до 10000 эпох) по сравнению с двумерными данными (1000-3000 эпох).
- Для многомерных данных требуется значительно большее количество эпох обучения по сравнению с двумерными данными (1000-3000 эпох).
- Использование ранней остановки (early stopping) позволяет автоматически завершить обучение при достижении оптимальных значений.
**Требования к ошибке MSE_stop:**
- Для многомерных данных оптимальная ошибка MSE-stop в районе 0.1-0.01.
- Для многомерных данных оптимальная ошибка MSE-stop в районе 0.01-0.01.
- Нормализация данных может значительно улучшить качество обучения (пример: MSE снизилась с 0.340 до 0.026 при нормализации).
2. **Архитектура**: Архитектура должна постепенно сужаться к бутылочному горлышку и постепенно возвращаться к исходным размерам. Симметричная структура обеспечивает лучшее качество аппроксимации.
3. **Параметры обучения**: Оптимальные значения MSE-stop и порога ошибки реконструкции различаются для данных разной размерности. Для двумерных данных MSE-stop ≈ 0.01, порог 0.4-2.5. Для многомерных данных MSE-stop ≈ 0.1-0.01, порог ≤ 1.6.
3. **Параметры обучения**: Оптимальные значения MSE-stop и порога ошибки реконструкции различаются для данных разной размерности. Для двумерных данных MSE-stop ≈ 0.01, порог 0.4-2.5. Для многомерных данных MSE-stop ≈ 0.01-0.1, порог ≤ 1.6.
4. **Метрики качества**: Характеристики EDCA (Excess, Deficit, Coating, Approx) позволяют оценить качество аппроксимации области нормальных данных и пригодность автокодировщика для обнаружения аномалий.