Загрузил(а) файлы в 'labworks/LW2'

main
SidoraDA 1 месяц назад
Родитель 2ac947aa48
Сommit e28caaea5a

@ -0,0 +1,580 @@
{
"cells": [
{
"cell_type": "code",
"execution_count": 1,
"metadata": {
"id": "r997fIhZa7-A"
},
"outputs": [],
"source": [
"import os"
]
},
{
"cell_type": "code",
"execution_count": 6,
"metadata": {
"id": "U8PYD8odcxpc"
},
"outputs": [],
"source": [
"os.chdir('/content/drive/MyDrive/Colab Notebooks/lab2')\n"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/"
},
"id": "g5cp1saPc6Xa",
"outputId": "3089c8c8-d518-48f7-ac90-262398be06cf"
},
"outputs": [],
"source": [
"# скачивание библиотеки\n",
"!wget -N http://uit.mpei.ru/git/main/is_dnn/raw/branch/main/labworks/LW2/lab02_lib.py"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/"
},
"id": "pHg8jhkZc90x",
"outputId": "0b42b9c8-f640-4a2a-e90b-3954ade65113"
},
"outputs": [],
"source": [
"# скачивание выборок\n",
"!wget -N http://uit.mpei.ru/git/main/is_dnn/raw/branch/main/labworks/LW2/data/letter_train.txt"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/"
},
"id": "tQhqaB8Pc7Yi",
"outputId": "74c6fac7-59f8-4ea9-e6f9-f6aad4196326"
},
"outputs": [],
"source": [
"!wget -N http://uit.mpei.ru/git/main/is_dnn/raw/branch/main/labworks/LW2/data/letter_test.txt"
]
},
{
"cell_type": "code",
"execution_count": 10,
"metadata": {
"id": "4DfLVzP-dv_M"
},
"outputs": [],
"source": [
"#импортмодулей\n",
"import numpy as np\n",
"import lab02_lib as lib"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 35
},
"id": "9_66PjVYd5ch",
"outputId": "e6ab839f-f62d-4fd8-cecb-cd02ccecc1cd"
},
"outputs": [],
"source": [
"os.getcwd()"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 718
},
"id": "HFbXybBWeDN0",
"outputId": "57c234a4-55c0-488d-bf1f-971fae63cbcc"
},
"outputs": [],
"source": [
"#генерациядатасета\n",
"data=lib.datagen(5,5,1000,2)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/"
},
"id": "dZzF5IKBeKh-",
"outputId": "6cf53296-1ed0-4a4c-d05c-ac659fea7184"
},
"outputs": [],
"source": [
"#вывод данных и размерности\n",
"print('Исходные данные:')\n",
"print(data)\n",
"print('Размерность данных:')\n",
"print(data.shape)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/"
},
"id": "9l-lC2gueRbY",
"outputId": "43eaaa96-90ff-457b-f7ad-4cdadb6e2b73"
},
"outputs": [],
"source": [
"# обучение AE1\n",
"patience= 300\n",
"ae1_trained, IRE1, IREth1= lib.create_fit_save_ae(data,'out/AE1.h5','out/AE1_ire_th.txt', 1000, False, patience)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 744
},
"id": "e1-t84RdeyU0",
"outputId": "f14d5576-8d67-4b9e-b736-edee255d1996"
},
"outputs": [],
"source": [
"#Построение графика ошибки реконструкции\n",
"lib.ire_plot('training', IRE1, IREth1, 'AE1')\n"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 955
},
"id": "b94IU-MMe50Z",
"outputId": "f03f9534-2cad-4216-e157-18c7f9368671"
},
"outputs": [],
"source": [
"# обучение AE2\n",
"ae2_trained, IRE2, IREth2= lib.create_fit_save_ae(data,'out/AE2.h5','out/AE2_ire_th.txt', 3000, False, patience)\n",
"lib.ire_plot('training', IRE2, IREth2, 'AE2')"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 1000
},
"id": "6PE0WU11f0r7",
"outputId": "bb22942d-629d-4d44-c742-98f9e372ab3e"
},
"outputs": [],
"source": [
"#построение областей покрытия и границ классов\n",
"#расчет характеристик качестваобучения\n",
"numb_square= 20\n",
"xx,yy,Z1=lib.square_calc(numb_square,data,ae1_trained,IREth1,'1',True)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 1000
},
"id": "yfb90GShgYfv",
"outputId": "99ac3a35-ef93-48e2-9880-100b72bfb156"
},
"outputs": [],
"source": [
"xx,yy,Z2=lib.square_calc(numb_square,data,ae2_trained,IREth2,'2',True)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 472
},
"id": "wYAaU-Rbgjj7",
"outputId": "1c8fedd9-85df-4f49-805c-baa3e7b0b74d"
},
"outputs": [],
"source": [
"#сравнение характеристик качества обучения и областей аппроксимации\n",
"lib.plot2in1(data,xx,yy,Z1,Z2)"
]
},
{
"cell_type": "code",
"execution_count": 20,
"metadata": {
"id": "0oebq1QhgrZC"
},
"outputs": [],
"source": [
"#загрузка тестового набора\n",
"data_test= np.loadtxt('data_test.txt', dtype=float)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/"
},
"id": "K_PYA6l6jEJf",
"outputId": "17e032e7-c2df-4523-861e-93c29ebfd0c1"
},
"outputs": [],
"source": [
"#тестирование АE1\n",
"predicted_labels1, ire1 = lib.predict_ae(ae1_trained, data_test, IREth1)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 1000
},
"id": "aWXqWrJQjObc",
"outputId": "2cc638cd-d355-4c61-ab6d-0dc19de94af5"
},
"outputs": [],
"source": [
"#тестирование АE1\n",
"lib.anomaly_detection_ae(predicted_labels1, ire1, IREth1)\n",
"lib.ire_plot('test', ire1, IREth1, 'AE1')"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/"
},
"id": "Of4-wpFDj8kn",
"outputId": "eb148cc7-50a9-4efd-be97-16753abddb90"
},
"outputs": [],
"source": [
"#тестирование АE2\n",
"predicted_labels2, ire2 = lib.predict_ae(ae2_trained, data_test, IREth2)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 1000
},
"id": "2E9N8TSKkDUZ",
"outputId": "1a5d6cd2-d237-47ec-ab17-bb0454c4d6ff"
},
"outputs": [],
"source": [
"#тестирование АE2\n",
"lib.anomaly_detection_ae(predicted_labels2, ire2, IREth2)\n",
"lib.ire_plot('test', ire2, IREth2, 'AE2')"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 472
},
"id": "bdxVRsSMkQet",
"outputId": "14f3ccbb-e1b0-4911-c0ad-ad5f41c118a1"
},
"outputs": [],
"source": [
"#построение областей аппроксимации и точек тестового набора\n",
"lib.plot2in1_anomaly(data, xx, yy, Z1, Z2, data_test)\n"
]
},
{
"cell_type": "code",
"execution_count": 27,
"metadata": {
"id": "m9x03V--uEl6"
},
"outputs": [],
"source": [
"#загрузка выборок\n",
"train= np.loadtxt('letter_train.txt', dtype=float)\n",
"test = np.loadtxt('letter_test.txt', dtype=float)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 1000
},
"id": "vYlzC3RKucGi",
"outputId": "95cf1135-6d97-4fc7-9e45-99d43ba82044"
},
"outputs": [],
"source": [
"# обучение AE3\n",
"patience=5000\n",
"ae3_trained, IRE3, IREth3= lib.create_fit_save_ae(train,'out/AE3.h5','out/AE3_ire_th.txt', 100000, False, patience)\n",
"lib.ire_plot('training', IRE3, IREth3, 'AE3')"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/"
},
"id": "pfcKYERV3c5-",
"outputId": "e486caf8-67ab-4255-85b4-91c852bb4eef"
},
"outputs": [],
"source": [
"#тестирование АE3\n",
"predicted_labels3, ire3 = lib.predict_ae(ae3_trained, test, IREth3)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 1000
},
"id": "QCwzSFvU3net",
"outputId": "161a8c60-c332-48d2-a082-dfce1332c011"
},
"outputs": [],
"source": [
"#тестированиеАE3\n",
"lib.anomaly_detection_ae(predicted_labels3, ire3, IREth3)\n",
"lib.ire_plot('test', ire3, IREth3, 'AE3')"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 1000
},
"id": "m_ZsgfDo41Wj",
"outputId": "d0309f17-5878-4fc7-ce54-d9db48292d3b"
},
"outputs": [],
"source": [
"# обучение AE3.2\n",
"patience=5000\n",
"ae32_trained, IRE32, IREth32= lib.create_fit_save_ae(train,'out/AE32.h5','out/AE32_ire_th.txt', 100000, False, patience)\n",
"lib.ire_plot('training', IRE32, IREth32, 'AE32')"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/"
},
"id": "Jp7OVlnqBDtI",
"outputId": "c89e7c86-271a-4c95-ae2c-10c7e8d44f62"
},
"outputs": [],
"source": [
"#тестирование АE32\n",
"predicted_labels32, ire32 = lib.predict_ae(ae32_trained, test, IREth32)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 1000
},
"id": "QGhswhfsBI49",
"outputId": "ce8d2bf4-e500-42ef-f25b-cdde7d8c9cfe"
},
"outputs": [],
"source": [
"#тестированиеАE32\n",
"lib.anomaly_detection_ae(predicted_labels32, ire32, IREth32)\n",
"lib.ire_plot('test', ire32, IREth32, 'AE32')"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 1000
},
"id": "xcBsBGB_BqSs",
"outputId": "cfa85dff-a0a5-4b30-ec94-adf4e4fc9ae7"
},
"outputs": [],
"source": [
"# обучение AE3.3\n",
"patience=5000\n",
"ae33_trained, IRE33, IREth33= lib.create_fit_save_ae(train,'out/AE33.h5','out/AE33_ire_th.txt', 100000, False, patience)\n",
"lib.ire_plot('training', IRE33, IREth33, 'AE33')"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/"
},
"id": "vie1zEOTQgKO",
"outputId": "3176a42d-2edc-4866-c6ed-88fcc29a8b4e"
},
"outputs": [],
"source": [
"#тестирование АE33\n",
"predicted_labels33, ire33 = lib.predict_ae(ae33_trained, test, IREth33)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 761
},
"id": "5LA0JPraQkIp",
"outputId": "85f0c50b-8223-4c95-84e4-675733fe61e2"
},
"outputs": [],
"source": [
"#тестированиеАE33\n",
"lib.anomaly_detection_ae(predicted_labels33, ire33, IREth33)\n",
"lib.ire_plot('test', ire33, IREth33, 'AE33')"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 1000
},
"id": "Xk9QG5I9Qrc-",
"outputId": "c978348f-cb4e-49f0-d863-8d03c19947fc"
},
"outputs": [],
"source": [
"# обучение AE3.4\n",
"patience=5000\n",
"ae34_trained, IRE34, IREth34=lib.create_fit_save_ae(train,'out/AE34.h5','out/AE34_ire_th.txt', 100000, False, patience)\n",
"lib.ire_plot('training', IRE34, IREth34, 'AE34')"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/",
"height": 1000
},
"id": "EWRa-rSVbGmx",
"outputId": "0241dc58-7e85-4a7b-fb45-37c85f5e4e34"
},
"outputs": [],
"source": [
"#тестированиеАE34\n",
"lib.anomaly_detection_ae(predicted_labels34, ire34, IREth34)\n",
"lib.ire_plot('test', ire34, IREth34, 'AE34')"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"colab": {
"base_uri": "https://localhost:8080/"
},
"id": "GVODHJ6XbBLU",
"outputId": "e12cc3e2-e6d6-4384-c72a-6e48f2f1111d"
},
"outputs": [],
"source": [
"#тестирование АE34\n",
"predicted_labels34, ire34 = lib.predict_ae(ae34_trained, test, IREth34)"
]
}
],
"metadata": {
"accelerator": "GPU",
"colab": {
"gpuType": "T4",
"provenance": []
},
"kernelspec": {
"display_name": "Python 3",
"name": "python3"
},
"language_info": {
"name": "python"
}
},
"nbformat": 4,
"nbformat_minor": 0
}

@ -0,0 +1,746 @@
# Отчёт по лабораторной работе №2
**Сидора Д.А. Пивоваров Я.В. А-02-22**
---
## Задание 1
### 1) В среде Google Colab создали новый блокнот (notebook). Импортировали необходимые для работы библиотеки и модули.
```python
# скачивание библиотеки
!wget -N http://uit.mpei.ru/git/main/is_dnn/raw/branch/main/labworks/LW2/lab02_lib.py
# скачивание выборок
!wget -N http://uit.mpei.ru/git/main/is_dnn/raw/branch/main/labworks/LW2/data/letter_train.txt
!wget -N http://uit.mpei.ru/git/main/is_dnn/raw/branch/main/labworks/LW2/data/letter_test.txt
# импорт модулей
import os
os.chdir('/content/drive/MyDrive/Colab Notebooks/lab2')
import numpy as np
import lab02_lib as lib
```
### 2) Сгенерировали индивидуальный набор двумерных данных в пространстве признаков с координатами центра (5, 5). Вывели полученные данные на рисунок и в консоль.
```python
#генерация датасета
data=lib.datagen(5,5,1000,2)
#вывод данных и размерности
print('Исходные данные:')
print(data)
print('Размерность данных:')
print(data.shape)
```
![Training set](/data/1.png)
```
Исходные данные:
[[4.92346186 5.06160261]
[4.86776523 4.87688396]
[5.04434246 4.99621627]
...
[5.08559661 4.90905577]
[5.13652538 5.08244034]
[5.04940858 4.87050374]]
Размерность данных:
(1000, 2)
```
### 3) Создали и обучили автокодировщик AE1 простой архитектуры, выбрав небольшое количество эпох обучения. Зафиксировали в таблице табл.1 количество скрытых слоёв и нейронов в них
```python
# обучение AE1
patience= 300
ae1_trained, IRE1, IREth1= lib.create_fit_save_ae(data,'out/AE1.h5','out/AE1_ire_th.txt', 1000, False, patience)
```
### 4) Зафиксировали ошибку MSE, на которой обучение завершилось. Построили график ошибки реконструкции обучающей выборки. Зафиксировали порог ошибки реконструкции – порог обнаружения аномалий.
Ошибка MSE_AE1 = 7.0839
```python
# Построение графика ошибки реконструкции
lib.ire_plot('training', IRE1, IREth1, 'AE1')
```
![IRE for training set. AE1](/data/2.png)
### 5) Создали и обучили второй автокодировщик AE2 с усложненной архитектурой, задав большее количество эпох обучения
```python
# обучение AE2
ae2_trained, IRE2, IREth2 = lib.create_fit_save_ae(data,'out/AE2.h5','out/AE2_ire_th.txt',
3000, True, patience)
```
### 6) Зафиксировали ошибку MSE, на которой обучение завершилось. Построили график ошибки реконструкции обучающей выборки. Зафиксировали второй порог ошибки реконструкции – порог обнаружения аномалий.
Ошибка MSE_AE2 = 0.0114
```python
# Построение графика ошибки реконструкции
lib.ire_plot('training', IRE2, IREth2, 'AE2')
```
![IRE for training set. AE2](/data/3.png)
### 7) Рассчитали характеристики качества обучения EDCA для AE1 и AE2. Визуализировали и сравнили области пространства признаков, распознаваемые автокодировщиками AE1 и AE2. Сделали вывод о пригодности AE1 и AE2 для качественного обнаружения аномалий.
```python
# построение областей покрытия и границ классов
# расчет характеристик качества обучения
numb_square = 20
xx, yy, Z1 = lib.square_calc(numb_square, data, ae1_trained, IREth1, '1', True)
```
![Autoencoder AE1. Training set. Class boundary](/data/4.png)
```
amount: 19
amount_ae: 295
```
![Площади множеств Xt и Xd AE1](/data/5.png)
![EDCA AE1](/data/6.png)
```
Оценка качества AE1
IDEAL = 0. Excess: 14.526315789473685
IDEAL = 0. Deficit: 0.0
IDEAL = 1. Coating: 1.0
summa: 1.0
IDEAL = 1. Extrapolation precision (Approx): 0.06440677966101695
```
```python
# построение областей покрытия и границ классов
# расчет характеристик качества обучения
numb_square = 20
xx, yy, Z2 = lib.square_calc(numb_square, data, ae2_trained, IREth2, '2', True)
```
![Autoencoder AE2. Training set. Class boundary](/data/7.png)
```
amount: 19
amount_ae: 41
```
![Площади множеств Xt и Xd AE1](/data/8.png)
![EDCA AE1](/data/9.png)
```
Оценка качества AE2
IDEAL = 0. Excess: 1.1578947368421053
IDEAL = 0. Deficit: 0.0
IDEAL = 1. Coating: 1.0
summa: 1.0
IDEAL = 1. Extrapolation precision (Approx): 0.46341463414634143
```
```python
# сравнение характеристик качества обучения и областей аппроксимации
lib.plot2in1(data, xx, yy, Z1, Z2)
```
![Сравнение обучения AE1 и AE2](/data/10.png)
### 8) Если автокодировщик AE2 недостаточно точно аппроксимирует область обучающих данных, то подобрать подходящие параметры автокодировщика и повторить шаги (6) – (8).
Полученные показатели EDCA для автокодировщика AE2 нас устраивают.
### 9) Изучили сохраненный набор данных и пространство признаков. Создали тестовую выборку, состоящую, как минимум, из 4ёх элементов, не входящих в обучающую выборку. Элементы должны быть такими, чтобы AE1 распознавал их как норму, а AE2 детектировал как аномалии.
```python
# загрузка тестового набора
data_test = np.loadtxt('data_test.txt', dtype=float)
print(data_test)
```
```
[[ 4.856234 5.123456]
[ 5.234567 4.876543]
[ 4.765432 5.345678]
[ 5.123456 4.987654]
[ 4.987654 5.234567]
[ 5.345678 4.765432]
[ 4.876543 5.432109]
[ 5.432109 4.654321]
[ 4.654321 5.56789 ]
[ 5.56789 4.54321 ]
[ 6.856234 6.123456]
[ 7.234567 6.876543]
[ 6.765432 7.345678]
[ 7.123456 6.987654]
[ 6.987654 7.234567]
[ 7.345678 6.765432]
[ 6.876543 7.432109]
[ 7.432109 6.654321]
[ 6.654321 7.56789 ]
[ 7.56789 6.54321 ]
[ 3.156234 3.123456]
[ 2.734567 3.876543]
[ 3.265432 2.654321]
[ 2.876543 3.234567]
[ 3.423456 2.987654]
[ 2.987654 3.345678]
[ 3.576543 2.765432]
[ 2.654321 3.432109]
[ 3.687654 2.56789 ]
[ 2.54321 3.56789 ]
[ 5.123456 7.876543]
[ 4.876543 8.234567]
[ 5.234567 7.654321]
[ 4.765432 8.123456]
[ 5.345678 7.432109]
[ 4.654321 8.345678]
[ 5.432109 7.234567]
[ 4.54321 8.456789]
[ 5.56789 7.123456]
[ 4.432109 8.56789 ]
[ 7.856234 5.123456]
[ 8.234567 4.876543]
[ 7.765432 5.345678]
[ 8.123456 4.987654]
[ 7.987654 5.234567]
[ 8.345678 4.765432]
[ 7.876543 5.432109]
[ 8.432109 4.654321]
[ 7.654321 5.56789 ]
[ 8.56789 4.54321 ]
[14.856234 14.123456]
[15.234567 14.876543]
[14.765432 15.345678]
[15.123456 14.987654]
[14.987654 15.234567]
[15.345678 14.765432]
[14.876543 15.432109]
[15.432109 14.654321]
[14.654321 15.56789 ]
[15.56789 14.54321 ]
[-0.856234 -0.123456]
[ 0.234567 -0.876543]
[-0.765432 0.345678]
[ 0.123456 -0.987654]
[-0.987654 0.234567]
[ 0.345678 -0.765432]
[-0.876543 0.432109]
[ 0.432109 -0.654321]
[-0.654321 0.56789 ]
[ 0.56789 -0.54321 ]
[17.856234 4.123456]
[18.234567 4.876543]
[17.765432 5.345678]
[18.123456 4.987654]
[17.987654 5.234567]
[18.345678 4.765432]
[17.876543 5.432109]
[18.432109 4.654321]
[17.654321 5.56789 ]
[18.56789 4.54321 ]
[-3.123456 22.876543]
[ 2.345678 18.654321]
[ 8.765432 -1.234567]
[12.345678 23.456789]
[-4.123456 7.876543]
[19.234567 19.876543]
[-2.876543 -2.123456]
[22.345678 3.654321]
[15.432109 -3.234567]
[-1.54321 25.56789 ]
[ 0. 15. ]
[ 2.5 16.25 ]
[ 5. 17.5 ]
[ 7.5 18.75 ]
[10. 20. ]
[12.5 21.25 ]
[15. 22.5 ]
[17.5 23.75 ]
[20. 25. ]
[22.5 26.25 ]]
Размерность data_test: (100, 2)
```
В данной тестовой выборке среди 100 примеров: 10 нормальные данные(строки 1-10), 40 пограничные случаи (строки 11-50), 50 аномалий, из которых 15 являются сложными для обнаружения(точки рядом с границей) и 35 являются легко обнаружимыми (находятся по углам двумерного набора данных)
### 10) Применили обученные автокодировщики AE1 и AE2 к тестовым данным и вывели значения ошибки реконструкции для каждого элемента тестовой выборки относительно порога на график и в консоль.
```python
# тестирование АE1
predicted_labels1, ire1 = lib.predict_ae(ae1_trained, data_test, IREth1)
```
```python
# тестирование АE1
lib.anomaly_detection_ae(predicted_labels1, ire1, IREth1)
lib.ire_plot('test', ire1, IREth1, 'AE1')
```
```
i Labels IRE IREth
0 [0.] [3.73] 4.11
1 [0.] [3.88] 4.11
2 [0.] [3.81] 4.11
3 [0.] [3.85] 4.11
4 [0.] [3.9] 4.11
5 [0.] [3.92] 4.11
6 [0.] [3.95] 4.11
7 [0.] [3.93] 4.11
8 [0.] [3.89] 4.11
9 [0.] [4.] 4.11
10 [1.] [5.92] 4.11
11 [1.] [6.67] 4.11
12 [1.] [6.63] 4.11
13 [1.] [6.66] 4.11
14 [1.] [6.72] 4.11
15 [1.] [6.69] 4.11
16 [1.] [6.77] 4.11
17 [1.] [6.7] 4.11
18 [1.] [6.71] 4.11
19 [1.] [6.75] 4.11
20 [0.] [1.23] 4.11
21 [0.] [1.41] 4.11
22 [0.] [1.28] 4.11
23 [0.] [1.03] 4.11
24 [0.] [1.46] 4.11
25 [0.] [1.18] 4.11
26 [0.] [1.59] 4.11
27 [0.] [1.] 4.11
28 [0.] [1.7] 4.11
29 [0.] [1.05] 4.11
30 [1.] [6.04] 4.11
31 [1.] [6.26] 4.11
32 [1.] [5.91] 4.11
33 [1.] [6.12] 4.11
34 [1.] [5.78] 4.11
35 [1.] [6.3] 4.11
36 [1.] [5.67] 4.11
37 [1.] [6.38] 4.11
38 [1.] [5.66] 4.11
39 [1.] [6.48] 4.11
40 [1.] [6.33] 4.11
41 [1.] [6.59] 4.11
42 [1.] [6.33] 4.11
43 [1.] [6.53] 4.11
44 [1.] [6.49] 4.11
45 [1.] [6.66] 4.11
46 [1.] [6.47] 4.11
47 [1.] [6.71] 4.11
48 [1.] [6.33] 4.11
49 [1.] [6.81] 4.11
50 [1.] [17.17] 4.11
51 [1.] [17.96] 4.11
52 [1.] [17.94] 4.11
53 [1.] [17.95] 4.11
54 [1.] [18.02] 4.11
55 [1.] [17.97] 4.11
56 [1.] [18.08] 4.11
57 [1.] [17.96] 4.11
58 [1.] [18.02] 4.11
59 [1.] [17.99] 4.11
60 [0.] [2.12] 4.11
61 [0.] [3.66] 4.11
62 [0.] [1.86] 4.11
63 [0.] [3.73] 4.11
64 [0.] [1.79] 4.11
65 [0.] [3.58] 4.11
66 [0.] [1.76] 4.11
67 [0.] [3.5] 4.11
68 [0.] [1.84] 4.11
69 [0.] [3.4] 4.11
70 [1.] [15.92] 4.11
71 [1.] [16.38] 4.11
72 [1.] [15.98] 4.11
73 [1.] [16.28] 4.11
74 [1.] [16.19] 4.11
75 [1.] [16.48] 4.11
76 [1.] [16.11] 4.11
77 [1.] [16.55] 4.11
78 [1.] [15.91] 4.11
79 [1.] [16.67] 4.11
80 [1.] [22.45] 4.11
81 [1.] [17.93] 4.11
82 [1.] [7.85] 4.11
83 [1.] [23.23] 4.11
84 [1.] [8.76] 4.11
85 [1.] [24.31] 4.11
86 [0.] [3.67] 4.11
87 [1.] [20.37] 4.11
88 [1.] [14.71] 4.11
89 [1.] [24.9] 4.11
90 [1.] [14.24] 4.11
91 [1.] [15.55] 4.11
92 [1.] [17.18] 4.11
93 [1.] [18.58] 4.11
94 [1.] [19.23] 4.11
95 [1.] [21.29] 4.11
96 [1.] [23.65] 4.11
97 [1.] [26.11] 4.11
98 [1.] [28.63] 4.11
99 [1.] [31.19] 4.11
Обнаружено 69.0 аномалий
```
![IRE fir test set. AE1](/data/11.png)
```python
# тестирование АE2
predicted_labels2, ire2 = lib.predict_ae(ae2_trained, data_test, IREth2)
```
```python
# тестирование АE2
lib.anomaly_detection_ae(predicted_labels2, ire2, IREth2)
lib.ire_plot('test', ire2, IREth2, 'AE2')
```
```
i Labels IRE IREth
0 [0.] [0.14] 0.48
1 [0.] [0.35] 0.48
2 [0.] [0.38] 0.48
3 [0.] [0.21] 0.48
4 [0.] [0.26] 0.48
5 [1.] [0.49] 0.48
6 [0.] [0.44] 0.48
7 [1.] [0.62] 0.48
8 [1.] [0.63] 0.48
9 [1.] [0.8] 0.48
10 [1.] [2.25] 0.48
11 [1.] [3.] 0.48
12 [1.] [3.] 0.48
13 [1.] [2.98] 0.48
14 [1.] [3.06] 0.48
15 [1.] [3.02] 0.48
16 [1.] [3.14] 0.48
17 [1.] [3.02] 0.48
18 [1.] [3.11] 0.48
19 [1.] [3.08] 0.48
20 [1.] [2.56] 0.48
21 [1.] [2.44] 0.48
22 [1.] [2.86] 0.48
23 [1.] [2.68] 0.48
24 [1.] [2.49] 0.48
25 [1.] [2.53] 0.48
26 [1.] [2.59] 0.48
27 [1.] [2.74] 0.48
28 [1.] [2.71] 0.48
29 [1.] [2.76] 0.48
30 [1.] [2.89] 0.48
31 [1.] [3.25] 0.48
32 [1.] [2.68] 0.48
33 [1.] [3.14] 0.48
34 [1.] [2.48] 0.48
35 [1.] [3.37] 0.48
36 [1.] [2.31] 0.48
37 [1.] [3.49] 0.48
38 [1.] [2.23] 0.48
39 [1.] [3.61] 0.48
40 [1.] [2.95] 0.48
41 [1.] [3.33] 0.48
42 [1.] [2.88] 0.48
43 [1.] [3.21] 0.48
44 [1.] [3.09] 0.48
45 [1.] [3.44] 0.48
46 [1.] [3.] 0.48
47 [1.] [3.54] 0.48
48 [1.] [2.81] 0.48
49 [1.] [3.69] 0.48
50 [1.] [13.5] 0.48
51 [1.] [14.3] 0.48
52 [1.] [14.3] 0.48
53 [1.] [14.29] 0.48
54 [1.] [14.37] 0.48
55 [1.] [14.3] 0.48
56 [1.] [14.44] 0.48
57 [1.] [14.29] 0.48
58 [1.] [14.38] 0.48
59 [1.] [14.31] 0.48
60 [1.] [6.74] 0.48
61 [1.] [7.48] 0.48
62 [1.] [6.97] 0.48
63 [1.] [7.63] 0.48
64 [1.] [6.8] 0.48
65 [1.] [7.33] 0.48
66 [1.] [6.95] 0.48
67 [1.] [7.19] 0.48
68 [1.] [6.9] 0.48
69 [1.] [7.03] 0.48
70 [1.] [12.98] 0.48
71 [1.] [13.33] 0.48
72 [1.] [12.86] 0.48
73 [1.] [13.21] 0.48
74 [1.] [13.08] 0.48
75 [1.] [13.44] 0.48
76 [1.] [12.98] 0.48
77 [1.] [13.53] 0.48
78 [1.] [12.76] 0.48
79 [1.] [13.67] 0.48
80 [1.] [19.63] 0.48
81 [1.] [13.96] 0.48
82 [1.] [7.32] 0.48
83 [1.] [19.91] 0.48
84 [1.] [9.39] 0.48
85 [1.] [20.66] 0.48
86 [1.] [7.18] 0.48
87 [1.] [17.49] 0.48
88 [1.] [13.36] 0.48
89 [1.] [21.6] 0.48
90 [1.] [11.17] 0.48
91 [1.] [11.57] 0.48
92 [1.] [12.57] 0.48
93 [1.] [14.] 0.48
94 [1.] [15.85] 0.48
95 [1.] [17.95] 0.48
96 [1.] [20.21] 0.48
97 [1.] [22.59] 0.48
98 [1.] [25.06] 0.48
99 [1.] [27.59] 0.48
Обнаружено 94.0 аномалий
```
| Параметр | AE1 | AE2 |
|----------|-----|-----|
| **True Positive (TP)** | 29 | 50 |
| **True Negative (TN)** | 10 | 4 |
| **False Positive (FP)** | 29 | 46 |
| **False Negative (FN)** | 21 | 0 |
![IRE fir test set. AE2](/data/12.png)
### 11) Визуализировали элементы обучающей и тестовой выборки в областях пространства признаков, распознаваемых автокодировщиками AE1 и AE2.
```python
# построение областей аппроксимации и точек тестового набора
lib.plot2in1_anomaly(data, xx, yy, Z1, Z2, data_test)
```
![Сравнение теста AE1 и AE2](/data/13.png)
### 12) Результаты исследования занесли в таблицу:
Табл. 1 Результаты задания №1
| | Количество скрытых слоев | Количество нейронов в скрытых слоях | Количество эпох обучения | Ошибка MSE_stop | Порог ошибки реконструкции | Значение показателя Excess | Значение показателя Approx | Количество обнаруженных аномалий |
|-----:|------------------------------|----------------------------------------|-----------------------------|--------------------|-------------------------------|-------------------------------|--------------------------------|-------------------------------------|
| AE1 | 1 | 1 | 1000 | 7.0839 | 4.16 | 14.526 | 0.064 | 69 |
| AE2 | 5 | 3,2,1,2,3 | 3000 | 0.0114 | 0.48 | 1.158 | 0.463 | 94 |
### 13) Сделали выводы о требованиях к:
- данным для обучения,
- архитектуре автокодировщика,
- количеству эпох обучения,
- ошибке MSE_stop, приемлемой для останова обучения,
- ошибке реконструкции обучающей выборки (порогу обнаружения
аномалий),
- характеристикам качества обучения EDCA одноклассового
классификатора
для качественного обнаружения аномалий в данных.
1) Данные для обучения должны быть без аномалий, чтобы автокодировщик смог рассчитать верное пороговое значение
2) Слишком простая архитектура, как у AE1, приводит к неполному выявлению аномалий. Напротив, архитектура, как у AE2, приводит к переобучению
3) 1000 эпох - недостаточно, 3000 - избыточно
4) Оптимальная ошибка MSE-stop в диапазоне 0.1- 0.01, желательно не меньше для предотвращения переобучения
5) 4.16 адекватный, но завышен из-за выбросов. 0.48 слишком низкий, чрезмерная чувствительность.
6) Значение Excess не больше 0.5, значение Deficit равное 0, значение Coating равное 1, значение Approx не меньше 0.7
## Задание 2
### 1) Изучить описание своего набора реальных данных, что он из себя представляет
Бригада 4 => набор данных Letter. Он представляет собой набор данных для многоклассовой классификации. Набор предназначен для распознавания черно-белых пиксельных прямоугольниковкак одну из 26 заглавных букв английского алфавита, где буквы алфавита представлены в 16 измерениях. Чтобы получить данные, подходящие для обнаружения аномалий, была произведена подвыборка данных из 3 букв, чтобы сформировать нормальный класс, и случайным образом их пары были объединены так, чтобы их размерность удваивалась. Чтобы сформировать класс аномалий, случайным образом были выбраны несколько экземпляров букв, которые не входят нормальный класс, и они были объединены с экземплярами из нормального класса. Процесс объединения выполняется для того, чтобы сделать обнаружение более сложным, поскольку каждый аномальный пример также будет иметь некоторые нормальные значения признаков
| Количество признаков | Количество примеров | Количество нормальных примеров | Количество аномальных примеров |
|-------------------------:|-----------------------:|----------------------------------:|-----------------------------------:|
| 32 | 1600 | 1500 | 100 |
### 2) Загрузить многомерную обучающую выборку реальных данных Letter.txt.
```python
# загрузка обчуающей выборки
train= np.loadtxt('letter_train.txt', dtype=float)
```
### 3) Вывести полученные данные и их размерность в консоли.
```python
print('train:\n', train)
print('train.shape:', np.shape(train))
```
```
train:
[[ 6. 10. 5. ... 10. 2. 7.]
[ 0. 6. 0. ... 8. 1. 7.]
[ 4. 7. 5. ... 8. 2. 8.]
...
[ 7. 10. 10. ... 8. 5. 6.]
[ 7. 7. 10. ... 6. 0. 8.]
[ 3. 4. 5. ... 9. 5. 5.]]
train.shape: (1500, 32)
```
### 4) Создать и обучить автокодировщик с подходящей для данных архитектурой. Выбрать необходимое количество эпох обучения.
```python
patience = 5000
ae3_trained, IRE3, IREth3= lib.create_fit_save_ae(train,'out/AE3.h5','out/AE3_ire_th.txt', 100000, False, patience)
```
### 5) Зафиксировать ошибку MSE, на которой обучение завершилось. Построить график ошибки реконструкции обучающей выборки. Зафиксировать порог ошибки реконструкции – порог обнаружения аномалий.
Скрытых слоев 7, нейроны: 14 12 9 7 9 12 14
Ошибка MSE_AE3 = 0.9383
```python
# Построение графика ошибки реконструкции
lib.ire_plot('training', IRE3, IREth3, 'AE3')
```
![IRE for training set. AE3](/data/14.png)
### 6) Сделать вывод о пригодности обученного автокодировщика для качественного обнаружения аномалий. Если порог ошибки реконструкции слишком велик, то подобрать подходящие параметры автокодировщика и повторить шаги (4) – (6).
```python
# обучение AE3.2
patience=5000
ae32_trained, IRE32, IREth32= lib.create_fit_save_ae(train,'out/AE32.h5','out/AE32_ire_th.txt', 100000, False, patience)
```
Скрытых слоев 7, нейроны: 12 10 8 7 8 10 12
Ошибка MSE_AE32 = 0.9393
```python
# Построение графика ошибки реконструкции
lib.ire_plot('training', IRE32, IREth32, 'AE32')
```
![IRE for training set. AE32](/data/16.png)
```python
# обучение AE3.3
patience=5000
ae33_trained, IRE33, IREth33= lib.create_fit_save_ae(train,'out/AE33.h5','out/AE33_ire_th.txt', 100000, False, patience)
```
Скрытых слоев 7, нейроны: 10 9 8 7 8 9 10
Ошибка MSE_AE33 = 1.0524
```python
# Построение графика ошибки реконструкции
lib.ire_plot('training', IRE33, IREth33, 'AE33')
```
![IRE for training set. AE33](/data/18.png)
```python
# обучение AE3.4
patience=5000
ae34_trained, IRE34, IREth34=lib.create_fit_save_ae(train,'out/AE34.h5','out/AE34_ire_th.txt', 100000, False, patience)
```
Скрытых слоев 11, нейроны: 48 36 28 22 16 10 16 22 28 36 48
Ошибка MSE_AE34 = 0.3074
```python
# Построение графика ошибки реконструкции
lib.ire_plot('training', IRE34, IREth34, 'AE34')
```
![IRE for training set. AE34](/data/20.png)
### 7) Изучить и загрузить тестовую выборку Letter.txt.
```python
#загрузка тестовой выборки
test = np.loadtxt('letter_test.txt', dtype=float)
print('\n test:\n', test)
print('test.shape:', np.shape(test))
```
```
test:
[[ 8. 11. 8. ... 7. 4. 9.]
[ 4. 5. 4. ... 13. 8. 8.]
[ 3. 3. 5. ... 8. 3. 8.]
...
[ 4. 9. 4. ... 8. 3. 8.]
[ 6. 10. 6. ... 9. 8. 8.]
[ 3. 1. 3. ... 9. 1. 7.]]
test.shape: (100, 32)
```
### 8) Подать тестовую выборку на вход обученного автокодировщика для обнаружения аномалий. Вывести график ошибки реконструкции элементов тестовой выборки относительно порога.
```python
#тестирование АE3
predicted_labels3, ire3 = lib.predict_ae(ae3_trained, test, IREth3)
#тестированиеАE3
lib.anomaly_detection_ae(predicted_labels3, ire3, IREth3)
```
```python
# Построение графика ошибки реконструкции
lib.ire_plot('test', ire3, IREth3, 'AE3')
```
![IRE for test set. AE3](/data/15.png)
```python
#тестирование АE32
predicted_labels32, ire32 = lib.predict_ae(ae32_trained, test, IREth32)
#тестированиеАE32
lib.anomaly_detection_ae(predicted_labels32, ire32, IREth32)
```
```python
# Построение графика ошибки реконструкции
lib.ire_plot('test', ire32, IREth32, 'AE32')
```
![IRE for test set. AE32](/data/17.png)
```python
#тестирование АE33
predicted_labels33, ire33 = lib.predict_ae(ae33_trained, test, IREth33)
#тестированиеАE33
lib.anomaly_detection_ae(predicted_labels33, ire33, IREth33)
```
```python
# Построение графика ошибки реконструкции
lib.ire_plot('test', ire33, IREth33, 'AE33')
```
![IRE for test set. AE33](/data/19.png)
```python
#тестирование АE34
predicted_labels34, ire34 = lib.predict_ae(ae34_trained, test, IREth34)
#тестированиеАE34
lib.anomaly_detection_ae(predicted_labels34, ire34, IREth34)
```
```python
# Построение графика ошибки реконструкции
lib.ire_plot('test', ire34, IREth34, 'AE34')
```
![IRE for test set. AE34](/data/21.png)
### 9) Если результаты обнаружения аномалий не удовлетворительные (обнаружено менее 70% аномалий), то подобрать подходящие параметры автокодировщика и повторить шаги (4) – (9).
Результаты обнаружения аномалий удовлетворены.
### 10) Параметры наилучшего автокодировщика и результаты обнаружения аномалий занести в таблицу:
Табл. 2 Результаты задания №2
| Dataset name | Количество скрытых слоев | Количество нейронов в скрытых слоях | Количество эпох обучения | Ошибка MSE_stop | Порог ошибки реконструкции | % обнаруженных аномалий |
|:-------------|:-----------------------------|:----------------------------------------|:-----------------------------|:-------------------|:-------------------------------|:---------------------------|
| Cardio | 11 | 48 36 28 22 16 10 16 22 28 36 48 | 100000 | 0.3074 | 7.3 | 85% |
### 11) Сделать выводы о требованиях к:
- данным для обучения,
- архитектуре автокодировщика,
- количеству эпох обучения,
- ошибке MSE_stop, приемлемой для останова обучения,
- ошибке реконструкции обучающей выборки (порогу обнаружения
аномалий)
для качественного обнаружения аномалий в случае, когда размерность
пространства признаков высока.
1) Данные для обучения должны быть без аномалий, чтобы автокодировщик смог рассчитать верное пороговое значение
2) Архитектура автокодировщика должна постепенно сужатся к бутылочному горлышку,а затем постепенно возвращатся к исходным выходным размерам, кол-во скрытых слоев 7-11.
3) В рамках данного набора данных оптимальное кол-во эпох 100000 с patience 5000 эпох
4) Оптимальная ошибка MSE-stop в районе 0.1, желательно не меньше для предотвращения переобучения
5) Значение порога не больше 1.6
Загрузка…
Отмена
Сохранить