|
|
|
|
@ -0,0 +1,587 @@
|
|
|
|
|
# Отчёт по лабораторной работе №3
|
|
|
|
|
|
|
|
|
|
**Ильинцева Л.В. Коновалова А.А. — А-01-22**
|
|
|
|
|
|
|
|
|
|
## Задание 1
|
|
|
|
|
|
|
|
|
|
### 1. Подготовили рабочую среду в Google Colab, создав новый блокнот. Выполнили импорт требуемых библиотек и модулей для дальнейшей работы.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# импорт модулей
|
|
|
|
|
import os
|
|
|
|
|
os.chdir('/content/drive/MyDrive/Colab Notebooks/is_lab3')
|
|
|
|
|
|
|
|
|
|
from tensorflow import keras
|
|
|
|
|
from tensorflow.keras import layers
|
|
|
|
|
from tensorflow.keras.models import Sequential
|
|
|
|
|
import matplotlib.pyplot as plt
|
|
|
|
|
import numpy as np
|
|
|
|
|
from sklearn.metrics import classification_report, confusion_matrix
|
|
|
|
|
from sklearn.metrics import ConfusionMatrixDisplay
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 2. Произвели загрузку датасета MNIST, который включает размеченные изображения рукописных цифр.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# загрузка датасета
|
|
|
|
|
from keras.datasets import mnist
|
|
|
|
|
(X_train, y_train), (X_test, y_test) = mnist.load_data()
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 3. Выполнили разделение датасета на обучающую и тестовую выборки в пропорции 60 000:10 000. Для воспроизводимости результатов установили параметр random_state равным (4k – 1)=31, где k=8 соответствует номеру нашей бригады. Отобразили размерности полученных массивов данных.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# создание своего разбиения датасета
|
|
|
|
|
from sklearn.model_selection import train_test_split
|
|
|
|
|
|
|
|
|
|
# объединяем в один набор
|
|
|
|
|
X = np.concatenate((X_train, X_test))
|
|
|
|
|
y = np.concatenate((y_train, y_test))
|
|
|
|
|
|
|
|
|
|
# разбиваем по вариантам
|
|
|
|
|
X_train, X_test, y_train, y_test = train_test_split(X, y,
|
|
|
|
|
test_size = 10000,
|
|
|
|
|
train_size = 60000,
|
|
|
|
|
random_state = 31)
|
|
|
|
|
# вывод размерностей
|
|
|
|
|
print('Shape of X train:', X_train.shape)
|
|
|
|
|
print('Shape of y train:', y_train.shape)
|
|
|
|
|
print('Shape of X test:', X_test.shape)
|
|
|
|
|
print('Shape of y test:', y_test.shape)
|
|
|
|
|
```
|
|
|
|
|
```
|
|
|
|
|
Shape of X train: (60000, 28, 28)
|
|
|
|
|
Shape of y train: (60000,)
|
|
|
|
|
Shape of X test: (10000, 28, 28)
|
|
|
|
|
Shape of y test: (10000,)
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 4. Осуществили предобработку данных для подготовки к обучению сверточной нейронной сети. Нормализовали пиксели изображений в диапазон [0, 1], а метки классов преобразовали в формат one-hot encoding. Продемонстрировали размерности обработанных массивов.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# Зададим параметры данных и модели
|
|
|
|
|
num_classes = 10
|
|
|
|
|
input_shape = (28, 28, 1)
|
|
|
|
|
|
|
|
|
|
# Приведение входных данных к диапазону [0, 1]
|
|
|
|
|
X_train = X_train / 255
|
|
|
|
|
X_test = X_test / 255
|
|
|
|
|
|
|
|
|
|
# Расширяем размерность входных данных, чтобы каждое изображение имело
|
|
|
|
|
# размерность (высота, ширина, количество каналов)
|
|
|
|
|
|
|
|
|
|
X_train = np.expand_dims(X_train, -1)
|
|
|
|
|
X_test = np.expand_dims(X_test, -1)
|
|
|
|
|
print('Shape of transformed X train:', X_train.shape)
|
|
|
|
|
print('Shape of transformed X test:', X_test.shape)
|
|
|
|
|
|
|
|
|
|
# переведем метки в one-hot
|
|
|
|
|
y_train = keras.utils.to_categorical(y_train, num_classes)
|
|
|
|
|
y_test = keras.utils.to_categorical(y_test, num_classes)
|
|
|
|
|
print('Shape of transformed y train:', y_train.shape)
|
|
|
|
|
print('Shape of transformed y test:', y_test.shape)
|
|
|
|
|
```
|
|
|
|
|
```
|
|
|
|
|
Shape of transformed X train: (60000, 28, 28, 1)
|
|
|
|
|
Shape of transformed X test: (10000, 28, 28, 1)
|
|
|
|
|
Shape of transformed y train: (60000, 10)
|
|
|
|
|
Shape of transformed y test: (10000, 10)
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 5. Разработали архитектуру сверточной нейронной сети и провели ее обучение на обучающей выборке, выделив часть данных для валидации. Представили структуру созданной модели.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# создаем модель
|
|
|
|
|
model = Sequential()
|
|
|
|
|
model.add(layers.Conv2D(32, kernel_size=(3, 3), activation="relu", input_shape=input_shape))
|
|
|
|
|
model.add(layers.MaxPooling2D(pool_size=(2, 2)))
|
|
|
|
|
model.add(layers.Conv2D(64, kernel_size=(3, 3), activation="relu"))
|
|
|
|
|
model.add(layers.MaxPooling2D(pool_size=(2, 2)))
|
|
|
|
|
model.add(layers.Dropout(0.5))
|
|
|
|
|
model.add(layers.Flatten())
|
|
|
|
|
model.add(layers.Dense(num_classes, activation="softmax"))
|
|
|
|
|
|
|
|
|
|
model.summary()
|
|
|
|
|
```
|
|
|
|
|
**Model: "sequential"**
|
|
|
|
|
| Layer (type) | Output Shape | Param # |
|
|
|
|
|
|--------------------------------|---------------------|--------:|
|
|
|
|
|
| conv2d (Conv2D) | (None, 26, 26, 32) | 320 |
|
|
|
|
|
| max_pooling2d (MaxPooling2D) | (None, 13, 13, 32) | 0 |
|
|
|
|
|
| conv2d_1 (Conv2D) | (None, 11, 11, 64) | 18,496 |
|
|
|
|
|
| max_pooling2d_1 (MaxPooling2D) | (None, 5, 5, 64) | 0 |
|
|
|
|
|
| dropout (Dropout) | (None, 5, 5, 64) | 0 |
|
|
|
|
|
| flatten (Flatten) | (None, 1600) | 0 |
|
|
|
|
|
| dense (Dense) | (None, 10) | 16,010 |
|
|
|
|
|
**Total params:** 34,826 (136.04 KB)
|
|
|
|
|
**Trainable params:** 34,826 (136.04 KB)
|
|
|
|
|
**Non-trainable params:** 0 (0.00 B)
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# компилируем и обучаем модель
|
|
|
|
|
batch_size = 512
|
|
|
|
|
epochs = 15
|
|
|
|
|
model.compile(loss="categorical_crossentropy", optimizer="adam", metrics=["accuracy"])
|
|
|
|
|
model.fit(X_train, y_train, batch_size=batch_size, epochs=epochs, validation_split=0.1)
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 6. Протестировали обученную модель на тестовой выборке. Определили значения функции потерь и точности классификации.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# Оценка качества работы модели на тестовых данных
|
|
|
|
|
scores = model.evaluate(X_test, y_test)
|
|
|
|
|
print('Loss on test data:', scores[0])
|
|
|
|
|
print('Accuracy on test data:', scores[1])
|
|
|
|
|
```
|
|
|
|
|
```
|
|
|
|
|
313/313 ━━━━━━━━━━━━━━━━━━━━ 1s 3ms/step - accuracy: 0.9873 - loss: 0.0396
|
|
|
|
|
Loss on test data: 0.03962046653032303
|
|
|
|
|
Accuracy on test data: 0.9872999787330627
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 7. Протестировали модель на двух произвольных изображениях из тестовой выборки. Визуализировали изображения и сравнили истинные метки с предсказаниями модели.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# вывод двух тестовых изображений и результатов распознавания
|
|
|
|
|
|
|
|
|
|
for n in [3,26]:
|
|
|
|
|
result = model.predict(X_test[n:n+1])
|
|
|
|
|
print('NN output:', result)
|
|
|
|
|
|
|
|
|
|
plt.imshow(X_test[n].reshape(28,28), cmap=plt.get_cmap('gray'))
|
|
|
|
|
plt.show()
|
|
|
|
|
print('Real mark: ', np.argmax(y_test[n]))
|
|
|
|
|
print('NN answer: ', np.argmax(result))
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|

|
|
|
|
|
|
|
|
|
|
```
|
|
|
|
|
Real mark: 7
|
|
|
|
|
NN answer: 7
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|

|
|
|
|
|
|
|
|
|
|
```
|
|
|
|
|
Real mark: 4
|
|
|
|
|
NN answer: 4
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 8. Сформировали детальный отчет о качестве классификации на тестовой выборке, включая матрицу ошибок (confusion matrix).
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# истинные метки классов
|
|
|
|
|
true_labels = np.argmax(y_test, axis=1)
|
|
|
|
|
# предсказанные метки классов
|
|
|
|
|
predicted_labels = np.argmax(model.predict(X_test), axis=1)
|
|
|
|
|
|
|
|
|
|
# отчет о качестве классификации
|
|
|
|
|
print(classification_report(true_labels, predicted_labels))
|
|
|
|
|
# вычисление матрицы ошибок
|
|
|
|
|
conf_matrix = confusion_matrix(true_labels, predicted_labels)
|
|
|
|
|
# отрисовка матрицы ошибок в виде "тепловой карты"
|
|
|
|
|
display = ConfusionMatrixDisplay(confusion_matrix=conf_matrix)
|
|
|
|
|
display.plot()
|
|
|
|
|
plt.show()
|
|
|
|
|
```
|
|
|
|
|
```
|
|
|
|
|
313/313 ━━━━━━━━━━━━━━━━━━━━ 1s 2ms/step
|
|
|
|
|
precision recall f1-score support
|
|
|
|
|
|
|
|
|
|
0 1.00 0.99 0.99 967
|
|
|
|
|
1 1.00 0.99 0.99 1107
|
|
|
|
|
2 0.98 0.99 0.99 970
|
|
|
|
|
3 0.99 0.98 0.99 1023
|
|
|
|
|
4 1.00 0.99 0.99 1008
|
|
|
|
|
5 0.98 0.99 0.98 866
|
|
|
|
|
6 0.99 0.99 0.99 965
|
|
|
|
|
7 0.98 0.98 0.98 1070
|
|
|
|
|
8 0.98 0.99 0.99 943
|
|
|
|
|
9 0.98 0.98 0.98 1081
|
|
|
|
|
|
|
|
|
|
accuracy 0.99 10000
|
|
|
|
|
macro avg 0.99 0.99 0.99 10000
|
|
|
|
|
weighted avg 0.99 0.99 0.99 10000
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|

|
|
|
|
|
|
|
|
|
|
### 9. Загрузили собственные изображения, подготовленные в рамках лабораторной работы №1. После предобработки передали их на вход обученной модели и получили результаты распознавания.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# загрузка собственного изображения
|
|
|
|
|
from PIL import Image
|
|
|
|
|
|
|
|
|
|
for name_image in ['цифра 3.png', 'цифра 6.png']:
|
|
|
|
|
file_data = Image.open(name_image)
|
|
|
|
|
file_data = file_data.convert('L') # перевод в градации серого
|
|
|
|
|
test_img = np.array(file_data)
|
|
|
|
|
|
|
|
|
|
# вывод собственного изображения
|
|
|
|
|
plt.imshow(test_img, cmap=plt.get_cmap('gray'))
|
|
|
|
|
plt.show()
|
|
|
|
|
|
|
|
|
|
# предобработка
|
|
|
|
|
test_img = test_img / 255
|
|
|
|
|
test_img = np.reshape(test_img, (1,28,28,1))
|
|
|
|
|
|
|
|
|
|
# распознавание
|
|
|
|
|
result = model.predict(test_img)
|
|
|
|
|
print('I think it\'s', np.argmax(result))
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|

|
|
|
|
|
|
|
|
|
|
```
|
|
|
|
|
I think it's 3
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|

|
|
|
|
|
|
|
|
|
|
```
|
|
|
|
|
I think it's 6
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 10. Загрузили ранее сохраненную модель из лабораторной работы №1. Изучили ее архитектуру и провели оценку качества на тестовых данных аналогично пункту 6.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
model_lr1 = keras.models.load_model("model_1h100_2h50.keras")
|
|
|
|
|
|
|
|
|
|
model_lr1.summary()
|
|
|
|
|
```
|
|
|
|
|
**Model: "sequential_10"**
|
|
|
|
|
| Layer (type) | Output Shape | Param # |
|
|
|
|
|
|------------------|-------------:|--------:|
|
|
|
|
|
| dense_22 (Dense) | (None, 100) | 78,500 |
|
|
|
|
|
| dense_23 (Dense) | (None, 50) | 5,050 |
|
|
|
|
|
| dense_24 (Dense) | (None, 10) | 510 |
|
|
|
|
|
**Total params:** 84,062 (328.37 KB)
|
|
|
|
|
**Trainable params:** 84,060 (328.36 KB)
|
|
|
|
|
**Non-trainable params:** 0 (0.00 B)
|
|
|
|
|
**Optimizer params:** 2 (12.00 B)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# развернем каждое изображение 28*28 в вектор 784
|
|
|
|
|
X_train, X_test, y_train, y_test = train_test_split(X, y,
|
|
|
|
|
test_size = 10000,
|
|
|
|
|
train_size = 60000,
|
|
|
|
|
random_state = 31)
|
|
|
|
|
num_pixels = X_train.shape[1] * X_train.shape[2]
|
|
|
|
|
X_train = X_train.reshape(X_train.shape[0], num_pixels) / 255
|
|
|
|
|
X_test = X_test.reshape(X_test.shape[0], num_pixels) / 255
|
|
|
|
|
print('Shape of transformed X train:', X_train.shape)
|
|
|
|
|
print('Shape of transformed X train:', X_test.shape)
|
|
|
|
|
|
|
|
|
|
# переведем метки в one-hot
|
|
|
|
|
y_train = keras.utils.to_categorical(y_train, num_classes)
|
|
|
|
|
y_test = keras.utils.to_categorical(y_test, num_classes)
|
|
|
|
|
print('Shape of transformed y train:', y_train.shape)
|
|
|
|
|
print('Shape of transformed y test:', y_test.shape)
|
|
|
|
|
```
|
|
|
|
|
```
|
|
|
|
|
Shape of transformed X train: (60000, 784)
|
|
|
|
|
Shape of transformed X train: (10000, 784)
|
|
|
|
|
Shape of transformed y train: (60000, 10)
|
|
|
|
|
Shape of transformed y test: (10000, 10)
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# Оценка качества работы модели на тестовых данных
|
|
|
|
|
scores = model_lr1.evaluate(X_test, y_test)
|
|
|
|
|
print('Loss on test data:', scores[0])
|
|
|
|
|
print('Accuracy on test data:', scores[1])
|
|
|
|
|
```
|
|
|
|
|
```
|
|
|
|
|
313/313 ━━━━━━━━━━━━━━━━━━━━ 2s 3ms/step - accuracy: 0.9440 - loss: 0.1897
|
|
|
|
|
Loss on test data: 0.18974457681179047
|
|
|
|
|
Accuracy on test data: 0.9440000057220459
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 11. Выполнили сравнительный анализ сверточной нейронной сети и лучшей полносвязной модели из лабораторной работы №1. Сравнение проводилось по трем критериям:
|
|
|
|
|
### - число обучаемых параметров модели
|
|
|
|
|
### - количество эпох, необходимое для обучения
|
|
|
|
|
### - итоговое качество классификации на тестовой выборке
|
|
|
|
|
### На основе полученных результатов сформулировали выводы об эффективности применения сверточных нейронных сетей для задач распознавания изображений.
|
|
|
|
|
|
|
|
|
|
Таблица1:
|
|
|
|
|
|
|
|
|
|
| Модель | Количество настраиваемых параметров | Количество эпох обучения | Качество классификации тестовой выборки |
|
|
|
|
|
|----------|-------------------------------------|---------------------------|-----------------------------------------|
|
|
|
|
|
| Сверточная | 34 826 | 15 | accuracy:0.987 ; loss:0.040 |
|
|
|
|
|
| Полносвязная | 84 062 | 50 | accuracy:0.944 ; loss:0.190 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
##### Проведенный сравнительный анализ, результаты которого представлены в таблице 1, наглядно демонстрирует превосходство сверточной нейронной сети над полносвязной архитектурой в задачах классификации изображений.
|
|
|
|
|
|
|
|
|
|
**Эффективность по параметрам:** Сверточная сеть содержит в 2.4 раза меньше обучаемых параметров (34 826 против 84 062), что свидетельствует о более эффективном использовании вычислительных ресурсов благодаря механизму разделения весов в сверточных слоях.
|
|
|
|
|
|
|
|
|
|
**Скорость обучения:** Сверточная модель достигает оптимального качества за 15 эпох, в то время как полносвязная требует 50 эпох. Это указывает на более быструю сходимость алгоритма обучения благодаря индуктивным смещениям, заложенным в архитектуру сверточных сетей.
|
|
|
|
|
|
|
|
|
|
**Качество классификации:** Сверточная сеть демонстрирует значительно более высокую точность (98.7% против 94.4%) и существенно меньшие потери (0.040 против 0.190). Разница в точности составляет более 4 процентных пунктов, что является существенным улучшением для задачи распознавания рукописных цифр.
|
|
|
|
|
|
|
|
|
|
**Выводы:** Полученные результаты подтверждают, что использование сверточных слоев позволяет эффективно извлекать иерархические пространственные признаки из изображений, что критически важно для задач компьютерного зрения. Инвариантность к сдвигам и способность выявлять локальные паттерны делают сверточные нейронные сети предпочтительным выбором для работы с изображениями по сравнению с полносвязными архитектурами.
|
|
|
|
|
|
|
|
|
|
## Задание 2
|
|
|
|
|
|
|
|
|
|
### В отдельном блокноте повторили этапы 2–8 из задания 1, заменив датасет MNIST на CIFAR-10, который содержит цветные изображения объектов, распределенные по 10 категориям.
|
|
|
|
|
### Особенности выполнения:
|
|
|
|
|
### - разделение на обучающую и тестовую выборки выполнено в пропорции 50 000:10 000
|
|
|
|
|
### - после разделения данных (между этапами 3 и 4) визуализировали 25 примеров из обучающей выборки с указанием соответствующих классов
|
|
|
|
|
### - при тестировании на двух изображениях (этап 7) одно должно быть распознано верно, а второе – с ошибкой
|
|
|
|
|
|
|
|
|
|
### 1. Произвели загрузку датасета CIFAR-10, включающего цветные изображения, распределенные по 10 категориям: самолет, автомобиль, птица, кошка, олень, собака, лягушка, лошадь, корабль, грузовик.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# загрузка датасета
|
|
|
|
|
from keras.datasets import cifar10
|
|
|
|
|
|
|
|
|
|
(X_train, y_train), (X_test, y_test) = cifar10.load_data()
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 2. Осуществили разделение датасета на обучающую и тестовую части в соотношении 50 000:10 000. Для обеспечения воспроизводимости установили random_state = 31, что соответствует формуле (4k – 1) при k=8 (номер нашей бригады). Отобразили размерности сформированных массивов.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# создание своего разбиения датасета
|
|
|
|
|
|
|
|
|
|
# объединяем в один набор
|
|
|
|
|
X = np.concatenate((X_train, X_test))
|
|
|
|
|
y = np.concatenate((y_train, y_test))
|
|
|
|
|
|
|
|
|
|
# разбиваем по вариантам
|
|
|
|
|
X_train, X_test, y_train, y_test = train_test_split(X, y,
|
|
|
|
|
test_size = 10000,
|
|
|
|
|
train_size = 50000,
|
|
|
|
|
random_state = 31)
|
|
|
|
|
# вывод размерностей
|
|
|
|
|
print('Shape of X train:', X_train.shape)
|
|
|
|
|
print('Shape of y train:', y_train.shape)
|
|
|
|
|
print('Shape of X test:', X_test.shape)
|
|
|
|
|
print('Shape of y test:', y_test.shape)
|
|
|
|
|
```
|
|
|
|
|
```
|
|
|
|
|
Shape of X train: (50000, 32, 32, 3)
|
|
|
|
|
Shape of y train: (50000, 1)
|
|
|
|
|
Shape of X test: (10000, 32, 32, 3)
|
|
|
|
|
Shape of y test: (10000, 1)
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### Визуализировали 25 примеров из обучающей выборки с указанием их классов.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
class_names = ['airplane', 'automobile', 'bird', 'cat', 'deer',
|
|
|
|
|
'dog', 'frog', 'horse', 'ship', 'truck']
|
|
|
|
|
|
|
|
|
|
plt.figure(figsize=(10,10))
|
|
|
|
|
for i in range(25):
|
|
|
|
|
plt.subplot(5,5,i+1)
|
|
|
|
|
plt.xticks([])
|
|
|
|
|
plt.yticks([])
|
|
|
|
|
plt.grid(False)
|
|
|
|
|
plt.imshow(X_train[i])
|
|
|
|
|
plt.xlabel(class_names[y_train[i][0]])
|
|
|
|
|
plt.show()
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|

|
|
|
|
|
|
|
|
|
|
### 3. Выполнили предобработку данных для обучения сверточной нейронной сети. Нормализовали значения пикселей в диапазон [0, 1] и преобразовали метки классов в формат one-hot encoding. Показали размерности обработанных массивов.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# Зададим параметры данных и модели
|
|
|
|
|
num_classes = 10
|
|
|
|
|
input_shape = (32, 32, 3)
|
|
|
|
|
|
|
|
|
|
# Приведение входных данных к диапазону [0, 1]
|
|
|
|
|
X_train = X_train / 255
|
|
|
|
|
X_test = X_test / 255
|
|
|
|
|
|
|
|
|
|
print('Shape of transformed X train:', X_train.shape)
|
|
|
|
|
print('Shape of transformed X test:', X_test.shape)
|
|
|
|
|
|
|
|
|
|
# переведем метки в one-hot
|
|
|
|
|
y_train = keras.utils.to_categorical(y_train, num_classes)
|
|
|
|
|
y_test = keras.utils.to_categorical(y_test, num_classes)
|
|
|
|
|
print('Shape of transformed y train:', y_train.shape)
|
|
|
|
|
print('Shape of transformed y test:', y_test.shape)
|
|
|
|
|
```
|
|
|
|
|
```
|
|
|
|
|
Shape of transformed X train: (50000, 32, 32, 3)
|
|
|
|
|
Shape of transformed X test: (10000, 32, 32, 3)
|
|
|
|
|
Shape of transformed y train: (50000, 10)
|
|
|
|
|
Shape of transformed y test: (10000, 10)
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 4. Построили архитектуру сверточной нейронной сети и провели обучение на обучающей выборке с использованием части данных для валидации. Представили детальную структуру модели.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# создаем модель
|
|
|
|
|
model = Sequential()
|
|
|
|
|
|
|
|
|
|
# Блок 1
|
|
|
|
|
model.add(layers.Conv2D(32, (3, 3), padding="same",
|
|
|
|
|
activation="relu", input_shape=input_shape))
|
|
|
|
|
model.add(layers.BatchNormalization())
|
|
|
|
|
model.add(layers.Conv2D(32, (3, 3), padding="same", activation="relu"))
|
|
|
|
|
model.add(layers.BatchNormalization())
|
|
|
|
|
model.add(layers.MaxPooling2D((2, 2)))
|
|
|
|
|
model.add(layers.Dropout(0.25))
|
|
|
|
|
|
|
|
|
|
# Блок 2
|
|
|
|
|
model.add(layers.Conv2D(64, (3, 3), padding="same", activation="relu"))
|
|
|
|
|
model.add(layers.BatchNormalization())
|
|
|
|
|
model.add(layers.Conv2D(64, (3, 3), padding="same", activation="relu"))
|
|
|
|
|
model.add(layers.BatchNormalization())
|
|
|
|
|
model.add(layers.MaxPooling2D((2, 2)))
|
|
|
|
|
model.add(layers.Dropout(0.25))
|
|
|
|
|
|
|
|
|
|
# Блок 3
|
|
|
|
|
model.add(layers.Conv2D(128, (3, 3), padding="same", activation="relu"))
|
|
|
|
|
model.add(layers.BatchNormalization())
|
|
|
|
|
model.add(layers.Conv2D(128, (3, 3), padding="same", activation="relu"))
|
|
|
|
|
model.add(layers.BatchNormalization())
|
|
|
|
|
model.add(layers.MaxPooling2D((2, 2)))
|
|
|
|
|
model.add(layers.Dropout(0.4))
|
|
|
|
|
|
|
|
|
|
model.add(layers.Flatten())
|
|
|
|
|
model.add(layers.Dense(128, activation='relu'))
|
|
|
|
|
model.add(layers.Dropout(0.5))
|
|
|
|
|
model.add(layers.Dense(num_classes, activation="softmax"))
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
model.summary()
|
|
|
|
|
```
|
|
|
|
|
**Model: "sequential_9"**
|
|
|
|
|
| Layer (type) | Output Shape | Param # |
|
|
|
|
|
|--------------------------------------------|-------------------|---------:|
|
|
|
|
|
| conv2d_41 (Conv2D) | (None, 32, 32, 32) | 896 |
|
|
|
|
|
| batch_normalization_6 (BatchNormalization) | (None, 32, 32, 32) | 128 |
|
|
|
|
|
| conv2d_42 (Conv2D) | (None, 32, 32, 32) | 9,248 |
|
|
|
|
|
| batch_normalization_7 (BatchNormalization) | (None, 32, 32, 32) | 128 |
|
|
|
|
|
| max_pooling2d_26 (MaxPooling2D) | (None, 16, 16, 32) | 0 |
|
|
|
|
|
| dropout_24 (Dropout) | (None, 16, 16, 32) | 0 |
|
|
|
|
|
| conv2d_43 (Conv2D) | (None, 16, 16, 64) | 18,496 |
|
|
|
|
|
| batch_normalization_8 (BatchNormalization) | (None, 16, 16, 64) | 256 |
|
|
|
|
|
| conv2d_44 (Conv2D) | (None, 16, 16, 64) | 36,928 |
|
|
|
|
|
| batch_normalization_9 (BatchNormalization) | (None, 16, 16, 64) | 256 |
|
|
|
|
|
| max_pooling2d_27 (MaxPooling2D) | (None, 8, 8, 64) | 0 |
|
|
|
|
|
| dropout_25 (Dropout) | (None, 8, 8, 64) | 0 |
|
|
|
|
|
| conv2d_45 (Conv2D) | (None, 8, 8, 128) | 73,856 |
|
|
|
|
|
| batch_normalization_10 (BatchNormalization)| (None, 8, 8, 128) | 512 |
|
|
|
|
|
| conv2d_46 (Conv2D) | (None, 8, 8, 128) | 147,584 |
|
|
|
|
|
| batch_normalization_11 (BatchNormalization)| (None, 8, 8, 128) | 512 |
|
|
|
|
|
| max_pooling2d_28 (MaxPooling2D) | (None, 4, 4, 128) | 0 |
|
|
|
|
|
| dropout_26 (Dropout) | (None, 4, 4, 128) | 0 |
|
|
|
|
|
| flatten_9 (Flatten) | (None, 2048) | 0 |
|
|
|
|
|
| dense_17 (Dense) | (None, 128) | 262,272 |
|
|
|
|
|
| dropout_27 (Dropout) | (None, 128) | 0 |
|
|
|
|
|
| dense_18 (Dense) | (None, 10) | 1,290 |
|
|
|
|
|
**Total params:** 552,362 (2.11 MB)
|
|
|
|
|
**Trainable params:** 551,466 (2.10 MB)
|
|
|
|
|
**Non-trainable params:** 896 (3.50 KB)
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# компилируем и обучаем модель
|
|
|
|
|
batch_size = 64
|
|
|
|
|
epochs = 50
|
|
|
|
|
model.compile(loss="categorical_crossentropy", optimizer="adam", metrics=["accuracy"])
|
|
|
|
|
model.fit(X_train, y_train, batch_size=batch_size, epochs=epochs, validation_split=0.1)
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 5. Проанализировали качество обученной модели на тестовой выборке. Определили значения функции потерь и метрики точности классификации.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# Оценка качества работы модели на тестовых данных
|
|
|
|
|
scores = model.evaluate(X_test, y_test)
|
|
|
|
|
print('Loss on test data:', scores[0])
|
|
|
|
|
print('Accuracy on test data:', scores[1])
|
|
|
|
|
```
|
|
|
|
|
```
|
|
|
|
|
313/313 ━━━━━━━━━━━━━━━━━━━━ 5s 15ms/step - accuracy: 0.8549 - loss: 0.5139
|
|
|
|
|
Loss on test data: 0.5139228701591492
|
|
|
|
|
Accuracy on test data: 0.8549000024795532
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 6. Протестировали модель на двух изображениях из тестовой выборки. Визуализировали изображения и сопоставили истинные метки с предсказаниями нейронной сети.
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# вывод двух тестовых изображений и результатов распознавания
|
|
|
|
|
|
|
|
|
|
for n in [3,15]:
|
|
|
|
|
result = model.predict(X_test[n:n+1])
|
|
|
|
|
print('NN output:', result)
|
|
|
|
|
|
|
|
|
|
plt.imshow(X_test[n].reshape(32,32,3), cmap=plt.get_cmap('gray'))
|
|
|
|
|
plt.show()
|
|
|
|
|
print('Real mark: ', np.argmax(y_test[n]))
|
|
|
|
|
print('NN answer: ', np.argmax(result))
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|

|
|
|
|
|
|
|
|
|
|
```
|
|
|
|
|
Real mark: 3
|
|
|
|
|
NN answer: 3
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|

|
|
|
|
|
|
|
|
|
|
```
|
|
|
|
|
Real mark: 5
|
|
|
|
|
NN answer: 2
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 7. Сформировали подробный отчет о результатах классификации тестовой выборки и построили матрицу ошибок (confusion matrix).
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
# истинные метки классов
|
|
|
|
|
true_labels = np.argmax(y_test, axis=1)
|
|
|
|
|
# предсказанные метки классов
|
|
|
|
|
predicted_labels = np.argmax(model.predict(X_test), axis=1)
|
|
|
|
|
|
|
|
|
|
# отчет о качестве классификации
|
|
|
|
|
print(classification_report(true_labels, predicted_labels, target_names=class_names))
|
|
|
|
|
# вычисление матрицы ошибок
|
|
|
|
|
conf_matrix = confusion_matrix(true_labels, predicted_labels)
|
|
|
|
|
# отрисовка матрицы ошибок в виде "тепловой карты"
|
|
|
|
|
fig, ax = plt.subplots(figsize=(6, 6))
|
|
|
|
|
disp = ConfusionMatrixDisplay(confusion_matrix=conf_matrix,display_labels=class_names)
|
|
|
|
|
disp.plot(ax=ax, xticks_rotation=45) # поворот подписей по X и приятная палитра
|
|
|
|
|
plt.tight_layout() # чтобы всё влезло
|
|
|
|
|
plt.show()
|
|
|
|
|
```
|
|
|
|
|
```
|
|
|
|
|
313/313 ━━━━━━━━━━━━━━━━━━━━ 4s 13ms/step
|
|
|
|
|
precision recall f1-score support
|
|
|
|
|
|
|
|
|
|
airplane 0.81 0.91 0.86 1004
|
|
|
|
|
automobile 0.85 0.97 0.91 985
|
|
|
|
|
bird 0.79 0.80 0.80 998
|
|
|
|
|
cat 0.76 0.70 0.73 985
|
|
|
|
|
deer 0.85 0.84 0.85 992
|
|
|
|
|
dog 0.82 0.77 0.79 968
|
|
|
|
|
frog 0.86 0.93 0.89 1010
|
|
|
|
|
horse 0.91 0.86 0.89 1020
|
|
|
|
|
ship 0.97 0.86 0.91 1002
|
|
|
|
|
truck 0.93 0.90 0.91 1036
|
|
|
|
|
|
|
|
|
|
accuracy 0.85 10000
|
|
|
|
|
macro avg 0.86 0.85 0.85 10000
|
|
|
|
|
weighted avg 0.86 0.85 0.85 10000
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|

|
|
|
|
|
|
|
|
|
|
#### Анализ результатов классификации датасета CIFAR-10 показал, что разработанная сверточная нейронная сеть с архитектурой, включающей три блока сверточных слоев с batch normalization и dropout, успешно справилась с задачей классификации цветных изображений.
|
|
|
|
|
|
|
|
|
|
**Общая производительность:** Достигнутая точность классификации составляет 85.49%, что является хорошим результатом для данного датасета, учитывая его сложность (малый размер изображений 32×32, высокая вариативность объектов, наличие фоновых элементов).
|
|
|
|
|
|
|
|
|
|
**Анализ по классам:** Модель демонстрирует различную эффективность для разных категорий объектов:
|
|
|
|
|
- **Высокая точность (≥90%):** ship (precision 0.97, recall 0.86), truck (precision 0.93, recall 0.90), horse (precision 0.91, recall 0.86) - объекты с четкими геометрическими формами и характерными признаками
|
|
|
|
|
- **Средняя точность (80-90%):** automobile (precision 0.85, recall 0.97), airplane (precision 0.81, recall 0.91), deer (precision 0.85, recall 0.84), frog (precision 0.86, recall 0.93), dog (precision 0.82, recall 0.77) - объекты с более сложной структурой
|
|
|
|
|
- **Пониженная точность (<80%):** bird (precision 0.79, recall 0.80), cat (precision 0.76, recall 0.70) - объекты с высокой внутриклассовой вариативностью и схожестью между классами
|
|
|
|
|
|
|
|
|
|
**Особенности классификации:** Наибольшие трудности модель испытывает при классификации кошек (precision 0.76, recall 0.70), что связано с высокой вариативностью этого класса и схожестью с собаками. При этом модель демонстрирует сбалансированные метрики precision и recall для большинства классов, что указывает на отсутствие систематических смещений в предсказаниях. Интересно отметить, что для некоторых классов (automobile, airplane, frog) recall выше precision, что говорит о склонности модели чаще предсказывать эти классы.
|
|
|
|
|
|
|
|
|
|
**Выводы:** Полученные результаты подтверждают эффективность применения сверточных нейронных сетей с batch normalization и dropout для классификации цветных изображений. Архитектура успешно извлекает пространственные признаки различного уровня абстракции, что позволяет достигать высокого качества классификации даже на сложных наборах данных с ограниченным разрешением изображений.
|