@ -52,8 +52,11 @@ print('Shape of X test:', X_test.shape)
print('Shape of y test:', y_test.shape)
```
Shape of X train: (60000, 28, 28)
Shape of y train: (60000,)
Shape of X test: (10000, 28, 28)
Shape of y test: (10000,)
---
@ -68,9 +71,7 @@ input_shape = (28, 28, 1)
X_train = X_train / 255
X_test = X_test / 255
# Расширяем размерность входных данных, чтобы каждое изображение имело
# размерность (высота, ширина, количество каналов)
# Расширяем размерность входных данных, чтобы каждое изображение имело размерность (высота, ширина, количество каналов)
X_train = np.expand_dims(X_train, -1)
X_test = np.expand_dims(X_test, -1)
print('Shape of transformed X train:', X_train.shape)
@ -83,8 +84,12 @@ print('Shape of transformed y train:', y_train.shape)
print('Shape of transformed y test:', y_test.shape)
```
Shape of transformed X train: (60000, 28, 28, 1)
Shape of transformed X test: (10000, 28, 28, 1)
hape of transformed X test: (10000, 28, 28, 1)
Shape of transformed y train: (60000, 10)
Shape of transformed y test: (10000, 10)
---
@ -150,7 +155,9 @@ model.summary()
< / table >
Total params: 34,826 (136.04 KB)
Trainable params: 34,826 (136.04 KB)
Non-trainable params: 0 (0.00 B)
```python
@ -169,6 +176,7 @@ print('Loss on test data:', scores[0])
print('Accuracy on test data:', scores[1])
```
Loss on test data: 0.04353996366262436
Accuracy on test data: 0.9876000285148621
---
@ -184,9 +192,10 @@ print('Real mark: ', np.argmax(y_test[n]))
print('NN answer: ', np.argmax(result))
```


Real mark: 3
NN answer: 3
```python
@ -200,9 +209,10 @@ print('Real mark: ', np.argmax(y_test[n]))
print('NN answer: ', np.argmax(result))
```


Real mark: 2
NN answer: 2
---
@ -210,12 +220,16 @@ NN answer: 2
```python
# истинные метки классов
true_labels = np.argmax(y_test, axis=1)
# предсказанные метки классов
predicted_labels = np.argmax(model.predict(X_test), axis=1)
# отчет о качестве классификации
print(classification_report(true_labels, predicted_labels))
# вычисление матрицы ошибок
conf_matrix = confusion_matrix(true_labels, predicted_labels)
# отрисовка матрицы ошибок в виде "тепловой карты"
display = ConfusionMatrixDisplay(confusion_matrix=conf_matrix)
display.plot()
@ -331,7 +345,7 @@ plt.show()
< / table >
![]()

---
### 9. Загрузка, предобработка и подача собственных изображения
```python
@ -340,17 +354,22 @@ from PIL import Image
file_data = Image.open('7.png')
file_data = file_data.convert('L') # перевод в градации серого
test_img = np.array(file_data)
# вывод собственного изображения
plt.imshow(test_img, cmap=plt.get_cmap('gray'))
plt.show()
# предобработка
test_img = test_img / 255
test_img = np.reshape(test_img, (1,28,28,1))
# распознавание
result = model.predict(test_img)
print('I think it\'s ', np.argmax(result))
```
![]()

I think it's 7
```python
# загрузка собственного изображения
@ -368,8 +387,11 @@ test_img = np.reshape(test_img, (1,28,28,1))
result = model.predict(test_img)
print('I think it\'s ', np.argmax(result))
```
![]()

I think it's 5
---
### 10. Загрузка модели из ЛР1. Оценка качества
```python
model = keras.models.load_model("best_model.keras")
@ -433,6 +455,7 @@ print('Loss on test data:', scores[0])
print('Accuracy on test data:', scores[1])
```
Loss on test data: 0.37091827392578125
Accuracy on test data: 0.9013000130653381
---
@ -462,7 +485,7 @@ Accuracy on test data: 0.9013000130653381
< / tbody >
< / table >
Вывод:
Вывод: В ходе лабораторной работы были получены результаты, представленные в таблице. Исходя из них можно сделать вывод, что свёрточная нейронная сеть подходит для задачи распознавания изображений гораздо лучше, чем полносвязная. Для качества классификации 0,9876 понадобилось всего 15 эпох обучения и 35 настраиваемых параметров сети против качества в 0,9013, 100 эпох и 239 параметров для полносвязной сети.
## Задание 2
@ -494,7 +517,6 @@ from keras.datasets import cifar10
# создание своего разбиения датасета
from sklearn.model_selection import train_test_split
# объединяем в один набор
X = np.concatenate((X_train, X_test))
y = np.concatenate((y_train, y_test))
@ -511,8 +533,11 @@ print('Shape of X test:', X_test.shape)
print('Shape of y test:', y_test.shape)
```
Shape of X train: (50000, 32, 32, 3)
Shape of y train: (50000, 1)
Shape of X test: (10000, 32, 32, 3)
Shape of y test: (10000, 1)
### 3. Вывод изображений с подписями классов
@ -529,7 +554,7 @@ for i in range(25):
plt.xlabel(class_names[y_train[i][0]])
plt.show()
```
![]()

### 4. Предобработка данных
```python
@ -695,6 +720,7 @@ print('Loss on test data:', scores[0])
print('Accuracy on test data:', scores[1])
```
---
### 7. Подача на вход обученной модели тестовых изображений
```python
for n in [5,17]:
@ -706,25 +732,33 @@ for n in [5,17]:
print('Real mark: ', np.argmax(y_test[n]))
print('NN answer: ', np.argmax(result))
```
![]()

Real mark: 0
NN answer: 2
![]()

Real mark: 5
NN answer: 5
---
### 8. Вывод отчёта о качестве классификации тестовой выборки и матрицы ошибок для тестовой выборки
```python
# истинные метки классов
true_labels = np.argmax(y_test, axis=1)
# предсказанные метки классов
predicted_labels = np.argmax(model.predict(X_test), axis=1)
# отчет о качестве классификации
print(classification_report(true_labels, predicted_labels, target_names=class_names))
# вычисление матрицы ошибок
conf_matrix = confusion_matrix(true_labels, predicted_labels)
# отрисовка матрицы ошибок в виде "тепловой карты"
fig, ax = plt.subplots(figsize=(6, 6))
disp = ConfusionMatrixDisplay(confusion_matrix=conf_matrix,display_labels=class_names)
@ -841,6 +875,6 @@ plt.show()
< / tbody >
< / table >
![]()

Вывод:
** Вывод** : Заметим, что модель НС, предназначенная для датасета CIFAR-10 неплохо справилась со своей задачей - точность распознавания составила 81%. Однако, несмотря на более сложную структуру модели, точность распознавания оказалась ниже, чем у модели, предназначенной для набора данных MNIST. Это может быть связано с типом классифицируемых данных - распознавать цветные изображения гораздо сложнее, чем чёрно-белые цифры. Для того, чтобы повысить точность распознавания картинок можно и нужно усложнить структуру НС, а именно увеличить количество слоёв и эпох, а также количество примеров (в нашем случае их было 50000)