Изменил(а) на 'labworks/LW3/Report.md'

main
MachulinaDV 4 недель назад
Родитель bfb899d78e
Сommit da9ddcf752

@ -52,8 +52,11 @@ print('Shape of X test:', X_test.shape)
print('Shape of y test:', y_test.shape) print('Shape of y test:', y_test.shape)
``` ```
Shape of X train: (60000, 28, 28) Shape of X train: (60000, 28, 28)
Shape of y train: (60000,) Shape of y train: (60000,)
Shape of X test: (10000, 28, 28) Shape of X test: (10000, 28, 28)
Shape of y test: (10000,) Shape of y test: (10000,)
--- ---
@ -68,9 +71,7 @@ input_shape = (28, 28, 1)
X_train = X_train / 255 X_train = X_train / 255
X_test = X_test / 255 X_test = X_test / 255
# Расширяем размерность входных данных, чтобы каждое изображение имело # Расширяем размерность входных данных, чтобы каждое изображение имело размерность (высота, ширина, количество каналов)
# размерность (высота, ширина, количество каналов)
X_train = np.expand_dims(X_train, -1) X_train = np.expand_dims(X_train, -1)
X_test = np.expand_dims(X_test, -1) X_test = np.expand_dims(X_test, -1)
print('Shape of transformed X train:', X_train.shape) print('Shape of transformed X train:', X_train.shape)
@ -83,8 +84,12 @@ print('Shape of transformed y train:', y_train.shape)
print('Shape of transformed y test:', y_test.shape) print('Shape of transformed y test:', y_test.shape)
``` ```
Shape of transformed X train: (60000, 28, 28, 1) Shape of transformed X train: (60000, 28, 28, 1)
Shape of transformed X test: (10000, 28, 28, 1)
hape of transformed X test: (10000, 28, 28, 1)
Shape of transformed y train: (60000, 10) Shape of transformed y train: (60000, 10)
Shape of transformed y test: (10000, 10) Shape of transformed y test: (10000, 10)
--- ---
@ -150,7 +155,9 @@ model.summary()
</table> </table>
Total params: 34,826 (136.04 KB) Total params: 34,826 (136.04 KB)
Trainable params: 34,826 (136.04 KB) Trainable params: 34,826 (136.04 KB)
Non-trainable params: 0 (0.00 B) Non-trainable params: 0 (0.00 B)
```python ```python
@ -169,6 +176,7 @@ print('Loss on test data:', scores[0])
print('Accuracy on test data:', scores[1]) print('Accuracy on test data:', scores[1])
``` ```
Loss on test data: 0.04353996366262436 Loss on test data: 0.04353996366262436
Accuracy on test data: 0.9876000285148621 Accuracy on test data: 0.9876000285148621
--- ---
@ -184,9 +192,10 @@ print('Real mark: ', np.argmax(y_test[n]))
print('NN answer: ', np.argmax(result)) print('NN answer: ', np.argmax(result))
``` ```
![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/AE1_train_def.png) ![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/333.png)
Real mark: 3 Real mark: 3
NN answer: 3 NN answer: 3
```python ```python
@ -200,9 +209,10 @@ print('Real mark: ', np.argmax(y_test[n]))
print('NN answer: ', np.argmax(result)) print('NN answer: ', np.argmax(result))
``` ```
![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/AE2_train_def.png) ![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/222.png)
Real mark: 2 Real mark: 2
NN answer: 2 NN answer: 2
--- ---
@ -210,12 +220,16 @@ NN answer: 2
```python ```python
# истинные метки классов # истинные метки классов
true_labels = np.argmax(y_test, axis=1) true_labels = np.argmax(y_test, axis=1)
# предсказанные метки классов # предсказанные метки классов
predicted_labels = np.argmax(model.predict(X_test), axis=1) predicted_labels = np.argmax(model.predict(X_test), axis=1)
# отчет о качестве классификации # отчет о качестве классификации
print(classification_report(true_labels, predicted_labels)) print(classification_report(true_labels, predicted_labels))
# вычисление матрицы ошибок # вычисление матрицы ошибок
conf_matrix = confusion_matrix(true_labels, predicted_labels) conf_matrix = confusion_matrix(true_labels, predicted_labels)
# отрисовка матрицы ошибок в виде "тепловой карты" # отрисовка матрицы ошибок в виде "тепловой карты"
display = ConfusionMatrixDisplay(confusion_matrix=conf_matrix) display = ConfusionMatrixDisplay(confusion_matrix=conf_matrix)
display.plot() display.plot()
@ -331,7 +345,7 @@ plt.show()
</table> </table>
![]() ![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/tab1.png)
--- ---
### 9. Загрузка, предобработка и подача собственных изображения ### 9. Загрузка, предобработка и подача собственных изображения
```python ```python
@ -340,17 +354,22 @@ from PIL import Image
file_data = Image.open('7.png') file_data = Image.open('7.png')
file_data = file_data.convert('L') # перевод в градации серого file_data = file_data.convert('L') # перевод в градации серого
test_img = np.array(file_data) test_img = np.array(file_data)
# вывод собственного изображения # вывод собственного изображения
plt.imshow(test_img, cmap=plt.get_cmap('gray')) plt.imshow(test_img, cmap=plt.get_cmap('gray'))
plt.show() plt.show()
# предобработка # предобработка
test_img = test_img / 255 test_img = test_img / 255
test_img = np.reshape(test_img, (1,28,28,1)) test_img = np.reshape(test_img, (1,28,28,1))
# распознавание # распознавание
result = model.predict(test_img) result = model.predict(test_img)
print('I think it\'s ', np.argmax(result)) print('I think it\'s ', np.argmax(result))
``` ```
![]() ![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/777.png)
I think it's 7
```python ```python
# загрузка собственного изображения # загрузка собственного изображения
@ -368,8 +387,11 @@ test_img = np.reshape(test_img, (1,28,28,1))
result = model.predict(test_img) result = model.predict(test_img)
print('I think it\'s ', np.argmax(result)) print('I think it\'s ', np.argmax(result))
``` ```
![]() ![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/333.png)
I think it's 5
---
### 10. Загрузка модели из ЛР1. Оценка качества ### 10. Загрузка модели из ЛР1. Оценка качества
```python ```python
model = keras.models.load_model("best_model.keras") model = keras.models.load_model("best_model.keras")
@ -433,6 +455,7 @@ print('Loss on test data:', scores[0])
print('Accuracy on test data:', scores[1]) print('Accuracy on test data:', scores[1])
``` ```
Loss on test data: 0.37091827392578125 Loss on test data: 0.37091827392578125
Accuracy on test data: 0.9013000130653381 Accuracy on test data: 0.9013000130653381
--- ---
@ -462,7 +485,7 @@ Accuracy on test data: 0.9013000130653381
</tbody> </tbody>
</table> </table>
Вывод: Вывод: В ходе лабораторной работы были получены результаты, представленные в таблице. Исходя из них можно сделать вывод, что свёрточная нейронная сеть подходит для задачи распознавания изображений гораздо лучше, чем полносвязная. Для качества классификации 0,9876 понадобилось всего 15 эпох обучения и 35 настраиваемых параметров сети против качества в 0,9013, 100 эпох и 239 параметров для полносвязной сети.
## Задание 2 ## Задание 2
@ -494,7 +517,6 @@ from keras.datasets import cifar10
# создание своего разбиения датасета # создание своего разбиения датасета
from sklearn.model_selection import train_test_split from sklearn.model_selection import train_test_split
# объединяем в один набор # объединяем в один набор
X = np.concatenate((X_train, X_test)) X = np.concatenate((X_train, X_test))
y = np.concatenate((y_train, y_test)) y = np.concatenate((y_train, y_test))
@ -511,8 +533,11 @@ print('Shape of X test:', X_test.shape)
print('Shape of y test:', y_test.shape) print('Shape of y test:', y_test.shape)
``` ```
Shape of X train: (50000, 32, 32, 3) Shape of X train: (50000, 32, 32, 3)
Shape of y train: (50000, 1) Shape of y train: (50000, 1)
Shape of X test: (10000, 32, 32, 3) Shape of X test: (10000, 32, 32, 3)
Shape of y test: (10000, 1) Shape of y test: (10000, 1)
### 3. Вывод изображений с подписями классов ### 3. Вывод изображений с подписями классов
@ -529,7 +554,7 @@ for i in range(25):
plt.xlabel(class_names[y_train[i][0]]) plt.xlabel(class_names[y_train[i][0]])
plt.show() plt.show()
``` ```
![]() ![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/pics.png)
### 4. Предобработка данных ### 4. Предобработка данных
```python ```python
@ -695,6 +720,7 @@ print('Loss on test data:', scores[0])
print('Accuracy on test data:', scores[1]) print('Accuracy on test data:', scores[1])
``` ```
---
### 7. Подача на вход обученной модели тестовых изображений ### 7. Подача на вход обученной модели тестовых изображений
```python ```python
for n in [5,17]: for n in [5,17]:
@ -706,25 +732,33 @@ for n in [5,17]:
print('Real mark: ', np.argmax(y_test[n])) print('Real mark: ', np.argmax(y_test[n]))
print('NN answer: ', np.argmax(result)) print('NN answer: ', np.argmax(result))
``` ```
![]() ![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/pic1.png)
Real mark: 0 Real mark: 0
NN answer: 2 NN answer: 2
![]() ![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/pic2.png)
Real mark: 5 Real mark: 5
NN answer: 5 NN answer: 5
---
### 8. Вывод отчёта о качестве классификации тестовой выборки и матрицы ошибок для тестовой выборки ### 8. Вывод отчёта о качестве классификации тестовой выборки и матрицы ошибок для тестовой выборки
```python ```python
# истинные метки классов # истинные метки классов
true_labels = np.argmax(y_test, axis=1) true_labels = np.argmax(y_test, axis=1)
# предсказанные метки классов # предсказанные метки классов
predicted_labels = np.argmax(model.predict(X_test), axis=1) predicted_labels = np.argmax(model.predict(X_test), axis=1)
# отчет о качестве классификации # отчет о качестве классификации
print(classification_report(true_labels, predicted_labels, target_names=class_names)) print(classification_report(true_labels, predicted_labels, target_names=class_names))
# вычисление матрицы ошибок # вычисление матрицы ошибок
conf_matrix = confusion_matrix(true_labels, predicted_labels) conf_matrix = confusion_matrix(true_labels, predicted_labels)
# отрисовка матрицы ошибок в виде "тепловой карты" # отрисовка матрицы ошибок в виде "тепловой карты"
fig, ax = plt.subplots(figsize=(6, 6)) fig, ax = plt.subplots(figsize=(6, 6))
disp = ConfusionMatrixDisplay(confusion_matrix=conf_matrix,display_labels=class_names) disp = ConfusionMatrixDisplay(confusion_matrix=conf_matrix,display_labels=class_names)
@ -841,6 +875,6 @@ plt.show()
</tbody> </tbody>
</table> </table>
![]() ![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/tab2.png)
Вывод: **Вывод**: Заметим, что модель НС, предназначенная для датасета CIFAR-10 неплохо справилась со своей задачей - точность распознавания составила 81%. Однако, несмотря на более сложную структуру модели, точность распознавания оказалась ниже, чем у модели, предназначенной для набора данных MNIST. Это может быть связано с типом классифицируемых данных - распознавать цветные изображения гораздо сложнее, чем чёрно-белые цифры. Для того, чтобы повысить точность распознавания картинок можно и нужно усложнить структуру НС, а именно увеличить количество слоёв и эпох, а также количество примеров (в нашем случае их было 50000)
Загрузка…
Отмена
Сохранить