diff --git a/labworks/LW3/Report.md b/labworks/LW3/Report.md index 1c640f3..0c6d48e 100644 --- a/labworks/LW3/Report.md +++ b/labworks/LW3/Report.md @@ -52,8 +52,11 @@ print('Shape of X test:', X_test.shape) print('Shape of y test:', y_test.shape) ``` Shape of X train: (60000, 28, 28) + Shape of y train: (60000,) + Shape of X test: (10000, 28, 28) + Shape of y test: (10000,) --- @@ -68,9 +71,7 @@ input_shape = (28, 28, 1) X_train = X_train / 255 X_test = X_test / 255 -# Расширяем размерность входных данных, чтобы каждое изображение имело -# размерность (высота, ширина, количество каналов) - +# Расширяем размерность входных данных, чтобы каждое изображение имело размерность (высота, ширина, количество каналов) X_train = np.expand_dims(X_train, -1) X_test = np.expand_dims(X_test, -1) print('Shape of transformed X train:', X_train.shape) @@ -83,8 +84,12 @@ print('Shape of transformed y train:', y_train.shape) print('Shape of transformed y test:', y_test.shape) ``` Shape of transformed X train: (60000, 28, 28, 1) -Shape of transformed X test: (10000, 28, 28, 1) + +hape of transformed X test: (10000, 28, 28, 1) + Shape of transformed y train: (60000, 10) + + Shape of transformed y test: (10000, 10) --- @@ -150,7 +155,9 @@ model.summary() Total params: 34,826 (136.04 KB) + Trainable params: 34,826 (136.04 KB) + Non-trainable params: 0 (0.00 B) ```python @@ -169,6 +176,7 @@ print('Loss on test data:', scores[0]) print('Accuracy on test data:', scores[1]) ``` Loss on test data: 0.04353996366262436 + Accuracy on test data: 0.9876000285148621 --- @@ -184,9 +192,10 @@ print('Real mark: ', np.argmax(y_test[n])) print('NN answer: ', np.argmax(result)) ``` -![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/AE1_train_def.png) +![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/333.png) Real mark: 3 + NN answer: 3 ```python @@ -200,9 +209,10 @@ print('Real mark: ', np.argmax(y_test[n])) print('NN answer: ', np.argmax(result)) ``` -![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/AE2_train_def.png) +![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/222.png) Real mark: 2 + NN answer: 2 --- @@ -210,12 +220,16 @@ NN answer: 2 ```python # истинные метки классов true_labels = np.argmax(y_test, axis=1) + # предсказанные метки классов predicted_labels = np.argmax(model.predict(X_test), axis=1) + # отчет о качестве классификации print(classification_report(true_labels, predicted_labels)) + # вычисление матрицы ошибок conf_matrix = confusion_matrix(true_labels, predicted_labels) + # отрисовка матрицы ошибок в виде "тепловой карты" display = ConfusionMatrixDisplay(confusion_matrix=conf_matrix) display.plot() @@ -331,7 +345,7 @@ plt.show() -![]() +![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/tab1.png) --- ### 9. Загрузка, предобработка и подача собственных изображения ```python @@ -340,17 +354,22 @@ from PIL import Image file_data = Image.open('7.png') file_data = file_data.convert('L') # перевод в градации серого test_img = np.array(file_data) + # вывод собственного изображения plt.imshow(test_img, cmap=plt.get_cmap('gray')) plt.show() + # предобработка test_img = test_img / 255 test_img = np.reshape(test_img, (1,28,28,1)) + # распознавание result = model.predict(test_img) print('I think it\'s ', np.argmax(result)) ``` -![]() +![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/777.png) + +I think it's 7 ```python # загрузка собственного изображения @@ -368,8 +387,11 @@ test_img = np.reshape(test_img, (1,28,28,1)) result = model.predict(test_img) print('I think it\'s ', np.argmax(result)) ``` -![]() +![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/333.png) + +I think it's 5 +--- ### 10. Загрузка модели из ЛР1. Оценка качества ```python model = keras.models.load_model("best_model.keras") @@ -433,6 +455,7 @@ print('Loss on test data:', scores[0]) print('Accuracy on test data:', scores[1]) ``` Loss on test data: 0.37091827392578125 + Accuracy on test data: 0.9013000130653381 --- @@ -462,7 +485,7 @@ Accuracy on test data: 0.9013000130653381 -Вывод: +Вывод: В ходе лабораторной работы были получены результаты, представленные в таблице. Исходя из них можно сделать вывод, что свёрточная нейронная сеть подходит для задачи распознавания изображений гораздо лучше, чем полносвязная. Для качества классификации 0,9876 понадобилось всего 15 эпох обучения и 35 настраиваемых параметров сети против качества в 0,9013, 100 эпох и 239 параметров для полносвязной сети. ## Задание 2 @@ -494,7 +517,6 @@ from keras.datasets import cifar10 # создание своего разбиения датасета from sklearn.model_selection import train_test_split - # объединяем в один набор X = np.concatenate((X_train, X_test)) y = np.concatenate((y_train, y_test)) @@ -511,8 +533,11 @@ print('Shape of X test:', X_test.shape) print('Shape of y test:', y_test.shape) ``` Shape of X train: (50000, 32, 32, 3) + Shape of y train: (50000, 1) + Shape of X test: (10000, 32, 32, 3) + Shape of y test: (10000, 1) ### 3. Вывод изображений с подписями классов @@ -529,7 +554,7 @@ for i in range(25): plt.xlabel(class_names[y_train[i][0]]) plt.show() ``` -![]() +![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/pics.png) ### 4. Предобработка данных ```python @@ -695,6 +720,7 @@ print('Loss on test data:', scores[0]) print('Accuracy on test data:', scores[1]) ``` +--- ### 7. Подача на вход обученной модели тестовых изображений ```python for n in [5,17]: @@ -706,25 +732,33 @@ for n in [5,17]: print('Real mark: ', np.argmax(y_test[n])) print('NN answer: ', np.argmax(result)) ``` -![]() +![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/pic1.png) + Real mark: 0 + NN answer: 2 -![]() +![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/pic2.png) + Real mark: 5 + NN answer: 5 +--- ### 8. Вывод отчёта о качестве классификации тестовой выборки и матрицы ошибок для тестовой выборки ```python # истинные метки классов true_labels = np.argmax(y_test, axis=1) + # предсказанные метки классов predicted_labels = np.argmax(model.predict(X_test), axis=1) # отчет о качестве классификации print(classification_report(true_labels, predicted_labels, target_names=class_names)) + # вычисление матрицы ошибок conf_matrix = confusion_matrix(true_labels, predicted_labels) + # отрисовка матрицы ошибок в виде "тепловой карты" fig, ax = plt.subplots(figsize=(6, 6)) disp = ConfusionMatrixDisplay(confusion_matrix=conf_matrix,display_labels=class_names) @@ -841,6 +875,6 @@ plt.show() -![]() +![](http://uit.mpei.ru/git/MachulinaDV/is_dnn/raw/branch/main/labworks/LW2/tab2.png) -Вывод: \ No newline at end of file +**Вывод**: Заметим, что модель НС, предназначенная для датасета CIFAR-10 неплохо справилась со своей задачей - точность распознавания составила 81%. Однако, несмотря на более сложную структуру модели, точность распознавания оказалась ниже, чем у модели, предназначенной для набора данных MNIST. Это может быть связано с типом классифицируемых данных - распознавать цветные изображения гораздо сложнее, чем чёрно-белые цифры. Для того, чтобы повысить точность распознавания картинок можно и нужно усложнить структуру НС, а именно увеличить количество слоёв и эпох, а также количество примеров (в нашем случае их было 50000) \ No newline at end of file