From 9ac6afc545462f933637a73c290bf43bcde58f13 Mon Sep 17 00:00:00 2001 From: ShchipkovMY Date: Sun, 19 Oct 2025 18:16:43 +0000 Subject: [PATCH] =?UTF-8?q?=D0=98=D0=B7=D0=BC=D0=B5=D0=BD=D0=B8=D0=BB(?= =?UTF-8?q?=D0=B0)=20=D0=BD=D0=B0=20'labworks/LW1/report.md'?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- labworks/LW1/report.md | 38 +++++++++++++++++++++++++++++++++++++- 1 file changed, 37 insertions(+), 1 deletion(-) diff --git a/labworks/LW1/report.md b/labworks/LW1/report.md index d32ddc8..fc16174 100644 --- a/labworks/LW1/report.md +++ b/labworks/LW1/report.md @@ -16,11 +16,14 @@ import sklearn ``` ### Пункт 2 Загрузили набор данных MNIST, содержащий размеченные изображения рукописных цифр. +```python from keras.datasets import mnist +``` ### Пункт 3 Разбили набор данных на обучающие и тестовые данные в соотношении 60000:10000 элементов. При разбиении параметр random_state выбрали 11. Вывели размерности полученных обучающих и тестовых массивов данных. +```python (X_train,y_train),(X_test,y_test)=mnist.load_data() from sklearn.model_selection import train_test_split #объединяем в один набор @@ -49,10 +52,12 @@ print(y_train[3]) plt.imshow(X_train[4],cmap=plt.get_cmap('gray')) plt.show() print(y_train[4]) +``` ### Пункт 5 Провели предобработку данных: привели обучающие и тестовые данные к формату, пригодному для обучения нейронной сети. Входные данные должны принимать значения от 0 до 1, метки цифрдолжны быть закодированы по принципу «one-hotencoding».Вывели размерности предобработанных обучающих и тестовых массивов данных. +```python #развернем каждое изображение 28*28 в вектор 784 num_pixels=X_train.shape[1]*X_train.shape[2] X_train=X_train.reshape(X_train.shape[0],num_pixels) / 255 @@ -65,9 +70,11 @@ y_train=keras.utils.to_categorical(y_train) y_test=keras.utils.to_categorical(y_test) print('Shape of transformed y train:',y_train.shape) num_classes=y_train.shape[1] +``` ### Пункт 6 Реализовали модель однослойной нейронной сети и обучили ее на обучающих данных с выделением части обучающих данных в качестве валидационных. Вывели информацию об архитектуре нейронной сети. Вывели график функции ошибки на обучающих и валидационных данных по эпохам. +```python from keras.models import Sequential from keras.layers import Dense @@ -86,16 +93,22 @@ plt.ylabel('loss') plt.legend(['train_loss', 'val_loss']) plt.title('Loss by epochs') plt.show() +``` + ### Пункт 7 Применили обученную модель к тестовым данным. Вывели значение функции ошибки и значение метрики качества классификации на тестовых данных. +```python # Оценка качества работы модели на тестовых данных scores = model_1.evaluate(X_test, y_test) print('Loss on test data:', scores[0]) print('Accuracy on test data:', scores[1]) +``` ### Пункт 8 Добавили в модель один скрытый и провели обучение и тестирование при 100, 300, 500 нейронах в скрытом слое. По метрике качества классификации на тестовых данных выбрали наилучшее количество нейронов в скрытом слое. + При 100 нейронах +```python # создаем модель model_1h100 = Sequential() model_1h100.add(Dense(units=100, input_dim=num_pixels, activation='sigmoid')) @@ -123,8 +136,10 @@ plt.show() scores = model_1h100.evaluate(X_test, y_test) print('Loss on test data:', scores[0]) print('Accuracy on test data:', scores[1]) +``` При 300 нейронах +```python # создаем модель model_1h300 = Sequential() model_1h300.add(Dense(units=300, input_dim=num_pixels, activation='sigmoid')) @@ -152,8 +167,10 @@ plt.show() scores = model_1h300.evaluate(X_test, y_test) print('Loss on test data:', scores[0]) print('Accuracy on test data:', scores[1]) +``` При 500 нейронах +```python # создаем модель model_1h500 = Sequential() model_1h500.add(Dense(units=500, input_dim=num_pixels, activation='sigmoid')) @@ -181,11 +198,16 @@ plt.show() scores = model_1h500.evaluate(X_test, y_test) print('Loss on test data:', scores[0]) print('Accuracy on test data:', scores[1]) +``` Наилучшую метрику наблюдаем при архитектуре со 100 нейронами в скрытом слое. + + ### Пункт 9 Добавили в наилучшую архитектуру, определенную в п. 8, второй скрытый слой и провели обучение и тестирование при 50 и 100 нейронах во втором скрытом слое. + При 50 нейронах +```python # создаем модель model_1h100_2h50 = Sequential() model_1h100_2h50.add(Dense(units=100, input_dim=num_pixels, activation='sigmoid')) @@ -214,8 +236,10 @@ plt.show() scores = model_1h100_2h50.evaluate(X_test, y_test) print('Loss on test data:', scores[0]) print('Accuracy on test data:', scores[1]) +``` При 100 нейронах +```python # создаем модель model_1h100_2h100 = Sequential() model_1h100_2h100.add(Dense(units=100, input_dim=num_pixels, activation='sigmoid')) @@ -244,6 +268,7 @@ plt.show() scores = model_1h100_2h100.evaluate(X_test, y_test) print('Loss on test data:', scores[0]) print('Accuracy on test data:', scores[1]) +``` ### Пункт 10 Результаты исследования архитектуры нейронной сети занесли в таблицу @@ -263,10 +288,13 @@ print('Accuracy on test data:', scores[1]) Исходя из нашего исследования, можно сделать вывод о том, что наилучшая архитектра - это архитектура с двумя скрытыми слоями (100 нейронов на первом скрытом слое и 100 на втором). ### Пункт 11 Сохранили наилучшую нейронную сеть на диск - +```python model_1h100_2h100.save('best_model.keras') +``` + ### Пункт 12 Вывели результаты тестирования модели +```python # вывод тестового изображения и результата распознавания 1 n = 123 result = model_1h100_2h100.predict(X_test[n:n+1]) @@ -275,9 +303,12 @@ plt.imshow(X_test[n].reshape(28,28), cmap=plt.get_cmap('gray')) plt.show() print('Real mark: ', str(np.argmax(y_test[n]))) print('NN answer: ', str(np.argmax(result))) +``` ### Пункт 13 Создали собственные изображения чисел +```python + # загрузка собственного изображения from PIL import Image file_data = Image.open('five_v3.png') @@ -294,9 +325,12 @@ test_img = test_img.reshape(1, num_pixels) # распознавание result = model_1h100_2h100.predict(test_img) print('I think it\'s ', np.argmax(result)) +``` ### Пункт 14 Создали копию нарисованных чисел и повернем их на 90 градусов. Протестируем работу нейронной сети. +```python + file_data = Image.open('three_v3_rotated.png') file_data = file_data.convert('L') # перевод в градации серого test_img = np.array(file_data) @@ -324,5 +358,7 @@ test_img = test_img.reshape(1, num_pixels) # распознавание result = model_1h100_2h100.predict(test_img) print('I think it\'s ', np.argmax(result)) +``` + Нейросеть некорректно определила повернутые изображения. \ No newline at end of file