52 KiB
from google.colab import drive
'/content/drive') drive.mount(
1) В среде Google Colab создать новый блокнот (notebook). Импортировать необходимые для работы библиотеки и модули.
from tensorflow import keras
import matplotlib.pyplot as plt
import numpy as np
import sklearn
from keras.datasets import mnist
from sklearn.model_selection import train_test_split
from tensorflow.keras.utils import to_categorical
from keras.models import Sequential
from keras.layers import Dense
from PIL import Image
2) Загрузить набор данных MNIST, содержащий размеченные изображения рукописных цифр.
# загрузка датасета
= mnist.load_data() (X_train, y_train), (X_test, y_test)
3) Разбить набор данных на обучающие и тестовые данные в соотношении 60 000:10 000 элементов. При разбиении параметр random_state выбрать равным (4k – 1), где k – номер бригады. Вывести размерности полученных обучающих и тестовых массивов данных. k = 10
# объединяем в один набор
= np.concatenate((X_train, X_test))
X = np.concatenate((y_train, y_test))
y # разбиваем по вариантам
= train_test_split(X, y,
X_train, X_test, y_train, y_test = 10000,
test_size = 60000,
train_size = 4*10 - 1) random_state
# вывод размерностей
print('Shape of X train:', X_train.shape)
print('Shape of y train:', y_train.shape)
4) Вывести первые 4 элемента обучающих данных (изображения и метки цифр).
# вывод изображения
= plt.subplots(1, 4, figsize=(10, 3))
fig, axes for i in range(4):
=plt.get_cmap('gray'))
axes[i].imshow(X_train[i], cmap
axes[i].set_title(y_train[i])'off')
axes[i].axis( plt.show()
5) Провести предобработку данных: привести обучающие и тестовые данные к формату, пригодному для обучения нейронной сети. Входные данные должны принимать значения от 0 до 1, метки цифр должны быть закодированы по принципу «one-hot encoding». Вывести размерности предобработанных обучающих и тестовых массивов данных.
# развернем каждое изображение 28*28 в вектор 784
= X_train.shape[1] * X_train.shape[2]
num_pixels = X_train.reshape(X_train.shape[0], num_pixels) / 255
X_train = X_test.reshape(X_test.shape[0], num_pixels) / 255
X_test print('Shape of transformed X train:', X_train.shape)
# переведем метки в one-hot
= to_categorical(y_train)
y_train = to_categorical(y_test)
y_test print('Shape of transformed y train:', y_train.shape)
= y_train.shape[1] num_classes
6) Реализовать модель однослойной нейронной сети и обучить ее на обучающих данных с выделением части обучающих данных в качестве валидационных. Вывести информацию об архитектуре нейронной сети. Вывести график функции ошибки на обучающих и валидационных данных по эпохам.
= Sequential()
model =num_classes,input_dim=num_pixels, activation='softmax'))
model.add(Dense(unitscompile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy'])
model.print(model.summary())
= model.fit(X_train, y_train, batch_size=256, validation_split=0.1, epochs=150) H1
# вывод графика ошибки по эпохам
'loss'])
plt.plot(H1.history['val_loss'])
plt.plot(H1.history[
plt.grid()'Epochs')
plt.xlabel('loss')
plt.ylabel('train_loss', 'val_loss'])
plt.legend(['Loss by epochs')
plt.title( plt.show()
7) Применить обученную модель к тестовым данным. Вывести значение функции ошибки и значение метрики качества классификации на тестовых данных.
# Оценка качества работы модели на тестовых данных
= model.evaluate(X_test, y_test)
scores print('Loss on test data:', scores[0])
print('Accuracy on test data:', scores[1])
8) Добавить в модель один скрытый и провести обучение и тестирование (повторить п. 6–7) при 100, 300, 500 нейронах в скрытом слое. По метрике качества классификации на тестовых данных выбрать наилучшее количество нейронов в скрытом слое. В качестве функции активации нейронов в скрытом слое использовать функцию sigmoid.
= Sequential ()
model_100 =100,input_dim=num_pixels, activation='sigmoid'))
model_100.add(Dense(units=num_classes, activation='softmax'))
model_100.add(Dense(unitscompile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy'])
model_100.print(model_100.summary())
= model_100.fit(X_train, y_train, batch_size=256, validation_split=0.1, epochs=150) H_100
# вывод графика ошибки по эпохам
'loss'])
plt.plot(H_100.history['val_loss'])
plt.plot(H_100.history[
plt.grid()'Epochs')
plt.xlabel('loss')
plt.ylabel('train_loss', 'val_loss'])
plt.legend(['Loss by epochs')
plt.title( plt.show()
# Оценка качества работы модели на тестовых данных
= model_100.evaluate(X_test, y_test)
scores print('Loss on test data:', scores[0])
print('Accuracy on test data:', scores[1])
300
= Sequential ()
model_300 =300,input_dim=num_pixels, activation='sigmoid'))
model_300.add(Dense(units=num_classes, activation='softmax'))
model_300.add(Dense(unitscompile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy'])
model_300.print(model_300.summary())
= model_300.fit(X_train, y_train, batch_size=256, validation_split=0.1, epochs=150) H_300
# вывод графика ошибки по эпохам
'loss'])
plt.plot(H_300.history['val_loss'])
plt.plot(H_300.history[
plt.grid()'Epochs')
plt.xlabel('loss')
plt.ylabel('train_loss', 'val_loss'])
plt.legend(['Loss by epochs')
plt.title( plt.show()
# Оценка качества работы модели на тестовых данных
= model_300.evaluate(X_test, y_test)
scores print('Loss on test data:', scores[0])
print('Accuracy on test data:', scores[1])
500
= Sequential ()
model_500 =500,input_dim=num_pixels, activation='sigmoid'))
model_500.add(Dense(units=num_classes, activation='softmax'))
model_500.add(Dense(unitscompile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy'])
model_500.print(model_500.summary())
= model_500.fit(X_train, y_train, batch_size=256, validation_split=0.1, epochs=150) H_500
# вывод графика ошибки по эпохам
'loss'])
plt.plot(H_500.history['val_loss'])
plt.plot(H_500.history[
plt.grid()'Epochs')
plt.xlabel('loss')
plt.ylabel('train_loss', 'val_loss'])
plt.legend(['Loss by epochs')
plt.title( plt.show()
# Оценка качества работы модели на тестовых данных
= model_500.evaluate(X_test, y_test)
scores print('Loss on test data:', scores[0])
print('Accuracy on test data:', scores[1])
9) Добавить в наилучшую архитектуру, определенную в п. 8, второй скрытый слой и провести обучение и тестирование (повторить п. 6–7) при 50 и 100 нейронах во втором скрытом слое. В качестве функции активации нейронов в скрытом слое использовать функцию sigmoid.
= Sequential()
model_100_50 =100, input_dim=num_pixels, activation='sigmoid'))
model_100_50.add(Dense(units=50, activation='sigmoid'))
model_100_50.add(Dense(units=num_classes, activation='softmax'))
model_100_50.add(Dense(unitscompile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy'])
model_100_50.print(model_100_50.summary())
= model_100_50.fit(X_train, y_train, batch_size=256, validation_split=0.1, epochs=150) H_100_50
# вывод графика ошибки по эпохам
'loss'])
plt.plot(H_100_50.history['val_loss'])
plt.plot(H_100_50.history[
plt.grid()'Epochs')
plt.xlabel('loss')
plt.ylabel('train_loss', 'val_loss'])
plt.legend(['Loss by epochs')
plt.title( plt.show()
# Оценка качества работы модели на тестовых данных
= model_100_50.evaluate(X_test, y_test)
scores print('Loss on test data:', scores[0])
print('Accuracy on test data:', scores[1])
100 на втрором слое
= Sequential ()
model_100_100 =100,input_dim=num_pixels, activation='sigmoid'))
model_100_100.add(Dense(units=100, activation='sigmoid'))
model_100_100.add(Dense(units=num_classes, activation='softmax'))
model_100_100.add(Dense(unitscompile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy'])
model_100_100.print(model_100_100.summary())
= model_100_100.fit(X_train, y_train, batch_size=256, validation_split=0.1, epochs=150) H_100_100
# вывод графика ошибки по эпохам
'loss'])
plt.plot(H_100_100.history['val_loss'])
plt.plot(H_100_100.history[
plt.grid()'Epochs')
plt.xlabel('loss')
plt.ylabel('train_loss', 'val_loss'])
plt.legend(['Loss by epochs')
plt.title( plt.show()
# Оценка качества работы модели на тестовых данных
= model.evaluate(X_test, y_test)
scores print('Loss on test data:', scores[0])
print('Accuracy on test data:', scores[1])
Таблица с наилучшими архитектурами сети и вывод по ним.
11) Сохранить наилучшую нейронную сеть на диск. Данную нейронную сеть потребуется загрузить с диска в одной из следующих лабораторных работ.
"/content/drive/MyDrive/Colab Notebooks/best_model_100.keras") model_100.save(
12) Для нейронной сети наилучшей архитектурывывести два тестовых изображения, истинные метки и результат распознавания изображений.
= 333
n = model_100.predict(X_test[n:n+1])
result print('NNoutput:',result)
28,28),cmap=plt.get_cmap('gray'))
plt.imshow(X_test[n].reshape(
plt.show()print('Realmark:',str(np.argmax(y_test[n])))
print('NNanswer:',str(np.argmax(result)))
= 234
n = model_100.predict(X_test[n:n+1])
result print('NNoutput:',result)
28,28),cmap=plt.get_cmap('gray'))
plt.imshow(X_test[n].reshape(
plt.show()print('Realmark:',str(np.argmax(y_test[n])))
print('NNanswer:',str(np.argmax(result)))
13
from keras.models import load_model
=load_model('/content/drive/MyDrive/Colab Notebooks/best_model_100.keras') model_100
=Image.open('/content/drive/MyDrive/Colab Notebooks/IS_lab_7.png')
file_data=file_data.convert('L')
file_data=np.array(file_data) test_img
#выводсобственногоизображения
=plt.get_cmap('gray'))
plt.imshow(test_img,cmap
plt.show()#предобработка
=test_img/255
test_img=test_img.reshape(1,num_pixels)
test_img#распознавание
=model_100.predict(test_img)
resultprint('I think it\'s',np.argmax(result))
=Image.open('/content/drive/MyDrive/Colab Notebooks/IS_lab_4.png')
file_data_4=file_data_4.convert('L')
file_data_4=np.array(file_data_4) test_img_4
#выводсобственногоизображения
=plt.get_cmap('gray'))
plt.imshow(test_img_4,cmap
plt.show()#предобработка
=test_img_4/255
test_img_4=test_img_4.reshape(1,num_pixels)
test_img_4#распознавание
=model_100.predict(test_img_4)
resultprint('I think it\'s',np.argmax(result))
- Каждому члену бригады создать копию собственного изображения, отличающуюся от оригинала поворотом на 90 градусов в любую сторону. Сохранить изображения. Загрузить, предобработать и подать на вход обученной нейронной сети измененные изображения. Вывести изображения и результаты распознавания. Сделать выводы по результатам эксперимента.
from PIL import Image
=Image.open('/content/drive/MyDrive/Colab Notebooks/IS_lab_7_90.png')
file_data=file_data.convert('L')
file_data=np.array(file_data) test_img
#выводсобственногоизображения
=plt.get_cmap('gray'))
plt.imshow(test_img,cmap
plt.show()#предобработка
=test_img/255
test_img=test_img.reshape(1,num_pixels)
test_img#распознавание
=model_100.predict(test_img)
resultprint('Ithinkit\'s',np.argmax(result))
from PIL import Image
=Image.open('/content/drive/MyDrive/Colab Notebooks/IS_lab_4_90.png')
file_data_4=file_data_4.convert('L')
file_data_4=np.array(file_data_4) test_img_4
#выводсобственногоизображения
=plt.get_cmap('gray'))
plt.imshow(test_img_4,cmap
plt.show()#предобработка
=test_img_4/255
test_img_4=test_img_4.reshape(1,num_pixels)
test_img_4#распознавание
=model_100.predict(test_img_4)
resultprint('Ithinkit\'s',np.argmax(result))