ответвлено от main/is_dnn
Изменил(а) на 'labworks/LW1/report.md'
Этот коммит содержится в:
@@ -16,11 +16,14 @@ import sklearn
|
||||
```
|
||||
### Пункт 2
|
||||
Загрузили набор данных MNIST, содержащий размеченные изображения рукописных цифр.
|
||||
```python
|
||||
from keras.datasets import mnist
|
||||
```
|
||||
|
||||
### Пункт 3
|
||||
Разбили набор данных на обучающие и тестовые данные в соотношении 60000:10000 элементов. При разбиении параметр random_state выбрали 11.
|
||||
Вывели размерности полученных обучающих и тестовых массивов данных.
|
||||
```python
|
||||
(X_train,y_train),(X_test,y_test)=mnist.load_data()
|
||||
from sklearn.model_selection import train_test_split
|
||||
#объединяем в один набор
|
||||
@@ -49,10 +52,12 @@ print(y_train[3])
|
||||
plt.imshow(X_train[4],cmap=plt.get_cmap('gray'))
|
||||
plt.show()
|
||||
print(y_train[4])
|
||||
```
|
||||
|
||||
### Пункт 5
|
||||
Провели предобработку данных: привели обучающие и тестовые данные к формату, пригодному для обучения нейронной сети.
|
||||
Входные данные должны принимать значения от 0 до 1, метки цифрдолжны быть закодированы по принципу «one-hotencoding».Вывели размерности предобработанных обучающих и тестовых массивов данных.
|
||||
```python
|
||||
#развернем каждое изображение 28*28 в вектор 784
|
||||
num_pixels=X_train.shape[1]*X_train.shape[2]
|
||||
X_train=X_train.reshape(X_train.shape[0],num_pixels) / 255
|
||||
@@ -65,9 +70,11 @@ y_train=keras.utils.to_categorical(y_train)
|
||||
y_test=keras.utils.to_categorical(y_test)
|
||||
print('Shape of transformed y train:',y_train.shape)
|
||||
num_classes=y_train.shape[1]
|
||||
```
|
||||
|
||||
### Пункт 6
|
||||
Реализовали модель однослойной нейронной сети и обучили ее на обучающих данных с выделением части обучающих данных в качестве валидационных. Вывели информацию об архитектуре нейронной сети. Вывели график функции ошибки на обучающих и валидационных данных по эпохам.
|
||||
```python
|
||||
from keras.models import Sequential
|
||||
from keras.layers import Dense
|
||||
|
||||
@@ -86,16 +93,22 @@ plt.ylabel('loss')
|
||||
plt.legend(['train_loss', 'val_loss'])
|
||||
plt.title('Loss by epochs')
|
||||
plt.show()
|
||||
```
|
||||
|
||||
### Пункт 7
|
||||
Применили обученную модель к тестовым данным. Вывели значение функции ошибки и значение метрики качества классификации на тестовых данных.
|
||||
```python
|
||||
# Оценка качества работы модели на тестовых данных
|
||||
scores = model_1.evaluate(X_test, y_test)
|
||||
print('Loss on test data:', scores[0])
|
||||
print('Accuracy on test data:', scores[1])
|
||||
```
|
||||
|
||||
### Пункт 8
|
||||
Добавили в модель один скрытый и провели обучение и тестирование при 100, 300, 500 нейронах в скрытом слое. По метрике качества классификации на тестовых данных выбрали наилучшее количество нейронов в скрытом слое.
|
||||
|
||||
При 100 нейронах
|
||||
```python
|
||||
# создаем модель
|
||||
model_1h100 = Sequential()
|
||||
model_1h100.add(Dense(units=100, input_dim=num_pixels, activation='sigmoid'))
|
||||
@@ -123,8 +136,10 @@ plt.show()
|
||||
scores = model_1h100.evaluate(X_test, y_test)
|
||||
print('Loss on test data:', scores[0])
|
||||
print('Accuracy on test data:', scores[1])
|
||||
```
|
||||
|
||||
При 300 нейронах
|
||||
```python
|
||||
# создаем модель
|
||||
model_1h300 = Sequential()
|
||||
model_1h300.add(Dense(units=300, input_dim=num_pixels, activation='sigmoid'))
|
||||
@@ -152,8 +167,10 @@ plt.show()
|
||||
scores = model_1h300.evaluate(X_test, y_test)
|
||||
print('Loss on test data:', scores[0])
|
||||
print('Accuracy on test data:', scores[1])
|
||||
```
|
||||
|
||||
При 500 нейронах
|
||||
```python
|
||||
# создаем модель
|
||||
model_1h500 = Sequential()
|
||||
model_1h500.add(Dense(units=500, input_dim=num_pixels, activation='sigmoid'))
|
||||
@@ -181,11 +198,16 @@ plt.show()
|
||||
scores = model_1h500.evaluate(X_test, y_test)
|
||||
print('Loss on test data:', scores[0])
|
||||
print('Accuracy on test data:', scores[1])
|
||||
```
|
||||
|
||||
Наилучшую метрику наблюдаем при архитектуре со 100 нейронами в скрытом слое.
|
||||
|
||||
|
||||
### Пункт 9
|
||||
Добавили в наилучшую архитектуру, определенную в п. 8, второй скрытый слой и провели обучение и тестирование при 50 и 100 нейронах во втором скрытом слое.
|
||||
|
||||
При 50 нейронах
|
||||
```python
|
||||
# создаем модель
|
||||
model_1h100_2h50 = Sequential()
|
||||
model_1h100_2h50.add(Dense(units=100, input_dim=num_pixels, activation='sigmoid'))
|
||||
@@ -214,8 +236,10 @@ plt.show()
|
||||
scores = model_1h100_2h50.evaluate(X_test, y_test)
|
||||
print('Loss on test data:', scores[0])
|
||||
print('Accuracy on test data:', scores[1])
|
||||
```
|
||||
|
||||
При 100 нейронах
|
||||
```python
|
||||
# создаем модель
|
||||
model_1h100_2h100 = Sequential()
|
||||
model_1h100_2h100.add(Dense(units=100, input_dim=num_pixels, activation='sigmoid'))
|
||||
@@ -244,6 +268,7 @@ plt.show()
|
||||
scores = model_1h100_2h100.evaluate(X_test, y_test)
|
||||
print('Loss on test data:', scores[0])
|
||||
print('Accuracy on test data:', scores[1])
|
||||
```
|
||||
|
||||
### Пункт 10
|
||||
Результаты исследования архитектуры нейронной сети занесли в таблицу
|
||||
@@ -263,10 +288,13 @@ print('Accuracy on test data:', scores[1])
|
||||
Исходя из нашего исследования, можно сделать вывод о том, что наилучшая архитектра - это архитектура с двумя скрытыми слоями (100 нейронов на первом скрытом слое и 100 на втором).
|
||||
### Пункт 11
|
||||
Сохранили наилучшую нейронную сеть на диск
|
||||
|
||||
```python
|
||||
model_1h100_2h100.save('best_model.keras')
|
||||
```
|
||||
|
||||
### Пункт 12
|
||||
Вывели результаты тестирования модели
|
||||
```python
|
||||
# вывод тестового изображения и результата распознавания 1
|
||||
n = 123
|
||||
result = model_1h100_2h100.predict(X_test[n:n+1])
|
||||
@@ -275,9 +303,12 @@ plt.imshow(X_test[n].reshape(28,28), cmap=plt.get_cmap('gray'))
|
||||
plt.show()
|
||||
print('Real mark: ', str(np.argmax(y_test[n])))
|
||||
print('NN answer: ', str(np.argmax(result)))
|
||||
```
|
||||
|
||||
### Пункт 13
|
||||
Создали собственные изображения чисел
|
||||
```python
|
||||
|
||||
# загрузка собственного изображения
|
||||
from PIL import Image
|
||||
file_data = Image.open('five_v3.png')
|
||||
@@ -294,9 +325,12 @@ test_img = test_img.reshape(1, num_pixels)
|
||||
# распознавание
|
||||
result = model_1h100_2h100.predict(test_img)
|
||||
print('I think it\'s ', np.argmax(result))
|
||||
```
|
||||
|
||||
### Пункт 14
|
||||
Создали копию нарисованных чисел и повернем их на 90 градусов. Протестируем работу нейронной сети.
|
||||
```python
|
||||
|
||||
file_data = Image.open('three_v3_rotated.png')
|
||||
file_data = file_data.convert('L') # перевод в градации серого
|
||||
test_img = np.array(file_data)
|
||||
@@ -324,5 +358,7 @@ test_img = test_img.reshape(1, num_pixels)
|
||||
# распознавание
|
||||
result = model_1h100_2h100.predict(test_img)
|
||||
print('I think it\'s ', np.argmax(result))
|
||||
```
|
||||
|
||||
|
||||
Нейросеть некорректно определила повернутые изображения.
|
||||
Ссылка в новой задаче
Block a user