diff --git a/labworks/LW3/report.md b/labworks/LW3/report.md index 588b90b..c946a51 100644 --- a/labworks/LW3/report.md +++ b/labworks/LW3/report.md @@ -171,7 +171,7 @@ print('Real mark: ', np.argmax(y_test[n])) print('NN answer: ', np.argmax(result)) ``` -![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/src/branch/main/labworks/LW3/photo/f3.PNG) +![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/raw/branch/main/labworks/LW3/photo/f3.PNG) --- @@ -196,7 +196,7 @@ display.plot() plt.show() ``` -![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/src/branch/main/labworks/LW3/photo/f4.PNG) +![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/raw/branch/main/labworks/LW3/photo/f4.PNG) ### 9. Загрузка, предобработка и подача собственных изображения @@ -220,7 +220,7 @@ result = model.predict(test_img) print('I think it\'s ', np.argmax(result)) ``` -![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/src/branch/main/labworks/LW3/photo/f5.PNG) +![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/raw/branch/main/labworks/LW3/photo/f5.PNG) ```python # загрузка собственного изображения @@ -239,7 +239,7 @@ result = model.predict(test_img) print('I think it\'s ', np.argmax(result)) ``` -![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/src/branch/main/labworks/LW3/photo/f6.PNG) +![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/raw/branch/main/labworks/LW3/photo/f6.PNG) --- @@ -250,7 +250,7 @@ model = keras.models.load_model("best_model.keras") model.summary() ``` -![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/src/branch/main/labworks/LW3/photo/f7.PNG) +![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/raw/branch/main/labworks/LW3/photo/f7.PNG) ```python # развернем каждое изображение 28*28 в вектор 784 @@ -390,7 +390,7 @@ for i in range(25): plt.show() ``` -![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/src/branch/main/labworks/LW3/photo/f8.PNG) +![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/raw/branch/main/labworks/LW3/photo/f8.PNG) ### 4. Предобработка данных @@ -452,7 +452,7 @@ model.add(layers.Dense(num_classes, activation="softmax")) model.summary() ``` -![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/src/branch/main/labworks/LW3/photo/f9.PNG) +![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/raw/branch/main/labworks/LW3/photo/f9.PNG) ```python batch_size = 64 @@ -490,9 +490,9 @@ for n in [2,15]: ``` -![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/src/branch/main/labworks/LW3/photo/f10.PNG) +![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/raw/branch/main/labworks/LW3/photo/f10.PNG) -![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/src/branch/main/labworks/LW3/photo/f11.PNG) +![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/raw/branch/main/labworks/LW3/photo/f11.PNG) --- @@ -519,9 +519,9 @@ plt.tight_layout() # чтобы всё влезло plt.show() ``` -![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/src/branch/main/labworks/LW3/photo/f12.PNG) +![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/raw/branch/main/labworks/LW3/photo/f12.PNG) -![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/src/branch/main/labworks/LW3/photo/f13.PNG) +![photo](http://uit.mpei.ru/git/ShchipkovMY/is_dnn/raw/branch/main/labworks/LW3/photo/f13.PNG) **Вывод**: Модель нейронной сети, обученная на датасете CIFAR-10, показала достойный результат с точностью распознавания 82%. При этом её показатель оказался ниже, чем у модели, созданной для MNIST. Такое различие объясняется характером данных: классификация цветных изображений заметно сложнее, чем чёрно-белых цифр. Для повышения качества распознавания в случае CIFAR-10 целесообразно усложнять архитектуру сети: увеличивать число слоёв и эпох обучения, а также расширять обучающую выборку (в данной работе она составляла 50 000 примеров).