diff --git a/labworks/LW1/.gitignore b/labworks/LW1/.gitignore
deleted file mode 100644
index 42061c0..0000000
--- a/labworks/LW1/.gitignore
+++ /dev/null
@@ -1 +0,0 @@
-README.md
\ No newline at end of file
diff --git a/labworks/LW1/README.md b/labworks/LW1/README.md
deleted file mode 100644
index 05106f0..0000000
--- a/labworks/LW1/README.md
+++ /dev/null
@@ -1,76 +0,0 @@
-# Лабораторная работа №1 
 «Архитектура и обучение глубоких нейронных сетей»
-
-## Цель работы:
-
-Получить практические навыки создания, обучения и применения искусственных нейронных сетей на примере решения задачи распознавания рукописных цифр. Научиться загружать данные и проводить их предварительную обработку. Научиться оценивать качество работы обученной нейронной сети. Исследовать влияние архитектуры нейронной сети на качество решения задачи.
-
-## Подготовка к работе:
-
-Подготовить программную среду для выполнения лабораторной работы. Обеспечить возможность работы в среде Google Colaboratory. Ознакомиться с функционалом данной среды.
-
-## Задание: 
-
-1.	В среде Google Colab создать новый блокнот (notebook). Импортировать необходимые для работы библиотеки и модули.
-2.	Загрузить набор данных MNIST, содержащий размеченные изображения рукописных цифр.
-3.	Разбить набор данных на обучающие (train) и тестовые (test) данные в соотношении 60000:10000 элементов. При разбиении параметр random_state выбрать равным (4k – 1), где k – порядковый номер студента по журналу. Вывести размерности полученных обучающих и тестовых массивов данных.
-4.	Вывести первые 4 элемента обучающих данных (изображения и метки цифр).
-5.	Провести предобработку данных: привести обучающие и тестовые данные к формату, пригодному для обучения нейронной сети. Входные данные должны принимать значения от 0 до 1, метки цифр должны быть закодированы по принципу «one-hot encoding». Вывести размерности предобработанных обучающих и тестовых массивов данных.
-6.	Реализовать модель однослойной нейронной сети и обучить ее на обучающих данных с выделением части обучающих данных в качестве валидационных. Вывести информацию об архитектуре нейронной сети. Вывести график функции ошибки на обучающих и валидационных данных по эпохам. При реализации модели нейронной сети задать следующую архитектуру и параметры обучения:
-    + количество скрытых слоев: 0
-    + функция активации выходного слоя: softmax
-    + функция ошибки: categorical_crossentropy
-    + алгоритм обучения: sgd
-    + метрика качества: accuracy
-    + количество эпох: 100
-    + доля валидационных данных от обучающих: 0.1
-	
-7.	Применить обученную модель к тестовым данным. Вывести значение функции ошибки и значение метрики качества классификации на тестовых данных.
-8.	Добавить в модель один скрытый и провести обучение и тестирование (повторить п. 6-7) при 100, 300, 500, 1000 нейронах в скрытом слое. По метрике качества классификации на тестовых данных выбрать наилучшее количество нейронов в скрытом слое. В качестве функции активации нейронов в скрытом слое использовать функцию sigmoid.
-9.	Добавить в наилучшую архитектуру, определенную в п. 8, второй скрытый слой и провести обучение и тестирование (повторить п. 6-7) при 50, 100, 300 нейронах во втором скрытом слое. В качестве функции активации нейронов в скрытом слое использовать функцию sigmoid.
-10.	Результаты исследования архитектуры нейронной сети занести в таблицу:
-
-
| Количество скрытых слоев | -Количество нейронов в первом скрытом слое | -Количество нейронов во втором скрытом слое | -Значение метрики качества классификации | -
|---|---|---|---|
| 0 | -- | -- | -- | 
| 1 | -100 | -- | -- | 
| 300 | -- | -- | |
| 500 | -- | -- | |
| 2 | -наилучшее из п.8 | -50 | -- | 
| наилучшее из п.8 | -100 | -- |