diff --git a/labs/OATD_LR3.md b/labs/OATD_LR3.md
index 44982bf..f1fded4 100644
--- a/labs/OATD_LR3.md
+++ b/labs/OATD_LR3.md
@@ -21,7 +21,7 @@
 ## Варианты заданий
 
 | Вариант | Метод    | Word embedding |
-| :---    | :---:    | :---           | 
+| :---    | :---     | :---           | 
 | 1       | KNN, SVM | glove-wiki-gigaword-100 |
 | 2       | RF, MNB  | glove-wiki-gigaword-50
 | 3       | KNN, DT  | glove-wiki-gigaword-200 |
@@ -39,31 +39,36 @@
 
 Помимо параметров предварительной обработки, таких как: взвешивание, отсечение стоп-слов,
 количество информативных терминов, для каждого метода классификации необходимо настроить следующие параметры:
-*К-ближайших соседей (KNN): *
-•	количество ближайших соседей, 
-•	метрика (евклидова, косинусная) 
-
-*Дерево решений (DT): *
-•	критерий (параметр criterion: ‘gini’, ‘entropy’), 
-•	глубина дерева (параметр max_depth: {5, 15, 50, 100}).
-
-*Случайный лес (RF): *
-•	количество деревьев решений, 
-•	критерий (параметр criterion: ‘gini’, ‘entropy’),
-•	глубина дерева (5, 15, 50, 100).
-
-*Логистическая регрессия (LR): *
-•	метод нахождения экстремума (параметр solver: ‘newton-cg’, ‘lbfgs’, ‘sag’, ‘liblinear’), 
-•	регуляризация (параметр penalty: ‘L1’, ‘L2’)
+**К-ближайших соседей (KNN):**
+
+* количество ближайших соседей, 
+* метрика (евклидова, косинусная) 
+
+
+**Дерево решений (DT):**
+
+* критерий (параметр criterion: ‘gini’, ‘entropy’), 
+* глубина дерева (параметр max_depth: {5, 15, 50, 100}).
+
+**Случайный лес (RF):**
+
+* количество деревьев решений, 
+* критерий (параметр criterion: ‘gini’, ‘entropy’),
+* глубина дерева (5, 15, 50, 100).
+
+**Логистическая регрессия (LR):**
+
+* метод нахождения экстремума (параметр solver: ‘newton-cg’, ‘lbfgs’, ‘sag’, ‘liblinear’), 
+* регуляризация (параметр penalty: ‘L1’, ‘L2’)
 Обратить внимание, что разные виды регуляризации работают с разными методами нахождения экстремума.
 
-*Метод опорных векторов (SVM): *
-•	функция потерь (параметр loss: ‘hinge’, ‘squared_hinge’), 
-•	регуляризация (параметр penalty: ‘L1’, ‘L2’)
+**Метод опорных векторов (SVM):**
+* функция потерь (параметр loss: ‘hinge’, ‘squared_hinge’), 
+* регуляризация (параметр penalty: ‘L1’, ‘L2’)
 Обратить внимание, что разные виды регуляризации работают с разными функциями потерь
 
-*Мультиномиальный Наивный Байесовский метод (MNB) *
-•	параметр сглаживания α (параметр alpha {0.1, 1, 2} 
+**Мультиномиальный Наивный Байесовский метод (MNB)**
+* параметр сглаживания α (параметр alpha {0.1, 1, 2})
 
 ## Контрольные вопросы