diff --git a/labs/OATD_LR2.md b/labs/OATD_LR2.md index 95e8e06..6284a2c 100644 --- a/labs/OATD_LR2.md +++ b/labs/OATD_LR2.md @@ -22,7 +22,7 @@ * Применить процедуру отсечения стоп-слов и повторить пункт B. Записать в **выводах** получившиеся различия. -7. Используя конвейер (`Pipeline`) реализовать baseline-модель (базовый варинат модели без специальной настройки гиперпараметров) Случайного леса. +7. Используя конвейер (`Pipeline`) реализовать baseline-модель (базовый варинат модели без специальной настройки гиперпараметров) Случайного леса. Оценить f1-меру такой модели. 8. Провести настройку гиперпараметров модели путем полного перебора, воспользовавшись классом `GridSearchCV`. Выявить значения гиперпараметров, обеспечивающие лучшее качество классификации на основе f1-меры. Должны быть исследованы следующие характеристики: * Отсечение \ не отсечение стоп-слов @@ -37,7 +37,8 @@ ### Подход на основе эмбеддингов 8. Исходную выборку к привести к векторному представлению word embedding согласно варианту. -9. Провести обучение и настройку Случайного леса с помощью `GridSearchCV`, но при представлении текстов в виде word embedding. Сетку параметров выбрать ту же, что и в классическом подходе. + +9. Провести обучение и настройку Случайного леса с помощью `GridSearchCV`, но при представлении текстов в виде word embedding. Настраивать требуется только параметры Случайного леса. Параметры векторизатора берем по умолчанию - весь словарь, без удаления стоп-слов. 10. По каждому пункту работы занести в отчет программный код и результат вывода. 11. По результатам классификации занести в отчет выводы о: