# Лабораторная работа №2. Проведение экспериментов по настройке модели. ## Цель работы Провести ряд экспериментов по настройке модели, логируя все результаты в MLFlow. Научиться пользоваться инструментами autofeat, mlxtend, MLFlow ## Подготовка Работа содержит задания "со звездочкой", выполнять котороые **не обязательно**, но их выполнение откроет новые знания :) Можете их выполнить дома в качестве самостоятельного задания. Их выполнение или не выполнение **не будет влиять** на итоговую оценку. ## Задание 1. В VS Code открыть папку с вашим проектом и активировать виртуальное окружение. 2. Создать директорию и ноутбук, в котором вы будете проводить исследования. 3. Загрузить очищенную выборку. Разбить ее на тестовую и обучающую в пропорции 25%-75% 4. Создать переменные, содержащие названия столбцов с числовыми и категориальными признаками ----- 5. Создать pipeline обработки признаков и обучения модели. Для числовых признаков использовать `StandardScaler`, для категориальных - `TargetEncoder`(для задачи классификации) или `OrdinalEncoder` для задачи регрессии. В качестве модели - `RandomForest` 6. Обучить baseline-модель и получить метрики качества на тестовой выборке. Для задачи классификации это `precision`, `recall`, `f1`, `roc_auc`. Для регрессии - `mae`, `mape`, `mse` ----- 7. Создать в корне вашего проекта директорию `./mlflow` в которой будет запускаться фреймворк. 8. Написать sh-скрипт по запуску mlflow локально с хранилищем экспериментов (backend store) в СУБД sqlite. Запустить mlflow, убедиться в его работе. 9. Залогировать baseline-модель в новый эксперимент. Зарегистрировать модель. ----- 10. С использованием библиотеки `sklearn` создать дополнительные признаки, обучить модель, залогировать ее. 11. (*) Сгенерировать новые признаки с использованием библиотект `autofeat`, обучить модель, залогировать ее. 12. С использованием библиотеки `mlxtend` отобрать N наиболее важных признаков. N выбирается с учетом количества признаков на предыдущем шаге, ориентировочный диапазон - от 20% до 70%. Обучить модель, залогировать ее. 13. (*) Повторите предыдущий пункт с помощью `sklearn`, проанализируйте, схожие ли признаки выбраны другим алгоритмом? 14. С помощью `optuna` настроить оптимальные параметры для модели, показывающей лучший результат. Обучить модель, залогировать ее, зарегистрировать очередную версию. 15. (*) Обучить модель с помощью алгоритма [CatBoost](https://catboost.ai/) с выбранным вами набором признаков, залогировать ее, зарегистрировать очередную версию. Не забудьте воспользоваться оберткой (flavour) catboost. ----- 16. Проанализировать все прогоны и выбрать модель, показывающую наилучшее качество. Обучить эту модель на всей выборке (а не только на train-части), залогировать ее. В реестре моделей установить ей тэг `Production`. Эту модель мы будем деплоить в следующей лабораторной работе. 17. Актуализировать файлы `requirements.txt` и `README.md`, `.gitignore` 18. Отправить изменения на github. Сохранить на флешку или иным способом директорию `./mlflow` ## Методические указания ### 1 Работа является продолжением ЛР1. Выполнять ее нужно в той же директории проекта и с тем же виртуальным окуржением, что и ЛР1. > Если вы выполняете работу не на том же компьютере, что и ЛР1, то проект придется восстановить с гитхаба. Очень кстати в файле README указаны все команды по запуску проекта :) ### 2 В директории вашего проекта создать новую директорию `./research`, в которой будут храниться артефакты по настройке модели. Создать в ней ноутбук, в котором вы будете проводить исследования. ``` my_proj |_____ .venv_my_proj |_____ .git |_____ data | |___ ... | |_____ eda | |___ ... | |_____ research | |___ research.ipynb | |_____ .gitignore |_____ README.md |_____ requirements.txt ``` ### 3 В данной работе вы будете использовать обработанную и очищенную выборку, которая была получена в результате выполнения ЛР1. Ее следовало сохранить, однако если это не было сделано, то необходимо прогнать код ЛР1, чтобы заново ее получить. Деление на обучающую и тестовую - стандартным `train_test_split` из `sklearn` 75%-25% ### 4 Переменные, содержащие названия столбцов с числовыми и категориальными признаками вы уже создавали в ЛР1, код можно подглядеть там. ### 5 Pipeline на данном этапе будет состоять из двух шагов - `transform`, на котором вы проводите преобразования признаков, и `classification` (`regression`), на котором обучаете модель. На шаге `transform` для числовых признаков использовать `StandardScaler`, для категориальных - `TargetEncoder`(для задачи классификации) или `OrdinalEncoder` для задачи регрессии. В качестве модели в работе будем использовать `RandomForest`. > Известно, что `RandomForest` и другие алгоритмы на основе деревьев не нуждаются в шкалировании числовых признаков. Кроме того, существуют алгоритмы на основе деревьев, которые нативно обрабатывают категориальные признаки, например [CatBoost](https://catboost.ai/). Однако это частный случай. Для возможности применения других алгоритмов, помимо деревьев, мы проведем стандартные шаги шкалирования и кодирования. > Если ваша модель обучается уже дольше 5 минут, то имеет смысл остановить обучение и либо уменьшить объем выборки (например, воспользовавшись методом sample: `DataFrame.sample(frac=0.25)` тут `frac=0.25` означает, что мы хотим оставить 25% выборки), либо изменить гиперпараметры модели, уменьшив количество деревьев и их глубину. ### 6 Baseline-модель - это простая модель, от которой отталкиваются, чтобы сделать что-то более эффективное, отправная точка для сравнения и улучшения. Обычно обученная без каких-то особенных настроек и подбора гиперпараметров. Ее цель - понять, решаема ли вообще поставленная задача. ### 7, 8 Директория `./mlflow` будет содержать все что связано с данным фреймворком, а также скрипт для ее запуска. Первоначально нужно установить фреймворк, будем использовать версию 2.16. Кроме того, следует обновить версию numpy до 1.26.4. Не забудьте обновить файл `requirements.txt` ``` pip install numpy==1.26.4 mlflow==2.16 ``` Запускать mlflow мы будем локально, с указанием хранилища экспериментов в СУБД sqlite. Команду для запуска мы сохраним в виде bash-скрипта, что поможет вспомнить спустя время, как запустить фреймворк. Саму команду можно подсмотреть в лекции №4. Перед запуском mlflow убедитесь что вы находитесь в директории `./mlflow`. Запустить bash-скрипт можно командой: ``` sh script_name.sh ``` После запуска убедитесь, что БД создана там же: ``` my_proj |_____ .venv_my_proj |_____ .git |_____ data | |___ ... | |_____ eda | |___ ... | |_____ research | |___ research.ipynb | |_____ mlflow | |___ start_mlflow.sh | |___ mlruns.db | |_____ .gitignore |_____ README.md |_____ requirements.txt ``` Проверьте, что фреймворк успешно запустился, пройдя в браузере на http://localhost:5000/ ### 9 Прежде чем приступить непосредственно к логированию, подготовим дополнительные артефакты, которыми обогатим информацию о модели. * сигнатуру модели * пример входных данных * файл `requirements.txt` Пример входных данных можно получить, взяв первые несколько строк исходного датасета, а для сигнатуры - воспользоваться модулем `infer_signature`: ``` from mlflow.models import infer_signature input_example = X_train.head(5) signature = infer_signature(model_input = X_train.head(5)) ``` Модель нужно логировать со вкусом (flavour) sklearn. ``` mlflow.sklearn.log_model(...) ``` Убедитесь, что логирование прошло успешно, открыв интерфейс и проверив, что в эксперименте появился первый Run. Так же, зарегистрируйте эту модель в качестве первой версии модели по решению текущей задачи. Это можно сделать как через интерфейс, так и с помощью python API. ### 10 Сгенерируйте новые признаки с помощью различных трансформаций из библиотеки [`sklearn`](https://scikit-learn.org/stable/api/sklearn.preprocessing.html): * Для 2-3 числовых признаков PolynomialFeatures. Установить параметр degree=2. Не забудьте, что полученные таким образом признаки сами требуют шкалирования. Обратитесь к примеру из лекций, как поступить в этом случае. * Если у вас есть признаки, представляющие временные ряды, то SplineTransformer * Если временных признаков нет, то KBinsDiscretizer для разбивки 2-3 числовых признаков на корзины("бины") * Возможно, другие на ваше усмотрение. Для этого: 1. Создайте новую переменную `X_train_fe_sklearn`- копию исходной обучающей выборки, используя метод `.copy()` датафрейма. 2. Создайте `ColumnTransformer`, содержащий как трансформации baseline-модели (сделанные в п.5 ЛР), так и новые. 3. Обучите и сохраните в переменную `X_train_fe_sklearn` (используя метод `fit_transform`) получившиеся преобразования. 4. Сохраните в файл названия столбцов получившегося датафрейма. Этот файл нужно будет залогировать в MLFlow 5. Создайте `pipeline`, в котором на первом шаге будет работать `ColumnTransformer`, созданный в этом пункте, а на втором - модель. Далее нужно обучить модель, сделать предикт и залогировать модель и файл со столбцами, сделанный на шаге 4. Не забудьте поменять `RUN_NAME` на понятный, соответствующий действиям в этом пункте ЛР. ### 11 (*) Сгенерировать новые признаки с помощью библиотеки `autofeat` используя подходящие трансформации и задав `feateng_steps=2` Данная трансформация заменит шаг `transform` вашего исходного `pipeline`. Действия аналогичный предыдущему пункту. Далее нужно обучить модель, сделать предикт и залогировать модель результаты. Не забудьте поменять `RUN_NAME` на понятный, соответствующий действиям в этом пункте ЛР. ### 12 С использованием библиотеки `mlxtend` отобрать `N` наиболее важных признаков. `N` выбирается с учетом количества признаков на предыдущем шаге, ориентировочный диапазон - от 20% до 70%. В ЛР отбор будем проводить для признаков, полученных трансформациями `sklearn` в пункте 10. Алгоритм выполнения пункта следующий: * Создайте `SequentialFeatureSelector` c направлением последовательным добавлением признаков (forward). * В пункте 10 был получен датафрейм`X_train_fe_sklearn`, состоящий из расширенного набора признаков по сравнению с исходными данными. На этом датафрейме обучите `SequentialFeatureSelector`. * Выведите на экран и сохраните в файлы названия отобранных столбцов и их индексы (их нужно будет залогировать вместе с моделью) * Добавьте в папйлайн из пункта 10 вторым шагом отбор столбцов в соответствии с заданными индексами Далее нужно обучить модель, сделать предикт и залогировать модель и файлы с названиями и индексами отбранных столбцов. Не забудьте поменять `RUN_NAME` на понятный, соответствующий действиям в этом пункте ЛР. ### 13 (*) Повторите предыдущий пункт с `SequentialFeatureSelector` последовательно удаляя признаки (`forward=False`). И\или с помощью `RFE` из `sklearn`. Проанализируйте, схожие ли признаки выбраны другим алгоритмом? Можно провести исследование и попробовать объединить признаки, выбранные разными алгоритмами. Или наоборот - выбрать только те, котрые были выбраны всеми. ### 14 Используйте модель, которая показала лучший результат. У `Random Forest` будем настраивать параметры: * количество деревьев от 1 до 20 * глубина дерева от 1 до 10 * max_features в интевале от 0.1 до 1 Проведите не менее 10 trails по подбору опитмальных гиперпараметров. Настраивать качество будем по метрике `mae` для регрессии и `f1` для классификации. Обратите внимание и явно укажите в коде на то, что нужно делать с метрикой - максимизировать или минимизировать. Обученную модель залогируйте в MLFlow. Не забудьте поменять `RUN_NAME` на понятный, соответствующий действиям в этом пункте ЛР. Зарегистрируйте модель в качестве второй версии исходной модели. Можно через интерфейс, можно с использованием API. ### 15 (*) Обучить модель с помощью алгоритма [CatBoost](https://catboost.ai/) с выбранным вами набором признаков. Пункт аналогичен предыдущему. Залогируйте модель. Не забудьте воспользоваться оберткой (flavour) catboost. Зарегистрируйте данную модель как третью версию. Можно через интерфейс, можно с использованием API. ### 16 Актуализировать файл `requirements.txt`. Проанализировать все прогоны и выбрать модель, показывающую наилучшее качество. Обучить эту модель на всей выборке (а не только на train-части), залогировать ее. Метрики качества мерить уже не надо, однако кроме самой модели обязательно должны быть залогированы: * сигнатура модели * пример входных данных * файл `requirements.txt` * список используемых столбцов В реестре моделей установить ей тэг `Production` ### 17. Актуализировать файлы `README.md`, `.gitignore`. В Readme нужно * добавить пункт по запуску MLFlow - где находится скрипт, какой командой его запустить. * добавить пункт "Результаты исследования" где описать, какая модель показала лучший результат и какой. Ее параметры и выбранные столбцы. Указать `run_id` прогона с `Production` моделью. В `.gitignore` добавить в исключения папку с артефактами mlflow, и базу `mlruns.db`. Убедитесь, что скрипт по запуску **должен быть обязательно закоммичен!** ### 18. Отправить изменения на github. Сохранить на флешку или иным способом директорию `./mlflow`. Убедитесь, что в ней содержится папка `mlartifacts` и база `mlruns.db` ## Контрольные вопросы 1. Для чего нужен этап feature extraction? 1. Для чего нужен этап feature selection? 1. Для чего используется фреймворл mlfow? 1. Что такое "гиперпараметры модели" для чего и как их настраивать? 1. Как выглядит пайплайн работы модели, какие шаги в нем могут быть?