diff --git a/labworks/LW4/report.md b/labworks/LW4/report.md index d822bf4..c5241ae 100644 --- a/labworks/LW4/report.md +++ b/labworks/LW4/report.md @@ -199,7 +199,7 @@ print("Метка класса:", label, "| Класс:", class_name) **Вывод:** ``` -После предобработки все отзывы получили одинаковую длину (max_words). Короткие были дополнены (индекс 0) в начале, длинные — обрезаны с конца до длины 500. Смысловая часть отзыва сдвинулась вправо, в начале теперь идут нули/. +После предобработки длина всех отзывов была приведена к 500 словам. Рассматриваемый отзыв был дополнен нулями () в начале, так как его исходная длина была меньше выбранного максимума. Обрезания текста не произошло. Функция pad_sequences выровняла все отзывы к единой длине. ``` ### Пункт №8. Вывод предобработанных массивов обучающих и тестовых данных. @@ -320,7 +320,7 @@ print(f"Test accuracy: {test_accuracy:.4f}") Test accuracy: 0.8607 ``` -### Пункт №10.2 Оценка качества обучения на тестовых данных. +### Пункт №10.2 ```python y_score = model.predict(X_test) @@ -339,7 +339,7 @@ print(classification_report(y_test, y_pred, labels = [0, 1], target_names=['Nega weighted avg 0.86 0.86 0.86 25000 ``` -### Пункт №10.3 Оценка качества обучения на тестовых данных. +### Пункт №10.3 ```python from sklearn.metrics import roc_curve, auc @@ -362,5 +362,12 @@ Area under ROC is 0.9304564479999999 **Выводы по лабораторной работе:** ``` - +Проведённый эксперимент показал, что обученная LSTM-модель эффективно +справляется с задачей определения тональности текстов. На тестовой +выборке модель продемонстрировала высокое значение accuracy, а метрики +precision, recall и f1-score подтвердили хорошее качество классификации +для обоих классов. ROC-кривая располагается существенно выше диагонали +случайного классификатора, а AUC ROC близко к 1, что свидетельствует +о высокой степени разделимости классов. Таким образом, модель обладает +хорошей обобщающей способностью и подходит для анализа тональности отзывов. ``` \ No newline at end of file