Рубрики
Без рубрики

Введение в машину обучения в Python: Часть III.

СОДЕРЖАНИЕ МОДЕЛЬ ОЦЕНКИ ОЦЕНКИ ПРЕДЛОЖЕНИЯ МОДЕЛЬНОЙ РЕГИОНАЛЬНОЙ ОЦЕНКИ МЕТИЧЕСКОГО … Теги с обучением машины, наукой данных, Python, начинающими.

Оглавление

  1. Оценка модели
  2. Прогнозы из модели
  3. Оценка регрессии метрики
  4. Конечные мысли

Это последняя часть в моей 3-х цельной серии введения в машину, обучение с Python, это был взрыв для написания и, надеюсь, некоторые из вас получили что-то из чтения. В последнем посте вступления в машину обучения: Часть II Мы говорили о том, как разделить, тренироваться, тестировать и соответствовать нашей модели линейной регрессии. В этом мы будем погружаться в процесс после того, как мы построили и проверили нашу модель. Для этого нам нужно оценить модель, печатая ее перехват и коэффициенты, глядя на прогнозы из наших моделей, а затем оценивая его из количественного подхода. Там наша сводка, поэтому давайте посмотрим, как это делается с примерами и некоторыми кодом! Нам нужно оценить модель, печатая его перехват и коэффициенты, глядя на прогнозы из наших моделей, а затем оценивая его из количественного подхода. Там наша сводка, поэтому давайте посмотрим, как это делается с примерами и некоторыми кодом!

Оценка модели

Чтобы начать оценку нашей линейной модели регрессии, мы собираемся печатать перехват и коэффициенты из нашей модели. Первое, что нам нужно сделать, это печатать наш перехват с кодом, похожим на это:

print(lm.intercept_)

Это должно дать вам перехватить ниже. После завершения этого вы можете перейти к печати коэффициентов. Коэффициенты связаны с столбцами в X_Train. Таким образом, делая это, мы собираемся создать кадр данных из коэффициентов, чтобы сделать их более читаемыми и легче интерпретировать их. Код в Python может выглядеть следующим образом:

coeff_df = pd.DataFrame(lm.coef_,X.columns,columns=['Coefficient'])
coeff_df

Это сделает кадр данных, которая имеет ваши связанные строки, а затем их соответствующий коэффициент рядом с ними. Отсюда мы переходим на то, как интерпретировать эти коэффициенты. Чтобы интерпретировать числа справа от вашего столбца, это означает, что с удерживанием все фиксированное увеличение 1 единицы приведет к увеличению, однако многие единицы, которые есть, что коэффициент. Таким образом, в зависимости от данных и в каком вопросе вы пытаетесь ответить на интерпретацию, они будут зависеть от случаев. Теперь, когда мы получили некоторые идеи от наших коэффициентов, мы сможем посмотреть на данные прогнозов из нашей модели.

Прогнозы из модели

Чтобы проанализировать наши прогнозы из нашей модели, нам нужно: * Храните наши прогнозы из наших тестовых данных в переменной * Используйте MATPLOTLIB, чтобы сделать график разброса * Используйте Seborn, чтобы сделать развлекатель

Чтобы сохранить наши данные наших предсказаний в переменной, ее простую строку кода и помощь пакета Scikit-Learn и будет выглядеть следующим образом:

predictions = lm.predict(X_test)

Теперь, когда мы получили наши прогнозы в переменной, мы можем визуализировать это, чтобы качественно проанализировать нашу модель, глядя на линейную модель, и распределение его. Для этого мы будем использовать MatPlotlib для создания графика разброса тестовых значений по сравнению с предсказаниями с использованием:

plt.scatter(y_test,predictions)

Ваш результат рассеянного участка должен выглядеть немного такого:

Мы хотим жесткой линейной прямой линии, которая означает, что ваши предсказания против тестовой модели очень близки друг к другу. Другой способ, которым мы собираемся качественно анализировать нашу модель, посмотрев на распределение этого. Для этого мы будем использовать пакет Searborn и используем расслабление, кодируя:); После запуска этого он должен дать сюжет, который выглядит что-то подобное: Мы хотим, чтобы остатки этого заговора равномерно распределили кривую колокола, как мы говорили в части II, чтобы убедиться, что мы прилично устроили нашу модель.

Теперь, когда у нас качественно проанализирована наша модель, мы можем пойти на один шаг вперед и количественно анализировать, используя регрессионные метрики. Метрики оценки регрессии Когда речь идет о анализе нашей модели линейной регрессии, мы хотим не только визуально видеть, но и, чтобы увидеть его в номерах. Счастливых для нас Scikit – учиться, может сделать эту математику для нас. Это не значит, хотя не стоит знать, как мы туда попали.

Вот 3 самая распространенная метрика оценки регрессии и лучший способ сравнить эти метрики: * MAE является базовой, потому что это просто средняя ошибка * MSE имеет тенденцию быть лучше, чем МАЭ, потому что он наказывает большие ошибки, что более распространено * RMSE Самые популярные из 3, потому что он более читабелен с точки зрения единиц «Y»

Важно отметить, что это все функции потери, поэтому мы пытаемся минимизировать их как можно больше, чем мы можем с нашими моделями. Они станут более ясными, когда вы запускаете код, чтобы показать их. Этот код будет выглядеть так:

from sklearn import metrics
print('MAE:', metrics.mean_absolute_error(y_test, predictions))
print('MSE:', metrics.mean_squared_error(y_test, predictions))
print('RMSE:', np.sqrt(metrics.mean_squared_error(y_test, predictions)))

Это должно дать вам все три метрики оценки регрессии, перечисленные со своими ошибками. Помните, что мы хотим меньше ошибок в наших моделях, поэтому наименьшее количество трех будет лучшей моделью. Теперь мы наконец узнали, как качественно проанализировать нашу модель линейной регрессии, максимально количественно. Это последний шаг, и мы завершили серию внедрения машинного обучения!

Конечные мысли

Это завершает свою серию 3 части, и я надеюсь, что вы, ребята, наслаждались, возможно, 1 из этих статей или, по крайней мере, нашли что-то на вынос от него. Я ни в коем случае я не являюсь экспертом в этом материале, и я пишу, чтобы помочь людям, как я, кто может начинать свое путешествие и искать несколько советов, чтобы помочь по пути. Я знаю, что мне действительно нравится, когда я нахожу хорошие статьи, которые ускоряют мой процесс обучения Так что я, возможно, некоторые эти статьи могут помочь кому-то прочитать это. Спасибо, что нашли время прочитать, и если вы не поймали мои прошлые статьи, я свяжу их ниже, если кто-нибудь хотел бы прочитать. Если вам нравится этот оставить как или комментарий, рассказывая мне вещи, которые я мог сделать лучше, и некоторые вещи, которые вы хотели бы видеть, как я пишу о следующем. Спасибо снова и хорошо посмотрите, где вы находитесь в вашем путешествии.

INTRO TO MACHITE Обучение: Часть I INTRO для обучения машины: Часть II

Оригинал: “https://dev.to/berett21/intro-to-machine-learning-part-iii-3bdm”