GBM Boosted Machines
ES Framework Que USA ALGORITMOS BASADOS EN ARBOLES CON LA EFICICIANCIA COMO COMO OBJETIVO.
Puede Ser Utilizado Tanto Para Clasifación Como Para Reveleseón (Mas Info El Parámetro Цель
).
Diferencia de Xgboost (Entre Otros) que utiliza algoritmos basados en la clazifación previa, lightgbm США algoritmos basados en histograss (es decir, que agrupa los valores de atributos continuos en bincies discives) PARA AGILIZAR E ELENRAMENAMIRIENO Y REMOVEIR EL USO de Memoria.
Ademas, Esta Optimizado Para Que el Arbol Crezca En la Direción de Los Mejors Nodos (Ayudando A Una Mejor Администрация Администрация Д.Е.).
LightGBM Tiene Más de 100 Parámetros, Перо Aquí Haré Resumen de Los Más:
Максимальная глубина : Este Parámetro Previene Que Los Arboles Crezcan Muy Profundo. Los Arboles Poco Profundos Tienen Menos Probabilidad de переоборудование. Configurarar Este Parámetro Es Muy Geate si el dataset es pequeño.
num_leaves : Controla La Complejidad del Modelo. El Valor Debe Ser Menor A 2 ^
max_depth
Пара предварительно перенесен. SI SE LO AJUSTA CON VALOR Valor Grande Puede Aumentar La Precisión a riesgo de auentar el averfiting.min_data_in_leaf : Configurarar Este Parámetro Con ООН доблесть Grande Puede Ayudar A Prevenir Que Los Arboles Crezcan Demasido Profundo. Este Es Otro Parámetro Que Ayuda Controllar El Перекисляет Del Modelo. Si es un valor demasido Grande надо провокар.
max_bin : como ya vimos, lightgbm agrupa los valores de atributos continuos en birs дискретные усандо гистограммы. Конфигурация
Max_bin.
Para Esperifificar El Numero de Bins en los que los valores pueden ser agrupados. ООН Вальёр БАЙВЕ ДЖИДАЖДЕНИЕ AYUDAR Контроль Эль переубийся y Mejorar La Velocidad del Entrenamiento, MientArs que un valor Grande Mejora La Precisión del Modelo.Функция_fraction : Este Parámetro Habilita El Pumuestreo de Atributos.
Функция_fraction
Esperifica Las Fracciones de Los Atributos Que Se Seleccionaran Aleatorirece En Cada Iteración. POR EJEMPLO,feature_fraction = .75.
Seleccionará al Azar El 75% De Los Atributos En Cada Iteración. Configurarar Este Parámetro Parámetro Peede Aumentar La Velocidad de Entrenamiento Y Ayuda A Prevenir El переодается.Bagging_fraction :
Bagging_fraction
Esceifea Las Fracciones de Los Datos Que Se Seleccionaran Aleatorirece En Cada Iteración. POR EJEMPLO,Bagging_fraction = .75.
Seleccionará al Azar El 75% de los datos en Cada Iteración. Configurarar Este Parámetro Parámetro Peede Aumentar La Velocidad de Entrenamiento Y Ayuda A Prevenir El переодается.num_iteration : Fija El Número de Iseraciones de Boosting. El Valor Predeterminado ES 100. Para Clasifación Multi-Clase, LightGBM CREA
num_class
*num_iteration
Арболы. Configurarar Este Parámetro Phangeencia En La Velocidad De Entrenamiento.Цель : COMO EN XGBOOST, LightGBM SOPORTA МИНОЧНОЙ ОБЪЕКТИВОС. El Objetivo Predeterminado ESTA Configurado En Corvedeón. Ajusta Este Parametro Para Esperificar El Tipo de Tarea Que Tu Modelo Quiere Llevar A Cabo. Para Tareas de Reveleseón, Лас Опчонс сын
Regression_l2.
,регрессия l1
,Пуассон
,квантиль
,карта
,гамма
,Губер
,Ярмарка
Отвиды
. Para Tareas de ClaSification, Лас Опчонс сындвоичный
,Multiclass
Омультиклассовая
. ES Гибемент Configurarar Este Parámetro Forrecte Para Evitar Butterdados Impressexible O Paja Precision.
Ссылка на Github
EN EL PASAO CREE UN PREECTO USANDO LightGBM PERO ESTA VEZ Lo Voy A Utilizar Dataset Diferente.
EN ESTE CASO ESTARE CLASIFIFESANDO DIFERENETES Сквистантные реплики ООН Préstamo. Нет VIY HACER AUT ANALISIS DE LOS DESOS, DIRECTAMESE IRÉ AL DESARROLLO DEL MODEOO.
Результаты
Luego de Una Busqueda de Parámetros, El Modelo Y Dió Estos Restutterdos:
The accuracy of prediction is: 0.9078853557678597 The roc_auc_score of prediction is: 0.9115936285698222 The null accuracy is: 0.653429345501212
Путаница матрицы
Importancia de los atributos
COMO PodeMos Ver, Lightgbm es en algoritmo Hoitable includo en este dataset de tamaño mediano (46751 Filas).
Оригинал: “https://dev.to/ruizleandro/introduccion-a-lightgbm-ij7”