Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Kursplan
Introduksjon
- Kunstige nevrale nettverk vs beslutningstrebaserte algoritmer
Oversikt over XGBoost-funksjoner
- Elementer i en Gradient Boosting-algoritme Fokus på beregningshastighet og modellytelse XGBoost vs Logistic Regression, Random Forest og standard Gradient Boosting
Utviklingen av trebaserte algoritmer
- Decision Trees, Bagging, Random Forest, Boosting, Gradient Boosting Systemoptimalisering Algoritmiske forbedringer
Forberede miljøet
- Installerer SciPy og scikit-learn
Opprette en XGBoost-modell
- Laste ned et datasett Løse et vanlig klassifiseringsproblem Trening av XGBoost-modellen for klassifisering Løs en vanlig regresjonsoppgave
Overvåking av ytelse
- Evaluere og rapportere ytelse Tidlig stopp
Plotte funksjoner etter viktighet
- Beregne funksjonens betydning Bestemme hvilke inngangsvariabler som skal beholdes eller forkastes
Konfigurere Gradient Boosting
- Gjennomgå læringskurvene på opplærings- og valideringsdatasett Justere læringshastigheten Justere antall trær
Innstilling av hyperparameter
- Forbedre ytelsen til en XGBoost-modell Utforme et kontrollert eksperiment for å justere hyperparametere Searchkombinasjoner av parametere
Opprette en rørledning
- Innlemme en XGBoost-modell i en ende-til-ende maskinlæringspipeline Tuning av hyperparametre i pipeline Avanserte forbehandlingsteknikker
Feilsøking
Oppsummering og konklusjon
Krav
- Erfaring med å skrive maskinlæringsmodeller
Publikum
- Dataforskere
- Maskinlæringsingeniører
14 timer