Kursplan

Introduksjon

    Kunstige nevrale nettverk vs beslutningstrebaserte algoritmer

Oversikt over XGBoost-funksjoner

    Elementer i en Gradient Boosting-algoritme Fokus på beregningshastighet og modellytelse XGBoost vs Logistic Regression, Random Forest og standard Gradient Boosting

Utviklingen av trebaserte algoritmer

    Decision Trees, Bagging, Random Forest, Boosting, Gradient Boosting Systemoptimalisering Algoritmiske forbedringer

Forberede miljøet

    Installerer SciPy og scikit-learn

Opprette en XGBoost-modell

    Laste ned et datasett Løse et vanlig klassifiseringsproblem Trening av XGBoost-modellen for klassifisering Løs en vanlig regresjonsoppgave

Overvåking av ytelse

    Evaluere og rapportere ytelse Tidlig stopp

Plotte funksjoner etter viktighet

    Beregne funksjonens betydning Bestemme hvilke inngangsvariabler som skal beholdes eller forkastes

Konfigurere Gradient Boosting

    Gjennomgå læringskurvene på opplærings- og valideringsdatasett Justere læringshastigheten Justere antall trær

Innstilling av hyperparameter

    Forbedre ytelsen til en XGBoost-modell Utforme et kontrollert eksperiment for å justere hyperparametere Searchkombinasjoner av parametere

Opprette en rørledning

    Innlemme en XGBoost-modell i en ende-til-ende maskinlæringspipeline Tuning av hyperparametre i pipeline Avanserte forbehandlingsteknikker

Feilsøking

Oppsummering og konklusjon

Krav

  • Erfaring med å skrive maskinlæringsmodeller

Publikum

  • Dataforskere
  • Maskinlæringsingeniører
 14 timer

Antall deltakere



Price per participant

Relaterte kurs

Related Categories