Kursplan

Introduksjon

Denne seksjonen gir en generell innføring i når man skal bruke 'maskinlæring', hva man bør vurdere og hva det alt betyr, inkludert fordelene og ulempene. Datatyper (strukturert/ustrukturert/statisk/strømmet), data validitet/volum, data-driven vs. bruker-driven analyser, statistiske modeller vs. maskinlæringsmodeller, utfordringer med uovervåket læringsbias-variasjonsavveining, iterasjon/utvurdering, kryssvalideringsmetoder, overvåket/uovervåket/belønningsbasert.

Hovedemner

1. Forståelse av naive Bayes

  • Grunnleggende begreper i Bayes-metoder
  • Sannsynlighet
  • Felles sannsynlighet
  • Betinget sannsynlighet med Bayes' teorem
  • Naive Bayes-algoritmen
  • Naive Bayes-klassifisering
  • Laplace-estimatoren
  • Bruke numeriske egenskaper med naive Bayes

2. Forståelse av beslutningstre

  • Deler og erobre
  • C5.0 beslutningstre-algoritmen
  • Velge den beste delingen
  • Trimme beslutningstræet

3. Forståelse av neuronnettverk

  • Fra biologiske til kunstige neuroner
  • Aktiveringsfunksjoner
  • Nettverktopologi
  • Antall lag
  • Retningen for informasjonsstrøm
  • Antall noder i hvert lag
  • Trener neuronnettverk med backpropagation
  • Deep Learning

4. Forståelse av Support Vector Machines

  • Klassifisering med hyperplans
  • Finn den største marginen
  • Tilfelle av linjært separerbare data
  • Tilfelle av ikke-linjært separerbare data
  • Bruke kjerner for ikke-lineære rom

5. Forståelse av klustering

  • Kluster som en maskinlæringsoppgave
  • K-means-algoritmen for klustering
  • Bruke avstand for tilordning og oppdatering av klustre
  • Velge riktig antall klustre

6. Måling av ytelse for klassifisering

  • Arbeide med klassifiseringsprediksjonsdata
  • En nærmere titt på forvirringsmatriser
  • Bruke forvirringsmatriser for å måle ytelse
  • Utover nøyaktighet – andre målinger for ytelse
  • Kappa-statistikk
  • Sensitivitet og spesifisitet
  • Presisjon og tilbakekalling
  • F-måling
  • Visualisering av ytelseskompromisser
  • ROC-kurver
  • Estimering av fremtidig ytelse
  • Holdout-metoden
  • Kryssvalidering
  • Bootstrap-prøvetaking

7. Justering av standardmodeller for bedre ytelse

  • Bruke caret for automatisk parameterjustering
  • Opprette en enkel justert modell
  • Tilpasse justeringsprosessen
  • Forbedre modellytelse med meta-læring
  • Forståelse av ensemble
  • Bagging
  • Boosting
  • Tilfeldige skoger
  • Trener tilfeldige skoger
  • Utvurdering av ytelse for tilfeldige skoger

Minor Topics

8. Forståelse av klassifisering ved bruk av nærmeste naboer

  • kNN-algoritmen
  • Beregne avstand
  • Velge en passende k
  • Forberede data for bruk med kNN
  • Hvorfor er kNN-algoritmen lat?

9. Forståelse av klassifiseringsregler

  • Separer og erobre
  • One Rule-algoritmen
  • RIPPER-algoritmen
  • Regler fra beslutningstrær

10. Forståelse av regresjon

  • Enkel lineær regresjon
  • Vanlige minstekvadratestimering
  • Korrelasjoner
  • Multipl lineær regresjon

11. Forståelse av regresjonstrær og modelltrær

  • Legge til regresjon i trær

12. Forståelse av assosiasjonsregler

  • Apriori-algoritmen for assosiasjonsregel-læring
  • Måle regleinteresse – støtte og tillit
  • Bygg en setning med regler med Apriori-prinsippet

Ekstra

  • Spark/PySpark/MLlib og Multi-armed bandits

Krav

Python Kunnskap

 21 timer

Antall deltakere


Pris per deltaker

Referanser (7)

Kommende kurs

Relaterte kategorier