Kursplan
Del 1 – Dyp læring og DNN-konsepter
Innføring i AI, Maskinlæring & Dyp Læring
- Historie, grunnleggende konsepter og vanlige anvendelser av kunstig intelligens langt unna fantasien forbundet med dette feltet
- Samleintelligens: aggregering av kunnskap delt av mange virtuelle agenter
- Genetiske algoritmer: for å utvikle en populasjon av virtuelle agenter ved valg
- Vanlige læringmaskiner: definisjon.
- Typer oppgaver: overvåket læring, uovervåket læring, forsterkningslæring
- Typer handlinger: klassifisering, regresjon, klustering, tetthetsestimering, dimensjonsreduksjon
- Eksempler på maskinlæringsalgoritmer: lineær regresjon, Naive Bayes, Random Tree
- Maskinlæring VS Dyp læring: problemstillinger der Maskinlæring fremdeles er den mest moderne løsningen (Random Forests & XGBoosts)
Grundleggende konsepter i et nevrale nettverk (Anvendelse: multi-lags perceptron)
- Gjennomgang av matematiske grunnlag.
- Definisjon av et nevrale nettverk: klassisk arkitektur, aktivering og
- Vektlegging av tidligere aktiveringer, dypet på et nettverk
- Definisjon av læring i et nevrale nettverk: kostfunksjoner, bakoverpropagasjon, stokastisk gradientnedstigning, maksimal sannsynlighet.
- Modellering av et nevrale nettverk: modellering av inndata og utdata basert på problemtype (regresjon, klassifisering ...). Dimensjonsforåndring.
- Distinktion mellom flerdimensjonale data og signal. Valg av en kostfunksjon basert på dataene.
- Approksimasjon av en funksjon ved et nevrale nettverk: presentasjon og eksempler
- Approksimasjon av en fordeling ved et nevrale nettverk: presentasjon og eksempler
- Dataaugmentering: hvordan balansere et datasett
- Generalisering av resultater fra et nevrale nettverk.
- Initialisering og regulering av et nevrale nettverk: L1 / L2-regulering, batch-normalisering
- Optimerings- og konvergensalgoritmer
Standard ML/DL-verktøy
En enkel presentasjon med fordeler, ulemper, posisjon i økosystemet og bruk er planlagt.
- Dataforvaltningsverktøy: Apache Spark, Apache Hadoop-verktøy
- Maskinlæring: Numpy, Scipy, Sci-kit
- DL høynivårammer: PyTorch, Keras, Lasagne
- Lavnivå DL-rammer: Theano, Torch, Caffe, TensorFlow
Konvolusjonelle nevrale nettverk (CNN).
- Presentasjon av CNNer: grunnleggende prinsipper og anvendelser
- Grunnleggende drift av en CNN: konvolusjonsslag, bruk av et kerne,
- Padding & stride, generering av egenkart, poolingslag. Utvidelser 1D, 2D og 3D.
- Presentasjon av de ulike CNN-arkitektur som har sett standarden for klassifisering
- Bilder: LeNet, VGG Networks, Network in Network, Inception, Resnet. Presentasjon av innovasjoner fra hver arkitektur og deres mer generelle anvendelser (konvolusjon 1x1 eller residualforbindelser)
- Bruk av en oppmerksomhetsmodell.
- Anvendelse på et vanlig klassifiseringsfall (tekst eller bilde)
- CNNer for generering: superoppløsning, pixel-til-pixel-segmentering. Presentasjon av
- Hovedstrategier for økende egenkart for bildegenerering.
Gjentakende nevrale nettverk (RNN).
- Presentasjon av RNNer: grunnleggende prinsipper og anvendelser.
- Grunnleggende drift av RNN: skjult aktivering, bakoverpropagasjon gjennom tid, utfoldet versjon.
- Utvikling mot Gated Recurrent Units (GRUs) og LSTM (Long Short Term Memory).
- Presentasjon av de ulike tilstandene og utviklingen båret av disse arkitektur
- Konvergens- og forsvinnende gradientproblemer
- Klassiske arkitekturer: prediksjon av en tidsrekke, klassifisering ...
- RNN-arkitektur med encoder-decoder. Bruk av en oppmerksomhetsmodell.
- NLP-anvendelser: ord-/tegnkodning, oversettelse.
- Videoanvendelser: prediksjon av det neste genererte bilde i en videosekvens.
Genererende modeller: Variational AutoEncoder (VAE) og Generative Adversarial Networks (GAN).
- Presentasjon av genererende modeller, kobling med CNNer
- Auto-encoder: dimensjonsreduksjon og begrenset generering
- Variational Auto-encoder: genererende modell og tilnærming av fordelingen til et gitt. Definisjon og bruk av latenrom. Reparameteriseringstrik. Anvendelser og observerte begrensninger
- Generative Adversarial Networks: grunnleggende prinsipper.
- Dualnettarkitektur (Generator og diskriminatoren) med alternativ læring, tilgjengelige kostfunksjoner.
- Konvergens av en GAN og vanskeligheter som oppstår.
- Forbedret konvergens: Wasserstein GAN, Began. Jordsforskyvningavstand.
- Anvendelser for generering av bilder eller fotografier, tekstgenerering, superoppløsning.
Dyp forsterkningslæring.
- Presentasjon av forsterkningslæring: kontroll av en agent i et definert miljø
- Av en tilstand og mulige handlinger
- Bruk av et nevrale nettverk for å tilnærme tilstandsfunksjonen
- Dyp Q-læring: erfaringsspesifikk gjenbruk, og anvendelse på kontroll av et spill.
- Optimering av læringstrategi. On-policy && off-policy. Actor critic-arkitektur. A3C.
- Anvendelser: kontroll av et enkelt spill eller et digitalt system.
Del 2 – Theano for Dyp Læring
Theano-grundlag
- Innføring
- Installasjon og konfigurasjon
TheanoFunksjoner
- inndata, utdata, oppdateringer, givens
Trening og optimering av et nevrale nettverk ved hjelp av Theano
- Nevralenettsmodellering
- Logistisk regresjon
- Skjulte lag
- Trening av et nettverk
- Beregning og klassifisering
- Optimering
- Logistisk tap
Testing av modellen
Del 3 – DNN ved hjelp av TensorFlow
TensorFlow-grundlag
- Opprettelse, initialisering, lagring og gjenoppretting av TensorFlow-variabler
- Føding, lesing og forhåndsindlasting av TensorFlow-data
- Hvordan bruke TensorFlow-infrastrukturen til å trene modeller på skala
- Visualisering og evaluering av modeller med TensorBoard
TensorFlow-mekanismer
- Forbered dataene
- Last ned
- Inndata og plassholdere
-
Bygg grafene
- Inferens
- Tap
- Trening
-
Trene modellen
- Grafen
- Sessjonen
- Treningssløyfe
-
Evaluere modellen
- Bygg evaluaionsgrafen
- Evalueringsutdata
Perceptron
- Aktiveringsfunksjoner
- Perceptronalgoritmen
- Binær klassifisering med perceptron
- Dokumentklassifisering med perceptron
- Begrensende faktorer ved perceptron
Fra Perceptron til Support Vector Machines
- Kjerner og kjernetriket
- Maksimal margin klassifisering og støttevektorer
Kunstige nevrale nettverk
- Ikke-lineære beslutningsgrenser
- Fremover- og tilbakeknytnings kunstige nevrale nettverk
- Multilags perceptroner
- Minimering av kostfunksjonen
- Fremoverpropagasjon
- Bakoverpropagasjon
- Forbedring av hvordan nevrale nettverk lærer
Konvolusjonelle nevrale nettverk
- Mål
- Modellarkitektur
- Prinsipper
- Kodeorganisering
- Kjøring og trening av modellen
- Evaluering av en modell
Grundleggende introduksjoner til de nedenfor nevnte modulene (Kort introduksjon basert på tilgjengelig tid):
TensorFlow - Avansert bruk
- Tråding og køer
- Distribuert TensorFlow
- Skrive dokumentasjon og dele modellen din
- Tilpasse datalesere
- Manipulering av TensorFlow-modelfiler
TensorFlow Serving
- Innføring
- Enkel serveringstutorial
- Avansert serveringstutorial
- Servering av Inception-modelltutorial
Krav
Bakgrunn i fysikk, matematikk og programmering. Involvering i bildebehandling-aktiviteter.
Deltakerne bør ha en forhåndsforståelse av maskinlæringskonsepter og bør ha arbeidet med Python-programmering og biblioteker.
Referanser (5)
Hunter er utmærket, veldig engasjerende, ekstremt kunnskapsrik og vennlig. Veldig godt gjort.
Rick Johnson - Laramie County Community College
Kurs - Artificial Intelligence (AI) Overview
Maskinoversatt
Instruktøren forklarte innholdet godt og var engasjerende gjennomgående. Han stoppa for å stille spørsmål og la oss finne våre egne løsninger i noen praktiske øvelser. Han tilpasset også kurset vel etter våre behov.
Robert Baker
Kurs - Deep Learning with TensorFlow 2.0
Maskinoversatt
Tomasz kjenner informasjonen godt, og kursene var vel organisert.
Raju Krishnamurthy - Google
Kurs - TensorFlow Extended (TFX)
Maskinoversatt
Organisasjonen, som følger det foreslåtte dagsordenen, instruktørens vaste kunnskap om dette emnet
Ali Kattan - TWPI
Kurs - Natural Language Processing with TensorFlow
Maskinoversatt
Very updated approach or CPI (tensor flow, era, learn) to do machine learning.
Paul Lee
Kurs - TensorFlow for Image Recognition
Maskinoversatt