Kursplan
Modul 1: Kjernepyton for ML-arbeidsflyt
• Kursstart og miljøoppsett
Juster mål og sett opp et gjentakelig Python ML-arbeidsmiljø
• Python-språkets grunnleggende elementer (hastekurs)
Gjennomgang av syntaks, kontrollstrøm, funksjoner og mønstre som ofte brukes i ML-kodebasarer
• Datastrukturer for ML
Lister, ordbøker, mengder og tupler for funn, etiketter og metadata
• Forståelser og funksjonelle verktøy
Uttrykk for transformasjoner ved hjelp av forståelser og høyereordensfunksjoner
• Objektorientert Python for ML-utviklere
Klasser, metoder, sammensetning og praktiske designbeslutninger
• dataclasses og lettvektige modellering
Typpensomfunn for konfigurasjon, eksempler og resultater
• Decorators og kontekstbehandlere
Timing, caching, logging og ressurs-sikre utførelsesmønstre
• Arbeid med filer og stier
Robust håndtering av datasett og serialiseringsformater
• Unntak og forsvarlig programmering
Skriving av ML-skript som feiler på en sikker og transparent måte
• Moduler, pakker og prosjektstruktur
Organisering av gjentagbare ML-kodebasarer
• Typing og kodekvalitet
Typeanvisninger, dokumentasjon og lint-vennlig struktur
Modul 2: Numerisk Python, SciPy og Datahåndtering
• NumPy-grunnlag for vektorisert beregning
Effektive array-operasjoner og yteevnsvetnlig programmering
• Indeksering, slicing, broadcasting og former
Sikker tensormanipulasjon og formforståelse
• Lineær algebra grunnleggende med NumPy og SciPy
Stabile matriseoperasjoner og nedbrytninger som brukes i ML
• SciPy dykkdypping
Statistikk, optimering, kurvefitting og sparske matriser
• Pandas for tabulær ML-data
Reiniging, sammenslåing, aggregering og forberedelse av datasett
• scikit-learn dykkdypping
Estimatørgr grensesnitt, pipelines og gjentakelige arbeidsflyter
• Visualiseringsgrunnleggende
Diagnostiske plott for datautforskning og modelladferd
Modul 3: Programmeringsmønstre for å bygge ML-applikasjoner
• Fra notatbok til vedlikeholdbart prosjekt
Refaktorering av utforskende kode til strukturerte pakker
• Konfigurasjonsstyring
Eksterne parametere og oppstartsvalidering
• Logging, advarsler og observabilitet
Strukturert logging for feilsøkbar ML-systemer
• Gjentagelige komponenter med OOP og sammensetning
Design av utvidelige transformerere og predikterere
• Praktiske designmønstre
Pipeline, Factory eller Registry, Strategy og Adapter mønstre
• Datavalidering og skjemacheck
Forhindring av stille datafeil
• Yteevne og profilering
Identifisering av knasflekker og anvendelse av optimaliseringsmetoder
• Modell I/O og inferensgr grensesnitt
Sikker persistering og ryddige prediksjonsgr grensesnitt
• End-to-end minibygging
Produktionsstil ML-pipeline med konfigurasjon og logging
Modul 4: Statistisk læring for tabulær, tekst og bilde
• Evalueringgr unnlagsforhold
Trening og validasjonsdelinger, ærlig kryssvalidering og business-alignerte mål
• Avansert tabulær ML
Regulariserte GLMs, treensembler og leak-proof preprocessing
• Kalibrering og usikkerhet
Platt kalibrering, isotropisk regresjon, bootstrap og konform prediksjon
• Klassiske NLP-metoder
Tokeniseringstradeoffs, TF-IDF, lineære modeller og Naive Bayes
• Temamodellering
LDA-fundament og praktiske begrensninger
• Klassisk bildeanalyse
HOG, PCA og funksjonsbaserte arbeidsflyter
• Feilanalyse
Biasdeteksjon, etikettbrus og tilfeldige korrelasjoner
• Praktiske laboratorier
Leak-proof tabulær pipeline
Tekstbaseline-sammenligning og -tolkning
Klassisk visjon-baseline med strukturert feilanalyse
Modul 5: Neurale nettverk for tabulær, tekst og bilde
• Treningssløkkemesteri
Rye PyTorch-sløkker med AMP, klippning og gjentakelighet
• Optimering og regulering
Initialisering, normalisering, optimerere og planleggere
• Blandet nøyaktighet og skaling
Gradientakkyumulering og checkpoint-strategier
• Tabulære neurale nettverk
Kategoriske embeddings, funksjonstversjoner og ablationsstudier
• Tekstneurale nettverk
Embeddings, CNNs, BiLSTM eller GRU og sekvenshåndtering
• Bilde-neurale nettverk
CNN-fundament og ResNet-stil arkitekturer
• Praktiske laboratorier
Gjentagelig treningstilbakemeldingsramme
Tabulær NN vs. boosting-sammenligning
CNN med augmentering og planleggingseksperimenter
Modul 6: Avanserte neurale arkitekturer
• Overføringslæringsstrategier
Freeze og unfreeze mønstre, diskriminative læringsrater
• Transformerarkitekturer for tekst
Selv-oppmerksomhet interne og fine-tuning-tilnærminger
• Bildebakker og tett prediksjon
ResNet, EfficientNet, Vision Transformers og U-Net konsepter
• Avanserte tabulære arkitekturer
TabTransformer, FT-Transformer og Deep and Cross-nettverk
• Tidsserierovervegelser
Tidstempels delinger og kovariatshift-deteksjon
• PEFT og effektivitetsmetoder
LoRA, distillasjon og kvantiseringstradeoffs
• Praktiske laboratorier
Fine-tuning av forhåndsopplærte teksttransformere
Fine-tuning av forhåndsopplærte bildebaserede modeller
Tabulær transformer vs. GBDT-sammenligning
Modul 7: Generative AI-systemer
• Promptinggr unnlagsforhold
Strukturert prompting og kontrollert generering
• LLM-gr unnlagsforhold
Tokenisering, instruksjonstilpasning og hallucinasjonsmindring
• Retrieval-Augmented Generation
Chunking, embeddings, hybrid søk og evalueringsmetrikker
• Fine-tuningstrategier
LoRA og QLoRA med datakvalitetskontroller
• Diffusjonsmodeller
Latent diffusjon intuitjon og praktisk tilpasning
• Syntetisk tabulær data
CTGAN og privatlivshensyn
• Praktiske laboratorier
Produktionsstil RAG minianvendelse
Strukturert utdatavalidering med skjemapåføring
Valgfri diffusjonsexperimentering
Modul 8: AI-agenter og MCP
• Agent-loopsdesign
Observer, planlegg, handle, reflekter og persist
• Agentarkitekturer
ReAct, plan-og-utføring og fleragentkoordinering
• Hukommelsesstyring
Episodisk, semantisk og scratchpad-tilnærminger
• Verktøyintegrasjon og sikkerhet
Verktøyskontrakter, sandboxing og promptinjeksjonsforsvar
• Evalueringrammer
Gjentakelige spor, oppgavesuites og regresjonstesting
• MCP og protokollbasert interoperabilitet
Design av MCP-servere med sikre verktøyeksponering
• Praktiske laboratorier
Bygg en agent fra bunnen av
Eksponer verktøy via MCP-stil server
Opprett evalueringshjelm med sikkerhetsbegrensninger
Krav
Deltakerne bør ha praktisk kunnskap om Python-programmering.
Dette programmet er ment for mellem- og avanserte tekniske profesjonelle.
Referanser (2)
ML-økosystemet omfatter ikke bare MLFlow, men også Optuna, Hyperopt, Docker og Docker Compose
Guillaume GAUTIER - OLEA MEDICAL
Kurs - MLflow
Maskinoversatt
Jeg nyttet på å delta i Kubeflow-treningen, som ble holdt pa nätet. Denne treningen gjorde det mulig for meg å fest igjen kunnskapen min om AWS-tjenester, K8s og alle devOps-verktøyene rundt Kubeflow, som er de nødvendige grunnlagene for å tilnærme seg emnet på riktig måte. Jeg ønsker å takke Malawski Marcin for hans tålmodighet og profesjonale innstilling når det gjelder trening og råd om beste praksis. Malawski tilnærmer seg emnet fra ulike vinkler, med ulike distribusjonsverktøy som Ansible, EKS kubectl, Terraform. Nå er jeg helt overbevist om at jeg går inn i det riktige anvendelsesfeltet.
Guillaume Gautier - OLEA MEDICAL | Improved diagnosis for life TM
Kurs - Kubeflow
Maskinoversatt