Kursplan

Introduksjon og diagnostiske grunnleggende prinsipper

  • Oversikt over feilmåter i LLM-systemer og vanlige Ollama-spesifikke problemer
  • Etablering av gjentagelige eksperimenter og kontrollerte miljøer
  • Felsøkingverktøy: lokale logger, request/response-fanger, og sandboxing

Gjenoppretting og isolering av feil

  • Teknikker for å opprette minimale feileksempler og seeds
  • Stateful vs stateless interaksjoner: isolering av kontekstrelaterte feil
  • Determinisme, tilfeldighet, og kontroll av ikke-deterministisk atferd

Atferdsvurdering og metrikker

  • Kvantitative metrikker: nøyaktighet, ROUGE/BLEU-varianter, kalibrering, og perplexity-proksier
  • Kvalitative vurderinger: human-in-the-loop-scoring og rubrikkdesign
  • Oppgavespesifikke troverdighetskontroller og akseptkriterier

Automatisert testing og regressjon

  • Enhetstester for prompts og komponenter, scenarier og ende-til-ende-tester
  • Oppretting av regressjonssuiter og gyldige eksempelbaser
  • CI/CD-integrasjon for Ollama-modelloppdateringer og automatiserte valideringsporter

Observabilitet og overvåking

  • Strukturert logging, fordelte spor, og korrelasjons-IDer
  • Nøkkeloperasjonelle metrikker: latens, tokenbruk, feilratene, og kvalitetssignaler
  • Varsling, dashbord, og SLIs/SLOs for modellbaserte tjenester

Avansert feilkildediagnose

  • Sporing gjennom grafprompts, verktøykall, og multi-turn-fløyer
  • Sammenlignende A/B-diagnose og ablationsstudier
  • Dataprovensjon, datasettfelsøking, og håndtering av datasettinduserte feil

Sikkerhet, robusthet og retningslinjer for avhjelp

  • Reduseringer: filtrering, grounding, retningsaugmentering, og prompt-scaffolding
  • Tilbakestillings-, canary- og faset innføringsmønster for modelloppdateringer
  • Post-mortem, lærte leksjoner, og kontinuerlige forbedringsløkker

Oppsummering og neste steg

Krav

  • Stor erfaring med å bygge og distribuere LLM-applikasjoner
  • Kjennskap med Ollama-workflows og modellhosting
  • Komfortabel med Python, Docker og grunnleggende observabilitetsverktøy

Målgruppe

  • AI-ingeniører
  • ML Ops-profesjonelle
  • QA-team ansvarlige for produktionssystemer for LLM
 35 timer

Antall deltakere


Pris per deltaker

Kommende kurs

Relaterte kategorier