Kursplan

Introduksjon til AI Inferens med Docker

  • Forståelse av AI-inferens-arbeidsbyrder
  • Fordeler ved containertisert inferens
  • Distribusjonsscenarier og begrensninger

Bygging av AI Inferens-containere

  • Valg av basebilder og rammer
  • Pakkning av foruttrente modeller
  • Strukturering av inferenskode for containervis kjøring

Sikring av Containertiserte AI-tjenester

  • Minimering av angrepsflate for containere
  • Administrasjon av hemmeligheter og følsomme filer
  • Sikre nettverks- og API-eksponeringstaktikker

Portabelle Distribusjonsteknikker

  • Optimalisering av bilder for portabilitet
  • Sikring av forutsigbare kjøretidsmiljøer
  • Administrasjon av avhengigheter over plattformer

Lokal Distribusjon og Testing

  • Kjøring av tjenester lokalt med Docker
  • Feilsøking av inferens-containere
  • Testing av ytelse og pålitelighet

Distribusjon på Servere og Sky VMer

  • Tilpasning av containere for fjerne miljøer
  • Konfigurering av sikker serveradgang
  • Distribusjon av inferens-APIer på sky VMer

Bruk av Docker Compose for Multi-Tjeneste AI-systemer

  • Orkestrering av inferens med støttemoduler
  • Administrasjon av miljøvariabler og konfigurasjoner
  • Skaling av mikrotjenester med Compose

Overvåking og Vedlikehold av AI Inferens-tjenester

  • Logging- og observasjonsmetoder
  • Detektering av feil i inferens-pipliner
  • Oppdatering og versjonering av modeller i produksjon

Oppsummering og Neste Trinn

Krav

  • Forståelse av grunnleggende maskinlæringskonsepter
  • Erfaring med Python eller backend-utvikling
  • Kjennskap til grunnleggende containertiseringskonsepter

Målgruppe

  • Utviklere
  • Backend-ingeniører
  • Team som distribuerer AI-tjenester
 14 timer

Antall deltakere


Pris per deltaker

Referanser (5)

Kommende kurs

Relaterte kategorier