Kursplan

Grunnleggende for hybrid AI-distribusjon

  • Forståelse av hybride, sky- og kantdistribusjonsmodeller
  • Karakteristikk for AI-arbeidsflyter og infrastrukturkrevender
  • Valg av riktig distribusjonstopologi

Containerisering av AI-arbeidsflyter med Docker

  • Bygging av GPU- og CPU-inferenscontainerer
  • Administrasjon av sikre bilder og register
  • Implementering av gjentakelige miljøer for AI

Distribusjon av AI-tjenester til sky-miljøer

  • Kjøring av inferens på AWS, Azure og GCP via Docker
  • Provisionering av sky-beregning for modellservering
  • Sikring av skybaserte AI-sluttpunkter

Kant- og on-prem distribusjonsteknikker

  • Kjøring av AI på IoT-enheter, gateways og mikroservere
  • Lettvekte kjøringsmiljøer for kantmiljøer
  • Administrasjon av intermittente forbindelser og lokal persistens

Hybrid nettverk og sikker forbindelse

  • Sikker tunnling mellom kant og sky
  • Sertifikater, hemmeligheter og tokenbasert tilgang
  • Ytelsesoptimalisering for lav inferensforførselstid

Orchestrasjon av distribuerte AI-distribusjoner

  • Bruk av K3s, K8s eller lettvekte orchestrasjon for hybridoppsett
  • Tjenestefinnelse og arbeidsflytplanlegging
  • Automatisering av flerlokasjonspubliseringstrategier

Overvåking og observabilitet over miljøer

  • Sporing av inferensytelse over lokasjoner
  • Sentralisert logging for hybrid AI-systemer
  • Feiloppdaging og automatisert gjenopptatering

Skalering og optimalisering av hybrid AI-systemer

  • Skalering av kantkluster og sky-noder
  • Optimalisering av båndbreddebruk og caching
  • Balansering av beregningslast mellom sky og kant

Sammendrag og neste trinn

Krav

  • Forståelse av containeriseringkonsepter
  • Erfaring med Linux kommandolinjeoperasjoner
  • Familiaritet med AI-modelldeployarbeidsflyter

Målgruppe

  • Infrastrukturarkitekter
  • Site Reliability Engineers (SREs)
  • Kante og IoT-utviklere
 21 timer

Antall deltakere


Pris per deltaker

Referanser (5)

Kommende kurs

Relaterte kategorier