Kursplan

Introduksjon til GPU-akselerert containerisering

  • Forståelse av GPU-bruk i dyp læring-arbeidsflytter
  • Hvordan Docker støtter GPU-baserte arbeidsbelastninger
  • Hoved ytelsesvurderinger

Installasjon og konfigurasjon av NVIDIA Container Toolkit

  • Oppsett av drivere og CUDA-kompatibilitet
  • Validering av GPU-tilgang inne i containere
  • Konfigurering av kjørelandområdet

Bygge GPU-aktive Docker-avbildninger

  • Bruk av CUDA-grunnleggende avbildninger
  • Pakking AI-rammer i GPU-klar containere
  • Håndtering av avhengigheter for trening og inferens

Kjøre GPU-akselererte AI-arbeidsbelastninger

  • Eksekvering av treningsjobber ved hjelp av GPUs
  • Håndtering av multi-GPU-arbeidsbelastninger
  • Overvåking av GPU-bruk

Optimalisering av ytelse og ressursallokering

  • Begrense og isolere GPU-ressurser
  • Optimalisere minne, batchstørrelser og enhetsplassering
  • Ytelseoptimalisering og diagnostikk

Containerisert inferens og modellservering

  • Bygge inferensklare containere
  • Servere høy last arbeidsbelastninger på GPUs
  • Integrering av modellkjørere og APIer

Skalering av GPU-arbeidsbelastninger med Docker

  • Strategier for distribuert GPU-trening
  • Skalering av inferens-mikrotjenester
  • Koordinere multi-container AI-systemer

Sikkerhet og pålitelighet for GPU-aktive containere

  • Sikre trygg GPU-tilgang i deltakermiljøer
  • Forstærke containeravbildninger
  • Håndtering av oppdateringer, versjoner og kompatibilitet

Oppsummering og neste trinn

Krav

  • Et forståelse av grunnleggende prinsipper i dyp læring
  • Erfaring med Python og vanlige AI-rammer
  • Kjennskap til grunnleggende containerisering-konsepter

Målgruppe

  • Dyp læring-ingeniører
  • Forskning og utviklingsteam
  • AI-modelltrener
 21 timer

Antall deltakere


Pris per deltaker

Referanser (5)

Kommende kurs

Relaterte kategorier