Kursplan

Introduksjon til GPU-akselerert containerisering

  • Forståelse av GPU-bruk i dyp læring arbeidsflytter
  • Hvordan Docker støtter GPU-baserte arbeidsbelastninger
  • Nyansatte ytelsesovervegheter

Installasjon og konfigurasjon av NVIDIA Container Toolkit

  • Oppsett av drivere og CUDA-kompatibilitet
  • Validering av GPU-tilgang inne i kontainer
  • Konfigurasjon av kjøretidsmiljø

Bygge GPU-aktiverede Docker-bilder

  • Bruk av CUDA-grunnbilder
  • Pakking AI-rammeverk i GPU-klar kontainer
  • Administrasjon av avhengigheter for trening og inferens

Kjøre GPU-akselererte AI-arbeidsbelastninger

  • Eksekvere treningstjenester ved hjelp av GPUs
  • Administrere multi-GPU arbeidsbelastninger
  • Overvåke GPU-bruk

Optimalisering av ytelse og ressursallokering

  • Begrense og isolere GPU-ressurser
  • Optimalisere minne, batchstørrelser og enhetsplassering
  • Ytelsesoptimalisering og diagnosering

Containerisert inferens og modelllevering

  • Bygge inferensklare kontainer
  • Levering av høybelasted arbeidsbelastninger på GPUs
  • Integrere modellkjørere og APIer

Skalering av GPU-arbeidsbelastninger med Docker

  • Strategier for distribuert GPU-trening
  • Skalere inferens-mikrotjenester
  • Koordinering av multi-kontainer AI-systemer

Sikkerhet og pålitelighet for GPU-aktiverede kontainer

  • Sikre trygg GPU-tilgang i delt miljø
  • Styrke containerbilder
  • Administrere oppdateringer, versjoner og kompatibilitet

Oppsummering og neste trinn

Krav

  • En forståelse av grunnleggende konsepter i dyp læring
  • Erfaring med Python og vanlige AI-rammeverk
  • Familiaritet med grunnleggende containeriseringkonsepter

Målgruppe

  • Dyp læring ingeniører
  • Forskning og utviklingsteam
  • AI-modell trener
 21 Timer

Antall deltakere


Pris per deltaker

Referanser (5)

Kommende kurs

Relaterte kategorier