Kursplan

Introduksjon til Fine-Tuning av DeepSeek LLM

  • Oversikt over DeepSeek-modeller, f.eks. DeepSeek-R1 og DeepSeek-V3
  • Forstå behovet for fine-tuning av LLMs
  • Sammenligning av fine-tuning vs. prompt engineering

Forberedelse av Datamengden for Fine-Tuning

  • Sammensetning av domene-spesifikke datamengder
  • Teknikker for datapreprosessering og rensing
  • Tokenisering og formatering av datamengder for DeepSeek LLM

Oppsetting av Fine-Tuning Miljø

  • Konfigurasjon av GPU og TPU-akselerasjon
  • Oppsetting av Hugging Face Transformers med DeepSeek LLM
  • Forståelse av hyperparametere for fine-tuning

Fine-Tuning av DeepSeek LLM

  • Implementering av overvåket fine-tuning
  • Bruk av LoRA (Low-Rank Adaptation) og PEFT (Parameter-Efficient Fine-Tuning)
  • Kjøring av fordelt fine-tuning for store datamengder

Vurdering og Optimalisering av Fine-Tuned Modeller

  • Vurdering av modellytelse med evalueringsmetrikker
  • Håndtering av overtilpasning og undertilpasning
  • Optimalisering av inferenshastighet og modelleffektivitet

Distribuering av Fine-Tuned DeepSeek Modeller

  • Pakking av modeller for API-distribuering
  • Integrering av fine-tuned modeller i applikasjoner
  • Skalering av distribueringer med sky- og kantkomputing

Reelle Bruksområder og Applikasjoner

  • Fine-tuned LLMs for finans, helsevesen og kundestøtte
  • Case-studier av bransjeapplikasjoner
  • Etiske overveielser i domene-spesifikke AI-modeller

Oppsummering og Neste Skritt

Krav

  • Erfaring med maskinlærings- og dyplæringsrammeverk
  • Kjennskap til transformatorer og store språkmodeller (LLMs)
  • Forståelse av dataforbehandling og modelltreningsteknikker

Målgruppe

  • AI-forskere som utforsker finjustering av LLMs
  • Maskinlæringsingeniører som utvikler egendefinerte AI-modeller
  • Avanserte utviklere som implementerer AI-drevne løsninger
 21 timer

Antall deltakere


Price per participant

Upcoming Courses

Related Categories