Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Kursplan
Introduksjon til Fine-Tuning av DeepSeek LLM
- Oversikt over DeepSeek-modeller, f.eks. DeepSeek-R1 og DeepSeek-V3
- Forstå behovet for fine-tuning av LLMs
- Sammenligning av fine-tuning vs. prompt engineering
Forberedelse av Datamengden for Fine-Tuning
- Sammensetning av domene-spesifikke datamengder
- Teknikker for datapreprosessering og rensing
- Tokenisering og formatering av datamengder for DeepSeek LLM
Oppsetting av Fine-Tuning Miljø
- Konfigurasjon av GPU og TPU-akselerasjon
- Oppsetting av Hugging Face Transformers med DeepSeek LLM
- Forståelse av hyperparametere for fine-tuning
Fine-Tuning av DeepSeek LLM
- Implementering av overvåket fine-tuning
- Bruk av LoRA (Low-Rank Adaptation) og PEFT (Parameter-Efficient Fine-Tuning)
- Kjøring av fordelt fine-tuning for store datamengder
Vurdering og Optimalisering av Fine-Tuned Modeller
- Vurdering av modellytelse med evalueringsmetrikker
- Håndtering av overtilpasning og undertilpasning
- Optimalisering av inferenshastighet og modelleffektivitet
Distribuering av Fine-Tuned DeepSeek Modeller
- Pakking av modeller for API-distribuering
- Integrering av fine-tuned modeller i applikasjoner
- Skalering av distribueringer med sky- og kantkomputing
Reelle Bruksområder og Applikasjoner
- Fine-tuned LLMs for finans, helsevesen og kundestøtte
- Case-studier av bransjeapplikasjoner
- Etiske overveielser i domene-spesifikke AI-modeller
Oppsummering og Neste Skritt
Krav
- Erfaring med maskinlærings- og dyplæringsrammeverk
- Kjennskap til transformatorer og store språkmodeller (LLMs)
- Forståelse av dataforbehandling og modelltreningsteknikker
Målgruppe
- AI-forskere som utforsker finjustering av LLMs
- Maskinlæringsingeniører som utvikler egendefinerte AI-modeller
- Avanserte utviklere som implementerer AI-drevne løsninger
21 timer