Kursplan

Introduksjon til Parameter-Effektiv Fintuning (PEFT)

  • Motivasjon og begrensninger ved full fintuning
  • Oversikt over PEFT: mål og fordeler
  • Anvendelser og brukstilfeller i industrien

LoRA (Low-Rank Adaptation)

  • Konsept og intuisjon bak LoRA
  • Implementering av LoRA ved hjelp av Hugging Face og PyTorch
  • Hånds-på: Fintuning av en modell med LoRA

Adapter Tuning

  • Hvordan adaptermoduler fungerer
  • Integrering med transformerbaserte modeller
  • Hånds-på: Anvendelse av Adapter Tuning på en transformer-modell

Prefix Tuning

  • Bruk av myke prompts for fintuning
  • Styrker og begrensninger i sammenligning med LoRA og adaptere
  • Hånds-på: Prefix Tuning på en LLM-oppgave

Vurdering og Sammenligning av PEFT-Metoder

  • Metrikker for vurdering av ytelse og effektivitet
  • Kompromisser mellom treningstid, minnebruk og nøyaktighet
  • Benchmarks og tolkning av resultater

Deploying av Fintuned Modeller

  • Lagring og lasting av fintuned modeller
  • Overveielser ved deployering av PEFT-baserte modeller
  • Integrering i applikasjoner og pipelines

Beste Praksis og Utvidelser

  • Kombinering av PEFT med kvantisering og destillasjon
  • Bruk i lavresurs- og flerspråklige innstillinger
  • Fremtidige retninger og aktive forskningsområder

Oppsummering og Neste Skritt

Krav

- En forståelse av grunnleggende maskinlæring- Erfaring med å arbeide med store språkmodeller (LLMs)- Kjennskap med Python og PyTorchAudience- Datavitere- AI-ingeniører
 14 timer

Antall deltakere


Price per participant

Upcoming Courses

Related Categories