Kursplan

Introduksjon til Parameter-Effektiv Fintuning (PEFT)

  • Motivasjon og begrensninger ved full fintuning
  • Oversikt over PEFT: mål og fordeler
  • Anvendelser og brukstilfeller i industrien

LoRA (Low-Rank Adaptation)

  • Konsept og intuisjon bak LoRA
  • Implementering av LoRA ved hjelp av Hugging Face og PyTorch
  • Hånds-på: Fintuning av en modell med LoRA

Adapter Tuning

  • Hvordan adaptermoduler fungerer
  • Integrering med transformerbaserte modeller
  • Hånds-på: Anvendelse av Adapter Tuning på en transformer-modell

Prefix Tuning

  • Bruk av myke prompts for fintuning
  • Styrker og begrensninger i sammenligning med LoRA og adaptere
  • Hånds-på: Prefix Tuning på en LLM-oppgave

Vurdering og Sammenligning av PEFT-Metoder

  • Metrikker for vurdering av ytelse og effektivitet
  • Kompromisser mellom treningstid, minnebruk og nøyaktighet
  • Benchmarks og tolkning av resultater

Deploying av Fintuned Modeller

  • Lagring og lasting av fintuned modeller
  • Overveielser ved deployering av PEFT-baserte modeller
  • Integrering i applikasjoner og pipelines

Beste Praksis og Utvidelser

  • Kombinering av PEFT med kvantisering og destillasjon
  • Bruk i lavresurs- og flerspråklige innstillinger
  • Fremtidige retninger og aktive forskningsområder

Oppsummering og Neste Skritt

Krav

  • En forståelse av grunnleggende prinsipper innen maskinlæring
  • Erfaring med å arbeide med store språkmodeller (LLMs)
  • Kjennskap til Python og PyTorch

Målgruppe

  • Datavitere
  • AI-ingeniører
 14 timer

Antall deltakere


Pris per deltaker

Kommende kurs

Relaterte kategorier