Kursplan

Introduksjon til åpne kildekode LLM'er

  • Hva er åpenvektmodeller og hvorfor de er viktige
  • Oversikt over LLaMA, Mistral, Qwen, og andre fellesmodeller
  • Bruksområder for private, on-premise eller sikre implementeringer

Oppsett av miljø og verktøy

  • Installasjon og konfigurasjon av Transformers, Datasets, og PEFT-biblioteker
  • Valg av egnet maskinvare for finjustering
  • Lasting av fortrente modeller fra Hugging Face eller andre repositorier

Datapreparasjon og -forbehandling

  • Datasettformater (instruksjonsjustering, chat-data, bare tekst)
  • Tokenisering og sekvenshåndtering
  • Opprettelse av egendefinerte datasett og datalastere

Fine-Tuning teknikker

  • Standard full finjustering vs. parameter-effektive metoder
  • Bruk av LoRA og QLoRA for effektiv finjustering
  • Bruk av Trainer API for rask eksperimentering

Modellevaluering og -optimalisering

  • Vurdering av finjusterte modeller med generasjons- og nøyaktighetsmålinger
  • Håndtering av overjustering, generalisering, og valideringssett
  • Tips for ytelsesjustering og logging

Implementering og privat bruk

  • Lagring og lasting av modeller for inferens
  • Implementering av finjusterte modeller i sikre bedriftsmiljøer
  • Strategier for on-premise vs. skyimplementering

Tilfeller og Use Caseer

  • Eksempler på bedriftsbruk av LLaMA, Mistral, og Qwen
  • Håndtering av multilingual og domene-spesifikk finjustering
  • Diskusjon: Kompromisser mellom åpne og lukkede modeller

Oppsummering og neste steg

Krav

  • En forståelse av store språkmodeller (LLMs) og deres arkitektur
  • Erfaring med Python og PyTorch
  • Grundleggende kjennskap til Hugging Face økosystemet

Målgruppe

  • ML-praktikere
  • AI-utviklere
 14 timer

Antall deltakere


Price per participant

Upcoming Courses

Related Categories