Fine-Tuning Lettvektsmodeller for Edge AI Deployering Treningskurs
Model finjustering er prosessen med å tilpasse forhåndstrente modeller til spesifikke oppgaver eller miljøer.
Denne instruktørledede, live-utdanningen (online eller på stedet) er rettet mot mellomnivå-utviklere av innfelt AI og spesialister innen edge-computing som ønsker å finjustere og optimalisere lette AI-modeller for utplassering på ressursbegrensede enheter.
Ved slutten av denne utdanningen vil deltakerne være i stand til å:
- Velge og tilpasse forhåndstrente modeller som er egnet for edge-utplassering.
- Bruke kvantisering, beskjæring og andre komprimeringsmetoder for å redusere modellstørrelse og forsinkelse.
- Finjustere modeller ved hjelp av overføringslæring for oppgavespesifikk ytelse.
- Utplasser optimaliserte modeller på virkelige edge-hardwareplattformer.
Format på kurset
- Interaktiv forelesning og diskusjon.
- Mange øvelser og praktisk trening.
- Hånds-on implementering i en live-lab-miljø.
Tilpasningsmuligheter for kurset
- For å be om et tilpasset kurs, ta kontakt med oss for å avtale.
Kursplan
Innføring i Edge AI og modelloptimalisering
- Forståelse av edge computing og AI-laster
- Kompromisser: ytelse vs. ressursbegrensninger
- Oversikt over modelloptimaliseringsstrategier
Modellvalg og foruttrening
- Valg av lette modeller (f.eks., MobileNet, TinyML, SqueezeNet)
- Forståelse av modellarkitekturer egnet for edge-enheter
- Bruk av foruttrente modeller som basis
Fine-Tuning og overføringslæring
- Prinsipper for overføringslæring
- Tilpasning av modeller til egendefinerte datasett
- Praktiske finjusteringsskjemaløsninger
Modellkvantisering
- Kvantiseringsteknikker etter trening
- Kvantisjonsbevisst trening
- Vurdering og kompromisser
Modellbeskyttelse og komprimering
- Beskyttelsesstrategier (strukturerte vs. ustrukturerte)
- Komprimering og vektdeling
- Benchmarking av komprimerte modeller
Utplasseringsrammeverk og verktøy
- TensorFlow Lite, PyTorch Mobile, ONNX
- Kompatibilitet med edge-hardware og kjørerom
- Verktøy for tverrplattformutplassering
Hånds- på-utplasseringsprøving
- Utplassering til Raspberry Pi, Jetson Nano og mobilenheter
- Profilering og benchmarking
- Feilsøking av utplasseringssvikt
Oppsummering og neste trinn
Krav
- Forståelse av grunnleggende maskinlæringsprinsipper
- Erfaring med Python og dypelæringsrammeverk
- Kjennskap til innbydde systemer eller begrensninger ved kantenheter
Målgruppe
- Utviklere av innbygd AI
- Spesialister innen kantdatabehandling
- Maskinlæringsingeniører som fokuserer på kantdistribusjon
Åpne kurs krever 5+ deltakere.
Fine-Tuning Lettvektsmodeller for Edge AI Deployering Treningskurs - Bestilling
Fine-Tuning Lettvektsmodeller for Edge AI Deployering Treningskurs - Forespørsel
Fine-Tuning Lettvektsmodeller for Edge AI Deployering - Konsulentforespørsel
Konsulentforespørsel
Upcoming Courses
Relaterte kurs
Avanserte Teknikker i Transfer Learning
14 timerDenne instruktørledede, direkteopplæringen i Norge (online eller på stedet) er rettet mot maskinlæringsprofesjonelle på avansert nivå som ønsker å mestre banebrytende overføringslæringsteknikker og bruke dem på komplekse problemer i den virkelige verden.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå avanserte konsepter og metoder innen overføringslæring.
- Implementere domenespesifikke tilpasningsteknikker for forhåndstrente modeller.
- Bruk kontinuerlig læring for å administrere utviklende oppgaver og datasett.
- Mestre finjustering av flere oppgaver for å forbedre modellytelsen på tvers av oppgaver.
Deploying of Fine-Tuned Models in Production
21 timerDenne instruktørledede, live-opplæringen i Norge (online eller på stedet) er rettet mot profesjonelle på avansert nivå som ønsker å distribuere finjusterte modeller pålitelig og effektivt.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå utfordringene med å distribuere finjusterte modeller i produksjon.
- Containeriser og distribuer modeller ved hjelp av verktøy som Docker og Kubernetes.
- Implementer overvåking og logging for utplasserte modeller.
- Optimaliser modeller for ventetid og skalerbarhet i virkelige scenarier.
Domain-Specific Fine-Tuning for Finance
21 timerDenne instruktørledede, live-opplæringen i Norge (online eller på stedet) er rettet mot fagfolk på middels nivå som ønsker å få praktiske ferdigheter i å tilpasse AI-modeller for kritiske økonomiske oppgaver.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå det grunnleggende om finjustering for finansapplikasjoner.
- Utnytt forhåndstrente modeller for domenespesifikke oppgaver innen finans.
- Bruk teknikker for svindeloppdagelse, risikovurdering og generering av finansiell rådgivning.
- Sikre overholdelse av økonomiske forskrifter som GDPR og SOX.
- Implementere datasikkerhet og etisk AI-praksis i finansielle applikasjoner.
Fine-Tuning of Models and Large Language Models (LLMs)
14 timerDenne instruktørledede, live-opplæringen i Norge (online eller på stedet) er rettet mot fagfolk på middels til avansert nivå som ønsker å tilpasse forhåndstrente modeller for spesifikke oppgaver og datasett.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå prinsippene for finjustering og dens anvendelser.
- Forbered datasett for finjustering av forhåndstrente modeller.
- Finjuster store språkmodeller (LLM) for NLP-oppgaver.
- Optimaliser modellytelsen og ta tak i vanlige utfordringer.
Effektiv finjustering med lavrangstilpasning (LoRA)
14 timerDenne instruktørledede, live-opplæringen i Norge (online eller på stedet) er rettet mot utviklere på middels nivå og AI-utøvere som ønsker å implementere finjusteringsstrategier for store modeller uten behov for omfattende beregningsressurser.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå prinsippene for Low-Rank Adaptation (LoRA).
- Implementer LoRA for effektiv finjustering av store modeller.
- Optimaliser finjustering for miljøer med begrensede ressurser.
- Evaluer og distribuer LoRA-tunede modeller for praktiske bruksområder.
Finjustering av multimodale modeller
28 timerDenne instruktørledede, live-opplæringen i Norge (online eller på stedet) er rettet mot profesjonelle på avansert nivå som ønsker å mestre multimodal modellfinjustering for innovative AI-løsninger.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå arkitekturen til multimodale modeller som CLIP og Flamingo.
- Forbered og forhåndsbehandle multimodale datasett effektivt.
- Finjuster multimodale modeller for spesifikke oppgaver.
- Optimaliser modeller for virkelige applikasjoner og ytelse.
Finetuning for Natural Language Processing (NLP)
21 timerDenne instruktørledede, live-opplæringen i Norge (online eller på stedet) er rettet mot fagfolk på middels nivå som ønsker å forbedre NLP-prosjektene sine gjennom effektiv finjustering av ferdigtrente språkmodeller.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå det grunnleggende om finjustering for NLP-oppgaver.
- Finjuster forhåndstrente modeller som GPT, BERT og T5 for spesifikke NLP-applikasjoner.
- Optimaliser hyperparametre for forbedret modellytelse.
- Evaluer og distribuer finjusterte modeller i virkelige scenarier.
Finetuning av DeepSeek LLM for Egendefinerte AI-modeller
21 timerDenne instruktørledede, live treningen på Norge (online eller på stedet) er rettet mot forskere på avansert nivå innen kunstig intelligens, maskinlæringsingeniører og utviklere som ønsker å fine-tune DeepSeek LLM-modeller for å skape spesialiserte AI-applikasjoner tilpasset spesifikke bransjer, domener eller virksomhetsbehov.
Ved slutten av denne treningen vil deltakerne kunne:
- Forstå arkitekturen og evnene til DeepSeek-modellene, inkludert DeepSeek-R1 og DeepSeek-V3.
- Forberede datasett og forbehandle data for fine-tuning.
- Fine-tune DeepSeek LLM for domene-spesifikke applikasjoner.
- Optimalisere og distribuere fine-tuned modeller effektivt.
Fine-Tuning Store språkmodeller med QLoRA
14 timerDenne instruktørledede, live-opplæring i Norge (online eller på stedet) er rettet mot maskinlæringsingeniører, AI-utviklere og dataforskere på mellomnivå til avansert nivå som ønsker å lære hvordan de kan bruke QLoRA til effektiv finjustering av store modeller for spesifikke oppgaver og tilpasninger.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå teorien bak QLoRA og kvantiseringsteknikker for LLMs.
- Implementere QLoRA i finjustering av store språkmodeller for domene-spesifikke applikasjoner.
- Optimalisere finjusteringsyytelse på begrensede beregningsressurser ved hjelp av kvantisering.
- Utplassere og evaluere finjusterte modeller effektivt i virkelige applikasjoner.
Fine-Tuning med Reinforcement Learning fra menneskelig tilbakemelding (RLHF)
14 timerDenne instruktørledede, live opplæringen på Norge (online eller på sted) er rettet mot avanserte maskinlæringsingeniører og AI-forskere som ønsker å anvende RLHF for å finjustere store AI-modeller for overlegen ytelse, sikkerhet og samstemming.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå de teoretiske grunnlagene for RLHF og hvorfor det er avgjørende i moderne AI-utvikling.
- Implementere belønningsmodeller basert på menneskelig tilbakemelding for å veilede forsterkningslæringsprosesser.
- Finjustere store språklige modeller ved hjelp av RLHF-teknikker for å gjøre utdataene i tråd med menneskelige preferanser.
- Anvende beste praksis for å skalere RLHF-arbeidsflyter for produksjonsklare AI-systemer.
Optimering av Store Modeller for Kostnadseffektiv Finjustering
21 timerDenne instruktørledede, direkteopplæringen i Norge (online eller på stedet) er rettet mot profesjonelle på avansert nivå som ønsker å mestre teknikker for å optimalisere store modeller for kostnadseffektiv finjustering i virkelige scenarier.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå utfordringene med å finjustere store modeller.
- Bruk distribuerte treningsteknikker på store modeller.
- Utnytt modellkvantisering og beskjæring for effektivitet.
- Optimaliser maskinvareutnyttelsen for finjusteringsoppgaver.
- Distribuer finjusterte modeller effektivt i produksjonsmiljøer.
Prompt Engineering and Few-Shot Fine-Tuning
14 timerDenne instruktørledede, live-opplæringen i Norge (online eller på stedet) er rettet mot fagfolk på middels nivå som ønsker å utnytte kraften til rask ingeniørkunst og få greps læring for å optimalisere LLM-ytelsen for virkelige applikasjoner.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå prinsippene for rask prosjektering og få-skuddslæring.
- Design effektive spørsmål for ulike NLP-oppgaver.
- Bruk få-skuddsteknikker for å tilpasse LLM-er med minimalt med data.
- Optimaliser LLM-ytelsen for praktiske bruksområder.
Parameter-Effektive Fine-Tuning (PEFT) Teknikker for LLMs
14 timerDenne instruktørledede, live-treningen på Norge (online eller på sted) er rettet mot mellomnivå-dataforskere og AI-ingeniører som ønsker å fine-tune store språkmodeller på en mer økonomisk og effektiv måte ved å bruke metoder som LoRA, Adapter Tuning, og Prefix Tuning.
Ved slutten av denne treningen vil deltakerne være i stand til:
- Forstå teorien bak parameter-effektive fine-tuning-metoder.
- Implementere LoRA, Adapter Tuning, og Prefix Tuning ved hjelp av Hugging Face PEFT.
- Sammenligne ytelse og kostnadsoverveielser av PEFT-metoder mot full fine-tuning.
- Deploye og skale fine-tuned LLMs med redusert beregning og lagringsbehov.
Introduksjon til Overføring av Lærings
14 timerDenne instruktørledede, direkteopplæringen i Norge (online eller på stedet) er rettet mot maskinlæringsfagfolk på nybegynnernivå til mellomnivå som ønsker å forstå og bruke overføringslæringsteknikker for å forbedre effektiviteten og ytelsen i AI-prosjekter.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Forstå kjernekonseptene og fordelene med overføringslæring.
- Utforsk populære forhåndstrente modeller og deres applikasjoner.
- Utfør finjustering av forhåndstrente modeller for tilpassede oppgaver.
- Bruk overføringslæring for å løse reelle problemer i NLP og datasyn.
Feilfinningsdiagnostikk
14 timerDenne instruktørledede, direkteopplæringen i Norge (online eller på stedet) er rettet mot profesjonelle på avansert nivå som ønsker å forbedre ferdighetene sine i å diagnostisere og løse finjusteringsutfordringer for maskinlæringsmodeller.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Diagnostiser problemer som overtilpasning, undertilpasning og dataubalanse.
- Implementere strategier for å forbedre modellkonvergens.
- Optimaliser finjustering av rørledninger for bedre ytelse.
- Feilsøk opplæringsprosesser ved hjelp av praktiske verktøy og teknikker.