Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Kursplan
Introduksjon til Ollama
- Hva er Ollama og hvordan fungerer det?
- Fordeler ved å kjøre AI-modeller lokalt
- Oversikt over støttede LLMs (Llama, DeepSeek, Mistral, etc.)
Installasjon og Oppsett av Ollama
- Systemkrav og vurderinger av maskinvare
- Installasjon av Ollama på forskjellige operativsystemer
- Konfigurasjon av avhengigheter og oppsett av miljø
Kjøring av AI-Modeller Lokalt
- Nedlasting og lasting av AI-modeller i Ollama
- Interaksjon med modeller via kommandolinjen
- Grunnleggende prompt engineering for lokale AI-oppgaver
Optimalisering av Ytelse og Ressursbruk
- Administrasjon av maskinvareressurser for effektiv AI-kjøring
- Redusere fordrøyning og forbedre modellresponstid
- Benchmarking av ytelse for forskjellige modeller
Use Case for Lokal AI-Deployering
- AI-drevne chatbots og virtuelle assistenter
- Dataprosessering og automatisering av oppgaver
- AI-applikasjoner med fokus på personvern
Oppsummering og Neste Skritt
Krav
- Grunnleggende forståelse av AI og maskinlæringskonsepter
- Kjennskap til kommando-linjesnittstiler
Målgruppe
- Utviklere som kjører AI-modeller uten avhengighet av skybaserte tjenester
- Business-profesjonelle som er interessert i AI-privacy og kostnads-effektiv distribusjon
- AI-entusiaster som utforsker lokal modelldistribusjon
7 timer