Kursplan

Introduksjon til Ollama

  • Hva er Ollama og hvordan fungerer det?
  • Fordeler ved å kjøre AI-modeller lokalt
  • Oversikt over støttede LLMs (Llama, DeepSeek, Mistral, etc.)

Installasjon og Oppsett av Ollama

  • Systemkrav og vurderinger av maskinvare
  • Installasjon av Ollama på forskjellige operativsystemer
  • Konfigurasjon av avhengigheter og oppsett av miljø

Kjøring av AI-Modeller Lokalt

  • Nedlasting og lasting av AI-modeller i Ollama
  • Interaksjon med modeller via kommandolinjen
  • Grunnleggende prompt engineering for lokale AI-oppgaver

Optimalisering av Ytelse og Ressursbruk

  • Administrasjon av maskinvareressurser for effektiv AI-kjøring
  • Redusere fordrøyning og forbedre modellresponstid
  • Benchmarking av ytelse for forskjellige modeller

Use Case for Lokal AI-Deployering

  • AI-drevne chatbots og virtuelle assistenter
  • Dataprosessering og automatisering av oppgaver
  • AI-applikasjoner med fokus på personvern

Oppsummering og Neste Skritt

Krav

  • Grunnleggende forståelse av AI og maskinlæringskonsepter
  • Kjennskap til kommando-linjesnittstiler

Målgruppe

  • Utviklere som kjører AI-modeller uten avhengighet av skybaserte tjenester
  • Business-profesjonelle som er interessert i AI-privacy og kostnads-effektiv distribusjon
  • AI-entusiaster som utforsker lokal modelldistribusjon
 7 timer

Antall deltakere


Price per participant

Upcoming Courses

Related Categories