Kursplan

Introduksjon til Ollama

  • Hva er Ollama og hvordan fungerer det?
  • Fordeler med å kjøre AI-modeller lokalt
  • Oversikt over støttede LLMs (Llama, DeepSeek, Mistral, etc.)

Installasjon og oppsett av Ollama

  • Systemkrav og maskinvarehensyn
  • Installere Ollama på ulike operativsystemer
  • Konfigurere avhengigheter og miljøoppsett

Kjøre AI-modeller lokalt

  • Last ned og last inn AI-modeller i Ollama
  • Interagere med modeller via kommandolinjen
  • Grunnleggende prompt-ingeniørarbeid for lokale AI-oppgaver

Optimalisering av ytelse og ressursbruk

  • Administrere maskinvareressurser for effektiv AI-utøvelse
  • Redusere svarforsinkelse og forbedre modellens respons tid
  • Benchmarking av ytelse for ulike modeller

Bruksområder for lokal AI-dyrking

  • AI-drivne chatbots og virtuelle assisterende
  • Datahåndtering og automatisering av oppgaver
  • Sikkerhetssentrerte AI-applikasjoner

Oppsummering og neste steg

Krav

  • Grunnleggende kunnskap om AI og maskinlæring konsepter
  • Bekjent med kommandolinjesgrenschnitt

Målgruppe

  • Utviklere som kjører AI-modeller uten skyavhengigheter
  • Bedriftsprofessionelle som er interessert i AI-sikkerhet og kostnadseffektiv dyrking
  • AI-entusiaster som utforsker lokal modell-dyrking
 7 timer

Antall deltakere


Pris per deltaker

Kommende kurs

Relaterte kategorier