Kursplan

Oversikt over LLM-arkitektur og angrepsflate

  • Hvordan LLMs bygges, distribueres og tilgjengeliggjøres via APIer
  • Nøkkelkomponenter i LLM-applikasjonsstakker (eks. prompts, agenter, hukommelse, APIer)
  • Hvor og hvordan sikkerhetsproblemer oppstår i virkelige bruksscenarier

Prompt Injeksjon og Jailbreak-angrep

  • Hva prompt injeksjon er og hvorfor det er farlig
  • Direkte og indirekte prompt injeksjonsscenarier
  • Jailbreaking-teknikker for å omgå sikkerhetsfilter
  • Strategier for oppdagelse og avverging

Datalekkasje og privatrisikoer

  • Utenomeksponering av data gjennom svar
  • PII-lekkasjer og misbruk av modellhukommelse
  • Å designe privatskytsbevisste prompts og retrieval-augmented generation (RAG)

LLM-outputfiltrering og beskyttelse

  • Bruk av Guardrails AI for innholdsfiltrering og validering
  • Definere outputskjemaer og begrensninger
  • Overvåking og logging av usikre outputs

Human-in-the-Loop og arbeidsflytsmetoder

  • Hvor og når å introdusere menneskelig overvåkning
  • Godkjenningskøer, skåringstrøskler, tilbakefallshåndtering
  • Tilstedskalibrering og forklarbarhetens rolle

Sikker LLM-applikasjon Design Patterns

  • Minste privilegier og sandboxing for API-kall og agenter
  • Rate limiting, tråling og misbruksovervåkning
  • Robust kobling med LangChain og prompt-isolasjon

Overholdelse, logging og Gostyre

  • Å sikre revisjonsevnen til LLM-output
  • Å opprettholde sporbarhet og prompt/versjonskontroll
  • Å overholde interne sikkerhetspolitikker og reguleringskrav

Oppsummering og neste trinn

Krav

  • En forståelse av store språkmodeller og grensesnitt basert på prompt
  • Erfaring med å bygge LLM-applikasjoner ved bruk av Python
  • Kjennskap til API-integrasjoner og skybaserte distribusjoner

Målgruppe

  • AI-utviklere
  • Applikasjons- og løsningsarkitekter
  • Tekniske produktledere som arbeider med LLM-verktøy
 14 timer

Antall deltakere


Price per participant

Upcoming Courses

Related Categories