Kursplan

Introduksjon til AI Red Teaming

  • Forståelse av AI-truslelandskapet
  • Roller for red team i AI-sikkerhet
  • Etiske og juridiske overvejingar

Motstandsmaskinlæring

  • Typer angrep: unngåelse, fysisk utslipp, ekstrahering, inferens
  • Generering av motstandsforekomster (f.eks., FGSM, PGD)
  • Målrettet vs. umålrettet angrep og suksessmetrikker

Testing av modellrobusthet

  • Vurdering av robusthet under perturbasjoner
  • Utredning av modellens blindflekker og feilmoduser
  • Stress-testing av klassifiserings-, visuelle- og NLP-modeller

Red Teaming AI-pipeliner

  • Angrepsflate for AI-pipelinene: data, modell, drift
  • Utbytting av usikre modell-APIer og -sluttpunkter
  • Omvendt utvikling av modellbetehandling og -utdata

Simulering og verktøy

  • Bruk av Adversarial Robustness Toolbox (ART)
  • Red teaming med verktøy som TextAttack og IBM ART
  • Sandboxing, overvåking og observabilitetsverktøy

AI Red Team-strategi og forsvarssamarbeid

  • Utvikling av red team-øvelser og mål
  • Kommunikasjon av funn til blue teams
  • Integrering av red teaming i AI-risikostyring

Oppsummering og neste trinn

Krav

  • Forståelse av maskinlæring og dyplæringsarkitekturer
  • Erfaring med Python og ML-rammeverk (f.eks., TensorFlow, PyTorch)
  • Familiaritet med sibertrygghetsteamkonsepter eller offensive sikkerhetsteknikker

Målgruppe

  • Sikkerhetsforskere
  • Offensive sikkerhetsteam
  • AI-assurans og red team-eksperter
 14 timer

Antall deltakere


Pris per deltaker

Kommende kurs

Relaterte kategorier