Kursplan

Introduksjon til AI Red Teaming

  • Forståelse av AI-trusselbildet
  • Rolene til red teams i AI-sikkerhet
  • Ethiske og juridiske overveielser

Adversarial Machine Learning

  • Typer av angrep: unnslipping, forgiftning, ekstraksjon, inferens
  • Generering av adversarial eksempler (f.eks., FGSM, PGD)
  • Målrettet vs. umålrettet angrep og suksessmetrikker

Testing av Modellrobusthet

  • Vurdere robusthet under forstyrrelser
  • Utforske modellers blindspots og feilmåder
  • Stress testing av klassifikasjons-, visjons- og NLP-modeller

Red Teaming av AI-Pipelines

  • Angrepsflaten på AI-pipelines: data, modell, utplassering
  • Utnyttelse av usikre modell-APIer og endepunkter
  • Reversering av modellatferd og -utdata

Simulering og Verktøy

  • Bruk av Adversarial Robustness Toolbox (ART)
  • Red teaming med verktøy som TextAttack og IBM ART
  • Sandboxing-, overvåknings- og observabilitetsverktøy

AI Red Team Strategi og Forsvar Collaboration

  • Utvikling av red team-øvelser og mål
  • Kommunikasjon av funn til blue teams
  • Integrering av red teaming i AI-risikohåndtering

Oppsummering og Neste Skritt

Krav

  • Forståelse av maskinlæring og dypelæring arkitekturer
  • Erfaring med Python og ML-rammeverk (e.g., TensorFlow, PyTorch)
  • Kjennskap til sikkerhetskonsepter eller offensive sikkerhetsteknikker

Målgruppe

  • Sikkerhetsforskere
  • Offensive sikkerhetsteam
  • AI-sikkerhets- og red team-profesjonelle
 14 timer

Antall deltakere


Price per participant

Upcoming Courses

Related Categories