Kursplan

Introduksjon til AI Red Teaming

  • Forstå AI-trusselbildet
  • Rollene til red teams i AI-sikkerhet
  • Etiske og juridiske overveielser

Adversarial Machine Learning

  • Typer av angrep: unnvikelse, forgiftning, ekstraksjon, inferens
  • Generering av adversarial eksempler (e.g., FGSM, PGD)
  • Målsøkte vs. umålsøkte angrep og suksessmålinger

Testing av Modellrobusthet

  • Vurdering av robusthet under forstyrrelser
  • Undersøkelse av modellblinde flekker og feilmåder
  • Stress-testing av klassifikasjons-, visuelle og NLP-modeller

Red Teaming av AI-Pipelines

  • Angrepsflate for AI-pipelines: data, modell, distribusjon
  • Utnyttelse av utrygge modell-APIer og endepunkter
  • Omvendt ingeniørarbeid av modellatferd og utdata

Simulering og Verktøy

  • Bruk av Adversarial Robustness Toolbox (ART)
  • Red teaming med verktøy som TextAttack og IBM ART
  • Sandboxing, overvåking og observerbarhetsverktøy

AI Red Team Strategi og Forsvar Collaboration

  • Utvikling av red team-øvelser og mål
  • Kommunikasjon av funn til blå teams
  • Integraering av red teaming i AI-riskhåndtering

Oppsummering og Neste Skritt

Krav

  • En forståelse av maskinlærings- og dypelæringsarkitekturer
  • Erfaring med Python og ML-rammeverk (e.g., TensorFlow, PyTorch)
  • Kjennskap til sikkerhetskonsepter eller offensive sikkerhetsteknikker

Målgruppe

  • Sikkerhetsforskere
  • Offensive sikkerhetsteam
  • AI-assurance- og red team-profesjonelle
 14 timer

Antall deltakere


Price per participant

Upcoming Courses

Related Categories