Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Kursplan
Introduksjon til AI Red Teaming
- Forståelse av AI-trusselbildet
- Rolene til red teams i AI-sikkerhet
- Ethiske og juridiske overveielser
Adversarial Machine Learning
- Typer av angrep: unnslipping, forgiftning, ekstraksjon, inferens
- Generering av adversarial eksempler (f.eks., FGSM, PGD)
- Målrettet vs. umålrettet angrep og suksessmetrikker
Testing av Modellrobusthet
- Vurdere robusthet under forstyrrelser
- Utforske modellers blindspots og feilmåder
- Stress testing av klassifikasjons-, visjons- og NLP-modeller
Red Teaming av AI-Pipelines
- Angrepsflaten på AI-pipelines: data, modell, utplassering
- Utnyttelse av usikre modell-APIer og endepunkter
- Reversering av modellatferd og -utdata
Simulering og Verktøy
- Bruk av Adversarial Robustness Toolbox (ART)
- Red teaming med verktøy som TextAttack og IBM ART
- Sandboxing-, overvåknings- og observabilitetsverktøy
AI Red Team Strategi og Forsvar Collaboration
- Utvikling av red team-øvelser og mål
- Kommunikasjon av funn til blue teams
- Integrering av red teaming i AI-risikohåndtering
Oppsummering og Neste Skritt
Krav
- Forståelse av maskinlæring og dypelæring arkitekturer
- Erfaring med Python og ML-rammeverk (e.g., TensorFlow, PyTorch)
- Kjennskap til sikkerhetskonsepter eller offensive sikkerhetsteknikker
Målgruppe
- Sikkerhetsforskere
- Offensive sikkerhetsteam
- AI-sikkerhets- og red team-profesjonelle
14 timer