Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Kursplan
Introduksjon til AI Red Teaming
- Forstå AI-trusselbildet
- Rollene til red teams i AI-sikkerhet
- Etiske og juridiske overveielser
Adversarial Machine Learning
- Typer av angrep: unnvikelse, forgiftning, ekstraksjon, inferens
- Generering av adversarial eksempler (e.g., FGSM, PGD)
- Målsøkte vs. umålsøkte angrep og suksessmålinger
Testing av Modellrobusthet
- Vurdering av robusthet under forstyrrelser
- Undersøkelse av modellblinde flekker og feilmåder
- Stress-testing av klassifikasjons-, visuelle og NLP-modeller
Red Teaming av AI-Pipelines
- Angrepsflate for AI-pipelines: data, modell, distribusjon
- Utnyttelse av utrygge modell-APIer og endepunkter
- Omvendt ingeniørarbeid av modellatferd og utdata
Simulering og Verktøy
- Bruk av Adversarial Robustness Toolbox (ART)
- Red teaming med verktøy som TextAttack og IBM ART
- Sandboxing, overvåking og observerbarhetsverktøy
AI Red Team Strategi og Forsvar Collaboration
- Utvikling av red team-øvelser og mål
- Kommunikasjon av funn til blå teams
- Integraering av red teaming i AI-riskhåndtering
Oppsummering og Neste Skritt
Krav
- En forståelse av maskinlærings- og dypelæringsarkitekturer
- Erfaring med Python og ML-rammeverk (e.g., TensorFlow, PyTorch)
- Kjennskap til sikkerhetskonsepter eller offensive sikkerhetsteknikker
Målgruppe
- Sikkerhetsforskere
- Offensive sikkerhetsteam
- AI-assurance- og red team-profesjonelle
14 timer