Takk for at du sendte din henvendelse! En av våre teammedlemmer vil kontakte deg straks.
Takk for at du sendte din bestilling! En av våre teammedlemmer vil kontakte deg straks.
Kursplan
Introduksjon til AI Red Teaming
- Forståelse av AI-truslelandskapet
- Roller for red team i AI-sikkerhet
- Etiske og juridiske overvejingar
Motstandsmaskinlæring
- Typer angrep: unngåelse, fysisk utslipp, ekstrahering, inferens
- Generering av motstandsforekomster (f.eks., FGSM, PGD)
- Målrettet vs. umålrettet angrep og suksessmetrikker
Testing av modellrobusthet
- Vurdering av robusthet under perturbasjoner
- Utredning av modellens blindflekker og feilmoduser
- Stress-testing av klassifiserings-, visuelle- og NLP-modeller
Red Teaming AI-pipeliner
- Angrepsflate for AI-pipelinene: data, modell, drift
- Utbytting av usikre modell-APIer og -sluttpunkter
- Omvendt utvikling av modellbetehandling og -utdata
Simulering og verktøy
- Bruk av Adversarial Robustness Toolbox (ART)
- Red teaming med verktøy som TextAttack og IBM ART
- Sandboxing, overvåking og observabilitetsverktøy
AI Red Team-strategi og forsvarssamarbeid
- Utvikling av red team-øvelser og mål
- Kommunikasjon av funn til blue teams
- Integrering av red teaming i AI-risikostyring
Oppsummering og neste trinn
Krav
- Forståelse av maskinlæring og dyplæringsarkitekturer
- Erfaring med Python og ML-rammeverk (f.eks., TensorFlow, PyTorch)
- Familiaritet med sibertrygghetsteamkonsepter eller offensive sikkerhetsteknikker
Målgruppe
- Sikkerhetsforskere
- Offensive sikkerhetsteam
- AI-assurans og red team-eksperter
14 Timer
Referanser (1)
Den profesjonelle kunnskapen og måten han presenterte den for oss
Miroslav Nachev - PUBLIC COURSE
Kurs - Cybersecurity in AI Systems
Maskinoversatt