Takk for at du sendte din henvendelse! En av våre teammedlemmer vil kontakte deg straks.
Takk for at du sendte din bestilling! En av våre teammedlemmer vil kontakte deg straks.
Kursplan
Introduksjon til AI-trusselsmodellering
- Hva gjør AI-systemer sårbar?
- AI-angrepsoverflate vs tradisjonelle systemer
- Nøklengde angrepsvektorer: data, modell, utdata og grensesnittsskjemaer
Motarbeidende angrep på AI-modeller
- Forståelse av motarbeidende eksempler og perturbasjonsteknikker
- White-box vs black-box-angrep
- FGSM, PGD, og DeepFool-metoder
- Visualisering og utforming av motarbeidende sampel
Modellinversjon og personverktap
- Inferens av treningsdata fra modellutdata
- Medlemskapsinferensangrep
- Personverkstrisaker i klassifiserings- og generative modeller
Dataforgiftning og bakdørsinjeksjon
- Hvordan forgiftet data påvirker modellatferd
- Triggerbaserte bakdører og Trojan-angrep
- Deteksjons- og rensestrategier
Robusthet og forsvarsstrategier
- Motarbeidende trening og dataaugmentering
- Gradientmaskering og inputforbehandling
- Modellglättelse og reguleringsteknikker
Personvernsikkert AI-forsvar
- Introduksjon til differential privacy
- Støyinjeksjon og personvernspesifika budsjetter
- Federert læring og sikker samling
AI-sikkerhet i praksis
- Trusselsbevis modellvurdering og implementering
- Bruk av ART (Adversarial Robustness Toolbox) i anvendte sammenhenger
- Bransje-tilfeller: virkelige brudd og mitigeringer
Oppsummering og neste steg
Krav
- Kunnskap om maskinlæringsarbeidsflyt og modelltrening
- Erfaring med Python og vanlige ML-rammeverk som PyTorch eller TensorFlow
- Grunnleggende kunnskap om sikkerhet eller trusselmodellering er til hjelp
Målgruppe
- Maskinlæringsingeniører
- Kybersikkerhetsanalytikere
- AI-forskere og modellvalideringslag
14 Timer
Referanser (1)
Den profesjonelle kunnskapen og måten han presenterte den for oss
Miroslav Nachev - PUBLIC COURSE
Kurs - Cybersecurity in AI Systems
Maskinoversatt