Red Teaming AI-systemer: Offensive sikkerhet for ML-modeller Treningskurs
Red Teaming AI-systemer er et spesialisert område innen offensive sikkerhet som fokuserer på å identifisere svakheter i maskinlæringsmodeller og driftspipeliner gjennom motstandstesting og stresssimuleringer.
Dette instruktørflytta, live-treningen (online eller på stedet) er rettet mot avanserte sikkerhetsexperter og ML-eksperter som ønsker å simulere angrep på AI-systemer, oppdage sårbarheter og forbedre robustheten til driftsmessige AI-modeller.
Til slutt av denne treningen vil deltakerne kunne:
- Simulere reelle trusler mot maskinlæringsmodeller.
- Generere motstandsforekomster for å teste modellens robusthet.
- Vurdere angrepsflaten til AI-APIer og pipeliner.
- Designe red teaming-strategier for driftsmessige AI-miljøer.
Kursformat
- Interaktiv forelesning og diskusjon.
- Masse øvelser og praksis.
- Hands-on implementering i et live-lab-miljø.
Kursanpassningsmuligheter
- For å forespørre et tilpasset trening for dette kurset, vennligst kontakt oss for å ordne det.
Kursplan
Introduksjon til AI Red Teaming
- Forståelse av AI-truslelandskapet
- Roller for red team i AI-sikkerhet
- Etiske og juridiske overvejingar
Motstandsmaskinlæring
- Typer angrep: unngåelse, fysisk utslipp, ekstrahering, inferens
- Generering av motstandsforekomster (f.eks., FGSM, PGD)
- Målrettet vs. umålrettet angrep og suksessmetrikker
Testing av modellrobusthet
- Vurdering av robusthet under perturbasjoner
- Utredning av modellens blindflekker og feilmoduser
- Stress-testing av klassifiserings-, visuelle- og NLP-modeller
Red Teaming AI-pipeliner
- Angrepsflate for AI-pipelinene: data, modell, drift
- Utbytting av usikre modell-APIer og -sluttpunkter
- Omvendt utvikling av modellbetehandling og -utdata
Simulering og verktøy
- Bruk av Adversarial Robustness Toolbox (ART)
- Red teaming med verktøy som TextAttack og IBM ART
- Sandboxing, overvåking og observabilitetsverktøy
AI Red Team-strategi og forsvarssamarbeid
- Utvikling av red team-øvelser og mål
- Kommunikasjon av funn til blue teams
- Integrering av red teaming i AI-risikostyring
Oppsummering og neste trinn
Krav
- Forståelse av maskinlæring og dyplæringsarkitekturer
- Erfaring med Python og ML-rammeverk (f.eks., TensorFlow, PyTorch)
- Familiaritet med sibertrygghetsteamkonsepter eller offensive sikkerhetsteknikker
Målgruppe
- Sikkerhetsforskere
- Offensive sikkerhetsteam
- AI-assurans og red team-eksperter
Åpne kurs krever 5+ deltakere.
Red Teaming AI-systemer: Offensive sikkerhet for ML-modeller Treningskurs - Bestilling
Red Teaming AI-systemer: Offensive sikkerhet for ML-modeller Treningskurs - Forespørsel
Red Teaming AI-systemer: Offensive sikkerhet for ML-modeller - Konsulentforespørsel
Konsulentforespørsel
Kommende kurs
Relaterte kurs
Introduksjon til AI Trust, Risk, og Security Management (AI TRiSM)
21 timerDenne instruktørledede, live-trainingen (online eller på stedet) er rettet mot IT-profesjonelle på begynder- til mellomnivå som ønsker å forstå og implementere AI TRiSM i sine organisasjoner.
Ved avslutningen av denne opplæringen vil deltakerne være i stand til å:
- Forstå nøkkelkonsepter og betydningen av AI-sikkerhet, risikohåndtering og sikkerhetsstyring.
- Identifisere og redusere risikoer forbundet med AI-systemer.
- Implementere sikkerhetsbest-praktiser for AI.
- Forstå reguleringskompatibilitet og etiske hensyn for AI.
- Utvikle strategier for effektiv AI-styring og -håndtering.
Cybersikkerhet i AI-systemer
14 timerDenne instruktørledede, live-trening (online eller på stedet) er rettet mot mellomnivå AI- og cybersecurity-profesjonelle som ønsker å forstå og håndtere sikkerhetsutfordringer knyttet til AI-modeller og systemer, spesielt innenfor høyt regulerte bransjer som finans, datastyring og rådgivning.
Ved avslutningen av denne treningen vil deltakerne være i stand til å:
- Forstå typer av fiendtlige angrep som målretter AI-systemer og metoder for å forsvare seg mot dem.
- Implementere modellhærderingsteknikker for å sikre maskinlæringsrørledninger.
- Sikre datasikkerhet og integritet i maskinlæringsmodeller.
- Navigere i krav til regulativ overholdelse knyttet til AI-sikkerhet.
Innføring i sikkerhet og risikostyring for kunstig intelligens (KI)
14 timerDenne instruktørførte, live-kurset i Norge (online eller på sted) er rettet mot begynner-nivå IT-sikkerhet, risiko- og overholdelsesfagfolk som ønsker å forstå grunnleggende KI-sikkerhetskonsepter, truslevektorer og globale rammer som NIST AI RMF og ISO/IEC 42001.
Ved slutten av dette kurset vil deltakerne kunne:
- Forstå de unike sikkerhetsrisikoene som KI-systemer introduserer.
- Identifisere truslevektorer som feilaktige angrep, dataforgiftning og modellinversjon.
- Bruke grunnleggende styringsmodeller som NIST AI Risikostyringsramme.
- Justere KI-bruk til nye standarder, overholdelsesretningslinjer og etiske prinsipper.
Sikring av AI-modeller: Trusler, angrep og forsvar
14 timerDette kurset, ledet av instruktør, blir holdt live i Norge (online eller på sted) og er rettet mot mellomnivåmaskinlærings- og kybersikkerhetsprofesjonelle som ønsker å forstå og heve emergent trusler mot AI-modeller ved hjelp av både konseptuelle rammer og praktiske forsvarsstrategier som robust trening og differential privacy.
Ved slutten av dette kurset vil deltakerne være i stand til å:
- Identifisere og klassifisere AI-spesifikke trusler som motarbeidende angrep, inversangrep og forgiftning.
- Bruke verktøy som Adversarial Robustness Toolbox (ART) for å simulere angrep og teste modeller.
- Bruke praktiske forsvarsstrategier, inkludert motarbeidende trening, støyinjeksjon og teknikker som beskytter personvern.
- Designe trusselsbevisne modellvurderingsstrategier i produsjonsmiljøer.
Building Secure and Responsible LLM Applications
14 timerDenne instruktørlede, levende opplæringen på Norge (online eller på sted) er rettet mot mellomnivå- til avanserte AI-utviklere, arkitekter og produktledere som ønsker å identifisere og redusere risikoer knyttet til LLM-drevne applikasjoner, inkludert prompt injeksjon, datalekkasje og ufiltrert utdata, samt å inkludere sikkerhetskontroller som inndatavalidering, menneskelig i-løkke-overvåking og utdatabeskyttelse.
Ved slutten av denne opplæringen vil deltakerne være i stand til:
- Forstå kjernen i sårbarhetene til LLM-baserte systemer.
- Anvende sikre designprinsipper til LLM-applikasjonsarkitektur.
- Bruke verktøy som Guardrails AI og LangChain for validering, filtrering og sikkerhet.
- Integere teknikker som sandboxing, red teaming og menneskelig i-løkke-revisjon i produksjonsnivå-pipelines.
AI-styring, overhold og sikkerhet for virksomhetsledere
14 timerDette undervisningsbaserte, live-treningen i Norge (online eller på sted) er rettet mot mellomnivås virksomhetsledere som ønsker å forstå hvordan de kan styre og sikre AI-systemer ansvarlig og i overhold med uutfoldende globale rammer som EU AI-lovegivningen, GDPR, ISO/IEC 42001, og den amerikanske presidentens eksekutive orden om AI.
Ved slutten av denne treningen vil deltakerne kunne:
- Forstå de juridiske, etiske og regulære risikoene ved å bruke AI i ulike avdelinger.
- Tolke og anvende viktige AI-styringsrammer (EU AI-lovegivningen, NIST AI RMF, ISO/IEC 42001).
- Etablishere sikkerhets-, revisjons- og overvåkningspolitiske retningslinjer for implementering av AI i virksomheten.
- Utvikle innkjøps- og brukerettigheter for tredjeparts- og in-house AI-systemer.
Privacy-Preserving Machine Learning
14 timerDenne instruktørledede, live-utbildingen i Norge (online eller på stedet) er rettet mot profesjonelle med høy nivå som ønsker å implementere og evaluere teknikker som federert læring, sikker flerpartsberegning, homomorf kryptering og differensiell privathet i virkelige maskinlæringspipeliner.
Ved slutten av denne utbildningen vil deltakerne kunne:
- Forstå og sammenligne nøkkeltrekk ved privatbeskyttende teknikker i ML.
- Implementere federerte læringssystemer ved hjelp av open-source-rammeverk.
- Anvende differensiell privathet for sikker dataopplasting og modelltrening.
- Bruke kryptering og sikre beregningsmetoder for å beskytte modellens innganger og utganger.
Sikre Edge AI og Embedded Intelligence
14 timerDette instruktørledete, live-treningen i Norge (online eller på stedet) er rettet mot mellomnivå ingeniører og sikkerhetsexperter som ønsker å sikre AI-modeller som er distribuert ved kanten mot trusler som manipulasjon, datautslipp, adversarielle inndata og fysiske angrep.
Ved treningens slutt vil deltakerne kunne:
- Identifisere og vurdere sikkerhetsrisikoer i Edge AI-distribusjoner.
- Bruke motstand mot manipulasjon og kryptert inferens-teknikker.
- Forstærke modeller som er distribuert ved kanten og sikre datapipelines.
- Implementere trusselbekjempelsesstrategier spesifikt for embedded- og begrensete systemer.
AI Risk Management og Sikkerhet i Offentlig Sektor
7 timerKunstig intelligens (AI) innfører nye dimensjoner av operativ risiko, styringsutfordringer og sikkerhetsutsattheit for regjeringsorganer og departementer.
Denne instruktørførte, live-treningen (online eller på lokasjon) er rettet mot offentlige sektors IT- og risikoprofesjonelle med begrenset tidligere erfaring i AI, som ønsker å forstå hvordan man kan evaluere, overvåke og sikre AI-systemer innen en regjering eller regulativ kontekst.
Til slutt av denne treningen vil deltakerne kunne:
- Tolke nøkkelsikkerhetsbegreper relatert til AI-systemer, inkludert bias, uforutsigbarhet og modellavvik.
- Bruke AI-spesifikke styrings- og revisjonsrammeverk som NIST AI RMF og ISO/IEC 42001.
- Kjenne igjen sikkerhetstruaker som måler mot AI-modeller og datapipelines.
- Opprette tverskyldende risikostyringsplaner og politikkstilpasning for AI-distribusjon.
Kursformat
- Interaktiv forelesning og diskusjon av offentlige sektors bruksfall.
- Øvelser med AI-styringsrammeverk og politikkmapping.
- Scenario-basert truamodellering og risikovurdering.
Kursanpassningsmuligheter
- For å be om et tilpasset kurs, vennligst kontakt oss for å avtale.
OWASP GenAI Sikkerhet
14 timerBasert på den nyeste OWASP GenAI Sikkerhetsprosjekt veiledningen vil deltagere lære å identifisere, vurdere og redusere AI-spesifikke trusler gjennom praktiske øvelser og reelle scenarier.
Sikker & Sikker Agensbasert AI: Styring, Identitet og Rød-Team Testing
21 timerDette kurset dekker styring, identitetsstyring og adverarsi testing for agensbaserte AI-systemer, med fokus på sikre driftsmodeller for virksomheter og praktiske rød-team teknikker.
Dette undervisningsledede, live-kurset (online eller på stedet) er rettet mot avanserte praksiser som ønsker å designe, sikre og evaluere agentbaserte AI-systemer i produksjonsmiljøer.
Ved slutten av dette kurset vil deltakerne kunne:
- Definere styringsmodeller og retningslinjer for sikre agensbaserte AI-drift.
- Designe identitets- og autentiseringsflyter for agenter med minst mulig tilgangsrettigheter.
- Implementere tilgangskontroll, revisjonsloggbokføring og observabilitet tilpasset autonomi-agenter.
- Planlegge og utføre rød-team øvelser for å oppdage misbruk, eskaleringsspor og dataeksfiltreringsrisikoer.
- Demp vanlige trusler mot agensbaserte systemer gjennom retningslinjer, tekniske kontroller og overvåking.
Kursformat
- Interaktive forelesninger og truselmodellering-verksteder.
- Praksisøvelser: identitetsforvaltning, retningslinjegjennomføring og adverarsi simulering.
- Rød-team/blå-team øvelser og sluttkursvurdering.
Kursanpassningsmuligheter
- For å forespørre et anpasset trening for dette kurset, vennligst kontakt oss for å ordne det.
Sikkerhet og personvern i TinyML-applikasjoner
21 timerTinyML er en tilnærming for å distribuere maskinlæringsmodeller på lavkraftige, ressursbegrensete enheter som opererer på nettverkskanten.
Denne instruktørledede, live-treningen (online eller på stedet) er rettet mot avanserte nivå profesjonelle som ønsker å sikre TinyML-pipelines og implementere personvernbevarende teknikker i edge AI-applikasjoner.
Ved slutten av dette kurset vil deltakerne kunne:
- Identifisere sikkerhetsrisikoer unike for on-device TinyML-inferens.
- Implementere personvernbevarende mekanismer for edge AI-distribusjoner.
- Forsterke TinyML-modeller og inbyggede systemer mot fjendtlig trusler.
- Bruke beste praksis for sikkert datahåndtering i ressursbegrenede miljøer.
Kursets format
- Engasjerende forelesninger støttet av ekspertledede diskusjoner.
- Praktiske øvelser med fokus på reelle truescenarier.
- Håndig implementering ved hjelp av inbygget sikkerhet og TinyML-verktøy.
Kursespesifikke tilpasningsoptsjoner
- Organisasjoner kan be om en tilpasset versjon av denne treningen for å justere seg til deres spesifike sikkerhets- og samsvarbehov.
ISACA Advanced in AI Security Management (AAISM)
21 timerAAISM er et avansert rammer for å vurdere, styre og administrere sikkerhetsrisikoer i kunstig intelligens-systemer.
Dette fagperson-ledede, live-kurset (online eller på stedet) er rettet mot avanserte profesjonelle som ønsker å implementere effektive sikkerhetskontroller og styringspraksiser for AI-miljøer i selskap.
Ved slutten av dette programmet vil deltakerne være beredt til:
- Vurdere AI-sikkerhetsrisikoer ved hjelp av bransjenkjente metodologier.
- Implementere styringsmodeller for ansvarlig AI-utvikling.
- Justere AI-sikkerhetspolitikker med organisasjonens mål og reguleringskrav.
- Forbedre motstandsdyktighet og ansvarligheten i AI-drivne operasjoner.
Kursformat
- Foredrag med støtte fra eksperthantering.
- Praktiske workshops og vurderingsbaserte aktiviteter.
- Anvendte øvelser med eksempler fra virkelig AI-styring.
Kursanpassningsmuligheter
- For tilpasset utdannelse i overensstemmelse med organisasjonens AI-strategi, vennligst kontakt oss for å anpasse kurset.