Privacy-Preserving Machine Learning Treningskurs
Privacy-Preserving Machine Learning er et felt som fokuserer på å beskytte sensitiv data samtidig som man stadig gjør det mulig å bruke avanserte AI-muligheter i deentraliserte eller begrensete miljøer.
Denne instruktørledede, live-utbildingen (online eller på stedet) er rettet mot profesjonelle med høy nivå som ønsker å implementere og evaluere teknikker som federert læring, sikker flerpartsberegning, homomorf kryptering og differensiell privathet i virkelige maskinlæringspipeliner.
Ved slutten av denne utbildningen vil deltakerne kunne:
- Forstå og sammenligne nøkkeltrekk ved privatbeskyttende teknikker i ML.
- Implementere federerte læringssystemer ved hjelp av open-source-rammeverk.
- Anvende differensiell privathet for sikker dataopplasting og modelltrening.
- Bruke kryptering og sikre beregningsmetoder for å beskytte modellens innganger og utganger.
Kursformat
- Interaktiv forelesning og diskusjon.
- Mange øvelser og praksisoppgaver.
- Hands-on implementering i et live-lab-miljø.
Kursanpassningsmuligheter
- For å forespørre en tilpasset utbilding for dette kurset, vennligst kontakt oss for å ordne det.
Kursplan
Introduksjon til Privacy-Preserving ML
- Motiverende faktorer og risikoer i sensitiv datamiljøer
- Oversikt over privatbeskyttende ML-teknikker
- Trusmodeller og reguleringsovervegheter (f.eks., GDPR, HIPAA)
Federert læring
- Konseptet og arkitekturen for federert læring
- Klient-server-synkronisering og aggregasjon
- Implementering ved hjelp av PySyft og Flower
Differensiell privathet
- Matematikk bak differensiell privathet
- Anvendelse av DP i dataforespørsler og modelltrening
- Bruk av Opacus og TensorFlow Privacy
Sikker flerpartsberegning (SMPC)
- SMPC-protokoller og brukstilfeller
- Kryptering-baserte mot konfidensdelingsmetoder
- Sikre beregningsarbeidsflyt med CrypTen eller PySyft
Homomorf kryptering
- Fullt vs delvis homomorf kryptering
- Kryptert inferens for sensitiv arbeidslast
- Hands-on med TenSEAL og Microsoft SEAL
Anvendelser og bransjeseksjoner
- Privatheit i helsevesenet: federert læring for medisinsk AI
- Sikker samarbeid i finanssektoren: risikomodeller og regulering
- Bruksområder innen forsvar og offentlig sektor
Sammendrag og neste trinn
Krav
- Et grunnleggende forståelse av maskinlæringsprinsipper
- Erfaring med Python og ML-biblioteker (f.eks., PyTorch, TensorFlow)
- Kjennskap til dataprivatitet eller sikkerhetskonsepter er nyttig
Målgruppe
- AI-forskere
- Databeskyttelses- og privatheitskomplianshold
- Sikkerhetsingeniører som jobber i regulerte industrier
Åpne kurs krever 5+ deltakere.
Privacy-Preserving Machine Learning Treningskurs - Bestilling
Privacy-Preserving Machine Learning Treningskurs - Forespørsel
Privacy-Preserving Machine Learning - Konsulentforespørsel
Konsulentforespørsel
Kommende kurs
Relaterte kurs
Introduksjon til AI Trust, Risk, og Security Management (AI TRiSM)
21 timerDenne instruktørledede, live-trainingen (online eller på stedet) er rettet mot IT-profesjonelle på begynder- til mellomnivå som ønsker å forstå og implementere AI TRiSM i sine organisasjoner.
Ved avslutningen av denne opplæringen vil deltakerne være i stand til å:
- Forstå nøkkelkonsepter og betydningen av AI-sikkerhet, risikohåndtering og sikkerhetsstyring.
- Identifisere og redusere risikoer forbundet med AI-systemer.
- Implementere sikkerhetsbest-praktiser for AI.
- Forstå reguleringskompatibilitet og etiske hensyn for AI.
- Utvikle strategier for effektiv AI-styring og -håndtering.
Cybersikkerhet i AI-systemer
14 timerDenne instruktørledede, live-trening (online eller på stedet) er rettet mot mellomnivå AI- og cybersecurity-profesjonelle som ønsker å forstå og håndtere sikkerhetsutfordringer knyttet til AI-modeller og systemer, spesielt innenfor høyt regulerte bransjer som finans, datastyring og rådgivning.
Ved avslutningen av denne treningen vil deltakerne være i stand til å:
- Forstå typer av fiendtlige angrep som målretter AI-systemer og metoder for å forsvare seg mot dem.
- Implementere modellhærderingsteknikker for å sikre maskinlæringsrørledninger.
- Sikre datasikkerhet og integritet i maskinlæringsmodeller.
- Navigere i krav til regulativ overholdelse knyttet til AI-sikkerhet.
Innføring i sikkerhet og risikostyring for kunstig intelligens (KI)
14 timerDenne instruktørførte, live-kurset i Norge (online eller på sted) er rettet mot begynner-nivå IT-sikkerhet, risiko- og overholdelsesfagfolk som ønsker å forstå grunnleggende KI-sikkerhetskonsepter, truslevektorer og globale rammer som NIST AI RMF og ISO/IEC 42001.
Ved slutten av dette kurset vil deltakerne kunne:
- Forstå de unike sikkerhetsrisikoene som KI-systemer introduserer.
- Identifisere truslevektorer som feilaktige angrep, dataforgiftning og modellinversjon.
- Bruke grunnleggende styringsmodeller som NIST AI Risikostyringsramme.
- Justere KI-bruk til nye standarder, overholdelsesretningslinjer og etiske prinsipper.
Sikring av AI-modeller: Trusler, angrep og forsvar
14 timerDette kurset, ledet av instruktør, blir holdt live i Norge (online eller på sted) og er rettet mot mellomnivåmaskinlærings- og kybersikkerhetsprofesjonelle som ønsker å forstå og heve emergent trusler mot AI-modeller ved hjelp av både konseptuelle rammer og praktiske forsvarsstrategier som robust trening og differential privacy.
Ved slutten av dette kurset vil deltakerne være i stand til å:
- Identifisere og klassifisere AI-spesifikke trusler som motarbeidende angrep, inversangrep og forgiftning.
- Bruke verktøy som Adversarial Robustness Toolbox (ART) for å simulere angrep og teste modeller.
- Bruke praktiske forsvarsstrategier, inkludert motarbeidende trening, støyinjeksjon og teknikker som beskytter personvern.
- Designe trusselsbevisne modellvurderingsstrategier i produsjonsmiljøer.
Building Secure and Responsible LLM Applications
14 timerDenne instruktørlede, levende opplæringen på Norge (online eller på sted) er rettet mot mellomnivå- til avanserte AI-utviklere, arkitekter og produktledere som ønsker å identifisere og redusere risikoer knyttet til LLM-drevne applikasjoner, inkludert prompt injeksjon, datalekkasje og ufiltrert utdata, samt å inkludere sikkerhetskontroller som inndatavalidering, menneskelig i-løkke-overvåking og utdatabeskyttelse.
Ved slutten av denne opplæringen vil deltakerne være i stand til:
- Forstå kjernen i sårbarhetene til LLM-baserte systemer.
- Anvende sikre designprinsipper til LLM-applikasjonsarkitektur.
- Bruke verktøy som Guardrails AI og LangChain for validering, filtrering og sikkerhet.
- Integere teknikker som sandboxing, red teaming og menneskelig i-løkke-revisjon i produksjonsnivå-pipelines.
AI-styring, overhold og sikkerhet for virksomhetsledere
14 timerDette undervisningsbaserte, live-treningen i Norge (online eller på sted) er rettet mot mellomnivås virksomhetsledere som ønsker å forstå hvordan de kan styre og sikre AI-systemer ansvarlig og i overhold med uutfoldende globale rammer som EU AI-lovegivningen, GDPR, ISO/IEC 42001, og den amerikanske presidentens eksekutive orden om AI.
Ved slutten av denne treningen vil deltakerne kunne:
- Forstå de juridiske, etiske og regulære risikoene ved å bruke AI i ulike avdelinger.
- Tolke og anvende viktige AI-styringsrammer (EU AI-lovegivningen, NIST AI RMF, ISO/IEC 42001).
- Etablishere sikkerhets-, revisjons- og overvåkningspolitiske retningslinjer for implementering av AI i virksomheten.
- Utvikle innkjøps- og brukerettigheter for tredjeparts- og in-house AI-systemer.
Red Teaming AI-systemer: Offensive sikkerhet for ML-modeller
14 timerDette instruktørflytta, live-treningen i Norge (online eller på stedet) er rettet mot avanserte sikkerhetsexperter og ML-eksperter som ønsker å simulere angrep på AI-systemer, oppdage sårbarheter og forbedre robustheten til driftsmessige AI-modeller.
Til slutt av denne treningen vil deltakerne kunne:
- Simulere reelle trusler mot maskinlæringsmodeller.
- Generere motstandsforekomster for å teste modellens robusthet.
- Vurdere angrepsflaten til AI-APIer og pipeliner.
- Designe red teaming-strategier for driftsmessige AI-miljøer.
Sikre Edge AI og Embedded Intelligence
14 timerDette instruktørledete, live-treningen i Norge (online eller på stedet) er rettet mot mellomnivå ingeniører og sikkerhetsexperter som ønsker å sikre AI-modeller som er distribuert ved kanten mot trusler som manipulasjon, datautslipp, adversarielle inndata og fysiske angrep.
Ved treningens slutt vil deltakerne kunne:
- Identifisere og vurdere sikkerhetsrisikoer i Edge AI-distribusjoner.
- Bruke motstand mot manipulasjon og kryptert inferens-teknikker.
- Forstærke modeller som er distribuert ved kanten og sikre datapipelines.
- Implementere trusselbekjempelsesstrategier spesifikt for embedded- og begrensete systemer.
AI Risk Management og Sikkerhet i Offentlig Sektor
7 timerKunstig intelligens (AI) innfører nye dimensjoner av operativ risiko, styringsutfordringer og sikkerhetsutsattheit for regjeringsorganer og departementer.
Denne instruktørførte, live-treningen (online eller på lokasjon) er rettet mot offentlige sektors IT- og risikoprofesjonelle med begrenset tidligere erfaring i AI, som ønsker å forstå hvordan man kan evaluere, overvåke og sikre AI-systemer innen en regjering eller regulativ kontekst.
Til slutt av denne treningen vil deltakerne kunne:
- Tolke nøkkelsikkerhetsbegreper relatert til AI-systemer, inkludert bias, uforutsigbarhet og modellavvik.
- Bruke AI-spesifikke styrings- og revisjonsrammeverk som NIST AI RMF og ISO/IEC 42001.
- Kjenne igjen sikkerhetstruaker som måler mot AI-modeller og datapipelines.
- Opprette tverskyldende risikostyringsplaner og politikkstilpasning for AI-distribusjon.
Kursformat
- Interaktiv forelesning og diskusjon av offentlige sektors bruksfall.
- Øvelser med AI-styringsrammeverk og politikkmapping.
- Scenario-basert truamodellering og risikovurdering.
Kursanpassningsmuligheter
- For å be om et tilpasset kurs, vennligst kontakt oss for å avtale.
OWASP GenAI Sikkerhet
14 timerBasert på den nyeste OWASP GenAI Sikkerhetsprosjekt veiledningen vil deltagere lære å identifisere, vurdere og redusere AI-spesifikke trusler gjennom praktiske øvelser og reelle scenarier.
Sikker & Sikker Agensbasert AI: Styring, Identitet og Rød-Team Testing
21 timerDette kurset dekker styring, identitetsstyring og adverarsi testing for agensbaserte AI-systemer, med fokus på sikre driftsmodeller for virksomheter og praktiske rød-team teknikker.
Dette undervisningsledede, live-kurset (online eller på stedet) er rettet mot avanserte praksiser som ønsker å designe, sikre og evaluere agentbaserte AI-systemer i produksjonsmiljøer.
Ved slutten av dette kurset vil deltakerne kunne:
- Definere styringsmodeller og retningslinjer for sikre agensbaserte AI-drift.
- Designe identitets- og autentiseringsflyter for agenter med minst mulig tilgangsrettigheter.
- Implementere tilgangskontroll, revisjonsloggbokføring og observabilitet tilpasset autonomi-agenter.
- Planlegge og utføre rød-team øvelser for å oppdage misbruk, eskaleringsspor og dataeksfiltreringsrisikoer.
- Demp vanlige trusler mot agensbaserte systemer gjennom retningslinjer, tekniske kontroller og overvåking.
Kursformat
- Interaktive forelesninger og truselmodellering-verksteder.
- Praksisøvelser: identitetsforvaltning, retningslinjegjennomføring og adverarsi simulering.
- Rød-team/blå-team øvelser og sluttkursvurdering.
Kursanpassningsmuligheter
- For å forespørre et anpasset trening for dette kurset, vennligst kontakt oss for å ordne det.
Sikkerhet og personvern i TinyML-applikasjoner
21 timerTinyML er en tilnærming for å distribuere maskinlæringsmodeller på lavkraftige, ressursbegrensete enheter som opererer på nettverkskanten.
Denne instruktørledede, live-treningen (online eller på stedet) er rettet mot avanserte nivå profesjonelle som ønsker å sikre TinyML-pipelines og implementere personvernbevarende teknikker i edge AI-applikasjoner.
Ved slutten av dette kurset vil deltakerne kunne:
- Identifisere sikkerhetsrisikoer unike for on-device TinyML-inferens.
- Implementere personvernbevarende mekanismer for edge AI-distribusjoner.
- Forsterke TinyML-modeller og inbyggede systemer mot fjendtlig trusler.
- Bruke beste praksis for sikkert datahåndtering i ressursbegrenede miljøer.
Kursets format
- Engasjerende forelesninger støttet av ekspertledede diskusjoner.
- Praktiske øvelser med fokus på reelle truescenarier.
- Håndig implementering ved hjelp av inbygget sikkerhet og TinyML-verktøy.
Kursespesifikke tilpasningsoptsjoner
- Organisasjoner kan be om en tilpasset versjon av denne treningen for å justere seg til deres spesifike sikkerhets- og samsvarbehov.
ISACA Advanced in AI Security Management (AAISM)
21 timerAAISM er et avansert rammer for å vurdere, styre og administrere sikkerhetsrisikoer i kunstig intelligens-systemer.
Dette fagperson-ledede, live-kurset (online eller på stedet) er rettet mot avanserte profesjonelle som ønsker å implementere effektive sikkerhetskontroller og styringspraksiser for AI-miljøer i selskap.
Ved slutten av dette programmet vil deltakerne være beredt til:
- Vurdere AI-sikkerhetsrisikoer ved hjelp av bransjenkjente metodologier.
- Implementere styringsmodeller for ansvarlig AI-utvikling.
- Justere AI-sikkerhetspolitikker med organisasjonens mål og reguleringskrav.
- Forbedre motstandsdyktighet og ansvarligheten i AI-drivne operasjoner.
Kursformat
- Foredrag med støtte fra eksperthantering.
- Praktiske workshops og vurderingsbaserte aktiviteter.
- Anvendte øvelser med eksempler fra virkelig AI-styring.
Kursanpassningsmuligheter
- For tilpasset utdannelse i overensstemmelse med organisasjonens AI-strategi, vennligst kontakt oss for å anpasse kurset.