Rövid leírás
Az ISO/IEC 42001 egy globális szabvány, amely meghatározza a mesterséges intelligencia irányítási rendszer (AIMS) létrehozásának, bevezetésének, fenntartásának és folyamatos fejlesztésének követelményeit a szervezetek számára.
A képzés célja:
- Olyan szakemberek felkészítése, akik képesek az ISO/IEC 42001:2023 szabvány szerinti mesterséges intelligencia menedzsment rendszerek (AIMS) értékelésére, auditálására és fejlesztésére.
- Miért fontos? Az AI-technológiák rohamos fejlődése komoly etikai, jogi és üzleti kockázatokat hordoz. Ezek kezeléséhez szükséges egy nemzetközileg elismert keretrendszer, amely egyszerre biztosítja a transzparenciát, az adatvédelmet (GDPR) és a jogszabályi megfelelést (EU AI Act).
- Ez az ISO szabvány az első olyan nemzetközi AI-menedzsment rendszer (AIMS) szabvány, amely segítséget nyújt a felelős, etikus és átlátható AI-szabályozás megteremtésében az üzleti és társadalmi gyakorlatban
A képzés szerepe:
- bemutatja az első, kifejezetten AI-ra szabott irányítási rendszer szabványát,
- megtanítja a résztvevőket arra, hogyan kell kockázatot azonosítani, megfelelést vizsgálni és ellenőrzést gyakorolni AI rendszerek felett,
- gyakorlati útmutatót ad ahhoz, hogyan lehet az AI-t felelősen, etikusan és üzleti szempontból is biztonságosan alkalmazni.
-
Képzés tematikája – ISO/IEC 42001:2023 AI Auditor
1. nap – Alapok, keretrendszerek és szabályozási háttér
- ISO/IEC 42001:2023 bemutatása – az első nemzetközi szabvány, amely az AI rendszerek irányítását és auditálhatóságát biztosítja.
- Miért fontos? Hogyan illeszkedik az AI menedzsment rendszerek felügyelete a meglévő ISO családba (ISO/IEC 27001, 27701, 9001)?
- Jogszabályi kontextus:
- GDPR: adatvédelem, személyes adatok kezelésének kockázatai AI rendszerekben.
- EU AI Act: kockázati kategóriák, kötelezettségek magas kockázatú AI rendszerek esetén.
- Kulcskérdés: Hogyan teremthető egyensúly az innováció és a jogszabályi megfelelés között?
2. nap – Az AIMS felépítése és kockázatmenedzsment
- AIMS struktúrája és működése: PDCA-ciklus alkalmazása mesterséges intelligencia rendszerekben.
- Kockázatok azonosítása: torzítás, átláthatóság, etikai dilemmák, adatvédelmi megfelelés.
- Kapcsolódás a GDPR-hoz: adatminimalizálás, célhoz kötöttség, biztonsági intézkedések.
- Kapcsolódás az AI Act-hez: dokumentációs követelmények, kockázatértékelési folyamat.
- Gyakorlat: résztvevők csoportmunkában készítenek kockázati térképet egy AI rendszerhez.
3. nap – Auditálási gyakorlat AI rendszerekben
- Auditlépések: tervezés, kérdéslista összeállítása, bizonyítékgyűjtés, interjútechnika, jelentéskészítés.
- GDPR-audit AI rendszerekben: adatkezelési folyamatok ellenőrzése, megfelelőségi bizonyítékok.
- AI Act megfelelés vizsgálata: kockázatcsökkentő intézkedések, átláthatósági elvárások.
4. nap – Integráció más szabványokkal és best practice
- ISO/IEC 42001 és más szabványok kapcsolata:
- ISO/IEC 27001 (információbiztonság),
- ISO/IEC 27701 (adatvédelem),
- ISO/IEC 22989 és 23894 (AI fogalmi keret és kockázatkezelés).
- GDPR és AI Act integrációja: hogyan lehet az AIMS-t úgy bevezetni, hogy teljesen lefedje az uniós jogi megfelelést?
- Best practice példák: nemzetközi szervezetek tapasztalatai az AI szabályozásáról és menedzsmentjéről.
5. nap – Esettanulmányok és vizsga
- Valós esettanulmányok feldolgozása:
- Hogyan bukott el egy AI rendszer a GDPR miatt?
- Hogyan állította le egy cég fejlesztését az AI Act követelmények hiánya?
- Mit jelent a „felelős AI” az üzleti gyakorlatban?
- Komplex zárófeladat: egy AI rendszer teljes auditfolyamatának modellezése a résztvevők által.
- Vizsga: elméleti és gyakorlati kérdések. Sikeres teljesítés esetén a résztvevők megkapják az auditor minősítést.
Összegzés – Mit ad a képzés?
- Nemzetközi szabvány szerinti felkészültséget az AI rendszerek auditálásához.
- Jogszabályi tudást a GDPR és az AI Act alkalmazásáról.
- Gyakorlati tapasztalatot auditok, kockázatelemzések és megfelelőségi vizsgálatok során.