EU AI Act tanácsadás és felkészítés

Készüljön fel az EU AI Act-nek való megfelelésre a BDO Digital segítségével!

Készüljön fel az EU AI Act-nek való megfelelésre a BDO Digital segítségével!

Szakértő csapatunk segítségével felkészülhet az Európai Unió mesterséges intelligencia törvénye által előírt kötelezettségekre.

  • Azonosítsa vállalatánál a magas kockázatú AI alkalmazási eseteket;
  • Alkalmazzon arányos és célszerű kockázatkezelési intézkedéseket az azonosított kockázatok mérséklésére;
  • Teljesítse a műszaki dokumentációs követelményeket;
  • Építsen be munkafolyamataiba automatizált eszközöket a hagyományos emberi felügyelet mellé, ezzel csökkentve a kockázatokat és lehetővé téve a felhasználók számára az eszközök megértését, értelmezését és biztonsággal történő használatát.








Hogyan támogatja Önt a BDO Digital szakértő csapata az EU mesterséges intelligencia törvényre való felkészülésben?

  • Értékelés: segítünk azonosítani és csoportosítani az AI alkalmazási eseteit a kockázat magassága szerint, így pontosan tudni fogja, mely rendszerek tartoznak a magas kockázatú kategóriába, amelyek különös figyelmet igényelnek.
  • Kockázatkezelés: segítünk az Ön vállalatának a kockázatkezelési követelmények pontos megértésében és a megfelelő kockázatcsökkentő intézkedések kialakításában.
  • Adatgazdálkodás: támogatjuk az adatgazdálkodás megfelelő gyakorlatának kialakítását.
  • Dokumentáció: segítünk a kockázatkezelési dokumentáció elkészítésében.
  • Emberi felügyelet: segítünk beépíteni az emberi ellenőrzés folyamatát az AI rendszerekbe, hogy biztosítsa a megfelelő ember-gép interakciót és a kockázatok megelőzését.
  • Minőségmenedzsment: segítünk kialakítani és dokumentálni a minőségirányítási rendszert, szabályzatokat, eljárásokat és utasításokat tartalmazó dokumentáció formájában.
  • EU megfelelőségi nyilatkozat: Útmutatást nyújtunk a megfelelőségi nyilatkozat kidolgozásában.
  • Incidensjelentés: segítünk kidolgozni a súlyos incidensek jelentésének folyamatát, biztosítva, hogy a vállalatok megfeleljenek a jelentési kötelezettségeknek a hatóságok felé.

Mi az EU mesterséges intelligencia törvénye?

Az EU mesterséges intelligencia törvénye (AI Act) egy unión belüli szabályozás, amely kockázatkezelési, átláthatósági és jelentéstételi kötelezettségeket ír elő minden olyan vállalat számára, amely mesterséges intelligencia alapú rendszert vezet be az EU piacára, illetve azoknak a vállalatoknak, amelyek rendszereinek kimeneti adatát és értékeit az EU-n belül használják (függetlenül attól, hogy hol fejlesztették vagy telepítették a rendszereket). Az Európai Parlament 2024. március 13-án fogadta el a mesterséges intelligencia törvényt, a végső változatot pedig 2024. július 12-én tették közzé a hivatalos közlönyben.

Az EU mesterséges intelligencia törvénye 2024. augusztus 1-jén lépett hatályba, jelezve az érvényre juttatási határidők kezdetét.

Mesterséges intelligencia alapú rendszerek kockázati besorolása


  1. Az "elfogadhatatlan kockázat" kitétel olyan AI rendszerek vagy használati esetek kategóriájára utal, amelyek olyan mértékben fenyegetik az emberek biztonságát, az alapvető jogokat vagy a demokratikus értékeket, hogy azok használata tilos vagy erősen korlátozott az Európai Unióban. Ezek a rendszerek többnyire olyan körülmények között alkalmazott mesterséges intelligenciát jelentenek, ahol a következmények rendkívül súlyosak lehetnek, például alapvető emberi jogok sérülése vagy a demokratikus folyamatokba való beavatkozás. Az EU mesterséges intelligencia törvény (EU AI Act) keretében az elfogadhatatlan kockázatú AI rendszerekkel szembeni megközelítés szigorú. Bizonyos alkalmazások, például a tömeges megfigyelést és értékelést lehetővé tevő rendszerek gyakran az elfogadhatatlan kockázatú kategóriába esnek.
  2. A tilalmak és korlátozások bevezetésén túl az olyan AI rendszerek, amelyek elfogadhatatlan kockázatot jelentenek, a következő szankciókkal járhatnak:
    • Az ilyen típusú AI használatát teljes egészében betilthatják az EU területén.
    • Szigorú büntetőintézkedések és pénzbírságok kerülhetnek alkalmazásra azokkal szemben, akik a törvényi tilalmak ellenére ezeket a rendszereket használják vagy értékesítik.
    • A jogalkotók lehetőséget kapnak arra, hogy további korlátozásokat vezessenek be az AI technológia bizonyos használati eseteire, ha úgy ítélik meg, hogy azok elfogadhatatlan kockázatot jelentenek a társadalomra nézve.
  3. A vállalatoknak és fejlesztőknek szigorúan be kell tartaniuk az EU AI törvényének előírásait, hogy elkerüljék az elfogadhatatlan kockázatú AI alkalmazások kockázatait és jogi következményeit.
  1. A "magas kockázat" kategória olyan AI rendszereket jelent, amelyek potenciálisan jelentős károkat okozhatnak az emberek biztonságában, szabadságában vagy alapvető jogai tekintetében. Ezek a rendszerek gyakran kritikus alkalmazási területeken vannak jelen, például az egészségügyben, a közlekedésben, a bírósági rendszerekben, vagy a munkaügyi piacon, ahol döntéseik közvetlenül befolyásolhatják az emberek életét, jólétét vagy jogi státuszát.
  2. Az EU mesterséges intelligencia törvénye különösen szigorú szabályozást ír elő a magas kockázatú AI rendszerekre vonatkozóan, amely magában foglalja:
    • Szigorú teljesítési előírások rendszeres ellenőrzése és validálása.
    • Az alkalmazható etikai és jogi követelményeknek való megfelelőség alapos bizonyítása, beleértve az adatvédelmet, az átláthatóságot és a számonkérhetőséget.
    • A kockázatkezelésre vonatkozó specifikus elvek és protokollok kidolgozása és alkalmazása.
    • Megbízható emberi felügyelet biztosítása, hogy maximalizálják a döntéshozatali folyamatok ellenőrzését és szabályozását.
    • A felhasználók és az érintettek részére történő teljes transzparencia és megfelelő tájékoztatás.
    • Incidensjelentési és piacfelügyeleti kötelezettségek teljesítése, különösen súlyos incidensek vagy működési zavarok esetén.
  3. A magas kockázatú AI rendszerek szabályozása tehát különös odafigyelést igényel, és a vállalatoknak szigorú megfelelőségi keretrendszer szerint kell eljárniuk annak érdekében, hogy eleget tegyenek az EU mesterséges intelligencia törvényi előírásainak.
  1. A „korlátozott kockázat” egy olyan kockázatértékelési kategória, amely alacsonyabb kockázatot jelent az emberek biztonságára, szabadságára vagy alapvető jogaira nézve. Az EU mesterséges intelligencia törvényében a kockázat különböző szintjeihez különböző szabályozási követelmények társulnak. Az alacsony vagy korlátozott kockázatú AI rendszerrel összefüggő követelmények jellemzően lazábbak, mint a magas kockázatú AI rendszerek esetében, ezért pontosan kell érteni, hogy a saját AI rendszere vagy szolgáltatása milyen kategóriába esik a törvény értelmében. A korlátozott kockázatú AI esetében a vállalatokat esetleg kevésbé szigorú követelményeknek kell megfelelniük, mint például az átláthatóság, felhasználók tájékoztatása vagy az etikai irányelvek betartásának tekintetében. Fontos azonban megjegyezni, hogy még a korlátozott kockázat esetében is vannak bizonyos kötelezettségek, amelyeknek meg kell felelni, mint például az adatvédelmi szabályok betartása vagy az AI rendszerek felhasználói tájékoztatása.
  1. Ez a kockázatértékelési kategória azokat az AI alkalmazásokat és rendszereket foglalja magában, amelyeknek az emberek biztonságára, szabadságára vagy alapvető jogaira gyakorolt hatása elhanyagolható vagy alig mérhető. A minimális kockázat kategóriában lévő mesterséges intelligencia rendszerek általában nem tartalmaznak komolyabb felügyeleti vagy szabályozási kötelezettségeket a jogalkotók részéről, mivel alacsony a károkozási esélyük. Az EU mesterséges intelligencia törvényében a minimális kockázatú AI alkalmazások gyakran nem kerülnek szigorú szabályozás alá. Ehelyett a hangsúly a felhasználók biztonságának és az alapvető jogok tiszteletben tartásának biztosításán keresztül kerül az etikus és átlátható AI előmozdítására. Az ilyen alkalmazások esetében, mint például chatbotok vagy AI-támogatott tartalomszűrési rendszerek, a szabályozói keretek elsősorban az adatvédelmi és a felhasználók jogainak és érdekeinek védelmére koncentrálhatnak. Bár a minimális kockázatú AI rendszerek kevésbé szigorú előírásoknak vannak alávetve, a fejlesztőknek és beszállítóknak továbbra is figyelembe kell venniük az adatvédelmi előírásokat és egyéb releváns jogszabályokat, valamint biztosítaniuk kell az AI-rendszer etikus és felelősségteljes használatát.

Büntetési tételek az Európai Unió AI Act által előírt kötelezettségek nem teljesítése esetén:

  • Tiltott AI használat: kiszabható büntetési tétel akár a globális árbevétel 7%-ig vagy 35 millió euróig*
  • Helytelen, hiányos vagy félrevezető információ szolgáltatása az illetékes testületeknek és hatóságoknak: kiszabható büntetési tétel akár a globális árbevétel 1%-ig vagy 7,5 millió euróig*
  • Egyéb jogsértés és nem megfelelés: kiszabható büntetési tétel akár a globális árbevétel 3%-áig vagy 15 millió euróig*

*Melyik a magasabb. A kis- és középvállalkozásokra (KKV-k) és a startupokra a két összeg közül az alacsonyabb vonatkozik.


EU AI ACT2

Mi a vállalkozás felelőssége?

Amennyiben az Ön szervezete az EU piacára szánt mesterséges intelligencia (AI) rendszereket fejleszt vagy használ, az Ön felelőssége kiterjed a rendszerek megfelelőségének az EU mesterséges intelligencia törvény szerinti biztosítására.

A vállalat rendszereinek kockázati besorolásától függően a vállalkozásoknak különböző szintű kötelezettségekkel kell számolniuk, amelyek magukban foglalhatják:

  • Regisztráció: Az összes használati eset regisztrálása az EU adatbázisában, mielőtt az AI megoldást bevezetnék a piacra vagy használatba veszik.
  • Osztályozás: Az összes magas kockázatú AI alkalmazási eset azonosítása.
  • Kockázatkezelés: Megfelelő és célzott kockázatkezelési intézkedések elfogadása az azonosított kockázatok mérséklésére.
  • Adatgazdálkodás: A magas minőségű képzési adatok használatának megerősítése, a megfelelő adatgazdálkodási gyakorlatok betartása, valamint a datasetek relevanciájának és elfogulatlanságának biztosítása.
  • Műszaki dokumentáció: Olyan rekordok vezetése, amelyek a megfelelőség értékeléséhez szükséges információkat tartalmazzák, és megkönnyítik a piacra lépés utáni ellenőrzést (pl. a rendszer általános jellemzői, képességei és korlátai, algoritmusok, adatok, képzési, tesztelési és validálási folyamatok, valamint a megfelelő kockázatkezelési rendszer dokumentálása, érthető és átfogó formában). A műszaki dokumentációt naprakészen, megfelelően kell karbantartani az AI rendszer élettartama alatt (megjegyzés: magas kockázatú AI rendszereknek technikailag lehetővé kell tennie az események automatikus rögzítését (naplók) a rendszer élettartamának teljes ideje alatt).
  • Emberi felügyelet: Ember-gép interfész eszközök beépítése a kockázatok előzetes megelőzésére vagy minimalizálására, lehetővé téve a felhasználók számára ezeknek az eszközöknek a megértését, értelmezését és magabiztos használatát.
  • Pontosság és biztonság: Az AI rendszer teljes életciklusa alatt állandó pontosság és a releváns kiberbiztonsági intézkedések biztosítása.
  • Minőségmenedzsment: A magas kockázatú AI rendszerek szolgáltatóinak rendelkezniük kell egy rendszeresen dokumentált minőségirányítási rendszerrel, írott szabályzatok, eljárások és utasítások formájában.
  • EU megfelelőségi nyilatkozat: A magas kockázatú AI rendszerek megfelelőségi nyilatkozatának megléte és frissítése.
  • CE megjelölés: A CE megjelölés látható, olvasható és halványíthatatlan módon történő felhelyezése vagy digitálisan elérhető formában digitális rendszerek számára, ezzel jelezve a megfelelőséget az általános elvek és az alkalmazandó Európai Uniós törvények szerint.
  • Incidens jelentés: Az Európai Unió piacára bevezetett magas kockázatú AI rendszerek szolgáltatóinak be kell jelenteniük minden súlyos minősítésű incidenst az EU tagállamainak piacfelügyeleti hatóságainál, ahol az incidens történt (azonnal miután a szolgáltató megalapozottan megállapította az AI rendszer és a súlyos incidens közötti ok-okozati kapcsolatot vagy az ilyen kapcsolat valószínűségét, és minden esetben legkésőbb 15 nappal azután, hogy a szolgáltató vagy adott esetben a telepítő tudomást szerzett a súlyos incidensről).

Kapcsolat

Vadász Gábor

Gábor Vadász

Digital | Chief Technology Officer
View bio

KAPCSOLAT: