A mesterséges intelligencia (MI vagy AI) térhódítása példátlan a technológiák történetében. Míg egyes országok, mint az USA vagy Kína a technológiai, és ezzel gazdasági dominancia kulcsát látják benne, és ehhez mérten mindent megtesznek, hogy uralják az AI-teret, addig az EU egy konzervatívabb, a szabályozói keretrendszer kialakításán nyugvó szerepkört kíván magára venni. De mit ér a szabályozási hatalom egy olyan iparágban, amelyben maguk a fejlesztők sem mindig értik, mi történik?
Simán vette az elfogadása útjában álló utolsó nagy akadályt az Európai Unió mesterséges intelligenciáról szóló törvénye: a tagállamok nagyköveti képviselői a múlt heti csúcstalálkozó után megszavazták a jogszabály végleges szövegét.
A rendeletet megerősítő tanácsi döntés – amelyet a belga elnökség jelentett be – már önmagában is nagy eredmény, mert a kockázatalapú mesterséges intelligenciáról szóló rendelettel szemben az utóbbi időben egyre nagyobb volt az ellenállás – főként elsősorban az AI-val fogalkozó technológiai óriások, valamint a tech-startupok nemzeti védelmét harsogó politikai erők, így bizonyos tagállamok részéről is.
A most létrehozott kompromisszum, azaz a végleges szöveg késedelme ráadásul azzal fenyegetett, hogy az egész rendelet megfeneklik, és teljes újratárgyalásra – tekintettel a közelgő európai parlamenti választásokra és a jelenlegi Európai Bizottság mandátumának idei lejártára – nem lenne már idő.
A múlt heti fejlemények fényében ugyanakkor már csak egy utolsó, lényegében informatív megerősítés hiányzik ahhoz, hogy az uniós AI-törvény életbe lépjen. Az Európai Parlament illetékes bizottságában és a plenáris ülésén is végső szavazást tartanak a kompromisszumos szövegről, mivel azonban van tagállami kompromisszum, ennek vélhetően a frakciók sem tesznek keresztbe. Azaz:
az EU mesterséges intelligenciáról szóló törvényének elfogadása elvben akár még nyár előtt várható.
Európa az AI megregulázásán tevékenykedik
Az Európai Unió világgazdasági szerepe az elmúlt években a technológiai óriáscégek regulázásában testesült meg. Margrethe Vestager dán politikus, uniós versenyjogi biztos vezénylésével az Európai Bizottság Versenyhivatala és Digitális Bizottsága sorra regulázta meg a gigászokat. Gondoljunk csak a Google ellen indult trösztellenes eljárásra, az Amazon vagy a Starbucks adóelkerülési megoldásainak szankcionálására, vagy az Apple „átállítására” az USB-C szabványra.
Most úgy látszik, hogy az új technológiai paradigma hajnalán, Európa a mesterséges intelligencia megregulázásán tevékenykedik.
Az EU AI-dogma
Az Európai Unió időben kapcsolt és előállt egy MI szabályozói keretrendszerrel, aminek korai változatát még 2021-ben terjesztették elő. A Bizottság tanulva a közösségi média szabályozása körüli fiaskóból, sokkal óvatosabban igyekszik megközelíteni a mesterséges intelligencia regulációját. Alapvetően a keretrendszer kockázati alapon próbálja meg leírni és összefogni az AI-ra vonatkozó szabályokat, de a ChatGPT megjelenésével előre törő Generatív AI megoldások például már saját körvonalakat kaptak a csomagban.
A piramis tetején található elfogadhatatlan kockázatokkal bíró MI-megoldásokat potenciális fenyegetésként kezelné a szabályozói keretrendszer, és ezért minden esetben betiltásra kerülnének. Ilyen megoldások lehetnek:
- egy sebezhető embercsoport (például kisgyerekek) kognitív- és viselkedési manipulációra alkalmas megoldások;
- a szociális osztályozó rendszerek;
- a biometrikus adatokon alapuló kategorizáló és osztályozó rendszerek (WorldCoin); valamint
- a valósidejű biometrikus azonosító rendszerek.
Természetesen a szabályozás kiemeli, hogy nemzetbiztonsági és bűnmegelőzési szempontok mentén a biometrikus azonosítás tiltása indokolt esetben feloldható lenne.
A következő kockázati besorolás a magas kockázatú megoldásokat foglalná össze, ide biztonsági vagy alapjogi kérdéseket érintő mesterséges intelligenciáek tartoznak, azon belül és két kategória szerint:
- Az első kategóriába az olyan megoldások tartoznak, ahol az AI az EU termékbiztonsági előírásai által szabályozott eszközökbe kerül beépítésre, mint autók, repülőgépek, vagy akár játékok, orvosi eszközök, liftek.
- A második kategóriába tartozó megoldások kötelező jelleggel regisztrálandók az erre létrehozott EU-s adatbázisokban. Ide tartoznak:
- a különböző kritikus infrastruktúra elemek működtetésére létrehozott rendszerek,
- az oktatási célú megoldások,
- a munkaerő-menedzsmenthez kapcsolódó rendszerek,
- az alapellátásokhoz való hozzáférést szabályzó megoldások,
- a rendvédelmi szervek által használt eszközök,
- a migrációhoz, menedékjogi kérvényekhez köthető rendszerek, valamint
- a jogi interpretációban részt vállaló mesterséges intelligenciák.
Minden magas kockázatú AI-rendszert tüzetesen átvizsgál majd az Európai Bizottság szakértői szerve, mielőtt azt a piacra engednék.
A piramisból kiragadott, Generatív AI rendszerek szabályozásának lényege, hogy meg kell felelniük az alábbi követelményeknek:
- Fel kell tüntetni, hogy a tartalmat AI generálta.
- Úgy kell létrehozni a modellt, hogy az ne tudjon illegális tartalmakat előállítani.
- A fejlesztőknek rendszeres összefoglalókat kell publikálniuk a Mesterséges Intelligencia betanítása során használt jogvédett anyagokról.
A Bizottság által limitált kockázatúnak ítélt AI-eszközöknek a fogyasztók transzparens tájékoztatását érintő követelményeknek kell megfelelniük. Ezek célja az lesz, hogy a felhasználók megalapozott döntéseket tudjanak hozni a felhasználással kapcsolatban és tudomásukra kell adni, ha éppen egy MI-megoldással lépnek kapcsolatba.
A limitált kockázatú rendszerek közé tartoznak a képi-és videós tartalmakat manipuláló eszközök, mint a deepfake.
A minimális kockázatú AI-rendszerek fejlesztőinek semmilyen szabályozó felé fennálló kötelezettsége nincs, de az uniós tervezet tartalmaz egy, úgynevezett magatartási kódexre vonatkozó javaslatot is, aminek elfogadásával a minimális- és limitált kockázatú szolgáltatók is önkéntes alapon a magas kockázatú AI-megoldásoknak megfelelő szabályok mentén működnének.
Jó szándékkal is a történelem rossz oldalára lehet kerülni
Noha az EP illetékes bizottsága és plenáris ülése heteken belül szavazhatna róla, a kritikusok lobbiereje nem alábecsülendő. Annyira nem, hogy sokak szerint egyáltalán nem valószínű, hogy 2026 előtt hatályba is lép majd a mostani szabálycsomag. Ráadásul a jogszabály fokozatos hatálybalépést ír elő, azaz a rendelet lényegében egy évet hagy az alapmodellekre (azaz az általános célú mesterséges intelligenciára) vonatkozó szabályok alkalmazása előtt. A többi szabály nagy része csak a törvény kihirdetését követő két év múlva lesz alkalmazandó – azaz még egy idei elfogadás esetén is csupán 2026-tól.
Tekintettel az MI-megoldások fejlődési ütemére, a törvény bírálói szerint könnyen előfordulhat, hogy a most megfogalmazott szabályhalmaz az életbe lépésének idején már használhatatlan lesz.
De számos egyéb ellenérvet is megfogalmaztak már a szabályozási tervek kritikusai, kezdve azzal, hogy
- az egyes kategóriák és azok feltételei túl homályosak, általánosak;
- a szabályozás csak az EU-ban fejlesztett és üzemeltettet megoldásokra vonatkozik;
- a szabályozás betartatása a tagországok hatáskörébe kerül, ami inkonzisztenciákhoz vezethet;
- néhány „alacsony kockázatúnak” ítélt megoldás katonai és bűnüldözési szervek kezében „magas kockázatú” is lehet.
Továbbá sokan bírálják az EU-t amiatt is, hogy ahelyett, hogy egy geopolitikai bizonytalanságokkal sújtott időszakban nagy erőkkel belépne a technológiai tér feletti irányításért zajló „fegyverkezési versenybe”, inkább szabályozói oldalról próbálja meg kiharcolni globális autoritását, ami nem sült el túl jól az internetes technológiai „űrverseny” előző szakaszában sem.