Megszavazta az Európai Parlament – a világon elsőként – a mesterséges intelligencia szabályozását

HírKlikk 2024. március 15. 10:50 2024. márc. 15. 10:50

Március 13-a nagy napként vonulhat be a mesterséges intelligencia történetébe: az Európai Parlament elfogadta a Mesterséges Intelligencia Rendeletet, amely, a világon elsőként, szabályozza a mesterséges intelligencia felhasználását. Hatásköre az Európai Unióra és az Európai Gazdasági Térségre terjed ki és alapfilozófiája az emberi jogok védelme a technológia mindenhatóságában bízó vagy a profitot minden korláton túl maximalizáló törekvésekkel szemben. A rendelet úgy igyekszik ezt a védelmet elérni és a visszaéléseket megakadályozni, hogy ne szorítsa indokolatlan korlátok közé a fejlődést.

Az EU-t gyakran éri az a vád, hogy az innováció támogatása helyett inkább szabályoz. Az azonban már látható, hogy az amerikai, önszabályozásban bízó modell nemcsak kitermeli az új területeken a sikeres nagy játékosokat, ezeknek olyan hatalmat biztosít, amely már a további innováció gátja lehet. A Facebook, a ma már X-nek nevezett Twitter vagy akár a Microsoft mellett senki nem tud labdába rúgni. Ráadásul a hirdetéssel életben tartott, látszólagos ingyenességen alapuló működés olyan manipulációs lehetőséget biztosít, amelyet, ha nem ők manipulálnák, ezek a nagy szereplők se tudnák kontrollálni. Ez a Brexit-népszavazás és több legutóbbi választás alkalmával bebizonyosodott, néha botrányokat okozva (mint a Cambridge Analytica esetében), néha pedig a felderíthetőség hiányában elhaltak a vizsgálatok, mint az amerikai választások esetén.

Képzeljük el ugyanezt egy, az eddigieknél sokkal hatékonyabb eszköz esetén, és látható, hogy mi forog kockán. Eddig is cikkek és könyvek sokasága boncolgatta, hogy hogyan lehetne elérni a mesterséges intelligencia etikus, előrevivő használatát és lenyesegetni a vadhajtásokat, Európa pedig most lépett. Az előírások csak részben korlátozók, a kockázatok megfelelő kezelése és a megkívánt átláthatóság mellett lehet használni a mesterséges intelligenciát, csak a legkockázatosabb alkalmazások esnek tiltás alá. A megközelítés tehát differenciált: az adott felhasználás kockázatától függ. Az európai innováció segítése érdekében a legnagyobb szabadságot az ingyenes és szabad forráskódú applikációk számára biztosítja a szabályozás – az átláthatóságot a forráskód megismerhetősége biztosítja, korlátozás pedig nincs. A Mistral nevű európai startup eredményesen lobbizott ennek érdekében – az eredmény ismeretében mégis más utat választott: összeállt a Microsoft-tal, ezzel elárulva európai jellegét és legalábbis közvetve feladva ingyenességét (azt látni kell, noha már-már közhelynek számít, hogy a látszólag ingyenes alkalmazásokért sokszor az adatainkkal fizetünk).

A skála másik végén találhatók a manipulatív technikák, a sebezhetőségeket, emberi gyengéket kihasználó rendszerek, a szociális célú értékelés és az arcképek válogatás nélküli begyűjtése, ezek egyszerűen tilosak. Itt már nem volt egyszerű a két jogalkotó, az Európai Parlament és a Tanács vitája: a tagállami kormányok szakminisztereiből álló Tanács maximális cselekvési szabadságot szeretett volna biztosítani az állambiztonsági és bűnüldöző szervek számára, míg a Parlament korlátozni szerette volna a beavatkozást az állampolgárok magánéletébe, mert hamis eredményekre vezethetnek. Ezt a ChatGPT sok felhasználója tapasztalhatta már, élő személyekről kitalált gyászbeszédeket kreált, nemlétező irodalmi hivatkozásokat adott meg, stb.

Persze nem csak a magánélet van veszélyben, hanem a nem megfelelően működő modellek és rendszerek is. Az intelligenciának, mint egy gyereknek vagy szakembernek, először „tanulnia” kell. Erre hatalmas adatbázisokat használnak, amelyeket kiértékel és ennek során megismeri, hogy hogyan kell dolgoznia. Minél több adatból minél többet „gyakorol”, annál jobb az eredmény. Ezeket az adatokat azonban nem egyszerű összeszedni és sokszor ezek felhasználása megsérti a szerzői (illetve szellemi) tulajdonhoz fűződő jogokat vagy a személyes adatok védelmét. A kockázatok egyik forrása lehet az is, ha kiegyensúlyozatlan az adatbázis, amellyel ezeket a rendszereket „betanítják”, mert ez határozza meg, hogy a beadott vagy észlelt információkból milyen következtetést fog levonni a mesterséges intelligencia.

A nagy kockázatú alkalmazások bűnüldözési célú felhasználásának kérdésében végül kompromisszum született: egyes felhasználások megfelelő jogi garanciák mellett súlyos bűncselekmények megelőzése, felderítése és vizsgálata céljára engedélyezettek, például a biometrikus adatokon (ezek alatt általában az ujjlenyomatot vagy az íriszfelismerést értjük, de ide tartozik az arcfelismerő eszközök segítségével történő azonosítás is) alapuló távoli azonosítás, tehát például a biztonsági kamerák felvételeinek mesterséges intelligencián alapuló, arcfelismerő szoftverekkel történő elemzése is. Az érzékeny személyiségjegyek, mint a rassz, politikai nézetek és vallásos meggyőződés alapján történő biometrikus kategorizálás is ide tartozik.

Egyértelműen tilos viszont érzelemfelismerésen alapuló elemzés munkahelyi vagy oktatási környezetben. A jogalkotás egyik legfontosabb fóruma a jogszabályokat javasló Bizottság és az azokat végül megszavazó Parlament és Tanács közötti trialógus, ennek során alakult ki a bűnüldözésre vonatkozó fenti kompromisszum és itt állapodtak meg abban is, hogy a balesetveszély csökkentésére szolgáló, például a sofőrök éberségét vizsgáló, ellenőrző eszközök nem esnek ez alá a tilalom alá.

A két szélső kategória között van két másik: a nagy kockázatú és az átlagos kockázatú csoport. Ezekre különböző szintű átláthatósági és felügyeleti intézkedéseket ír elő a rendelet. A betanításra használt adatokról megfelelően részletes információt kell nyilvánosságra hozni – a Tanács elérte, hogy ennek korlátja legyen, ha ez az üzleti titkot sérti. Könnyen felismerhetővé kell tenni a mesterséges intelligencia által generált tartalmat.

A felügyeleti rendszer kétszintű: tagállamonként felhatalmazott hatóságok végzik, amelyeket egy Európai Mesterséges-intelligencia–testület fog össze. Az Európai Bizottság kötelékében létrejövő MI Hivatal pedig az alapmodellek követelményeit tartatja be. Költségvetésének biztosítására a tagállamok kötelezettséget vállaltak. Az még nem világos, hogy minden tagállamban létrejön-e egy új hatóság, vagy, ahogy több helyen rebesgették, a jelenlegi adatvédelmi hatóságokat bízzák meg ezzel a feladattal.

Még hátra van a formális elfogadás a Tanácsban, de ez tényleg csak formalitás, mert a Tanács utolsó változatához képest nem változott a szöveg. A Parlamentben többen kifogásolták, hogy a konkrét szöveg több jogot ad a bűnüldözés céljaira, mint az az elfogadott politikai megállapodásban szerintük szerepelt, de mégis megszavazták a rendeletet. A legtöbb előírás két évvel a kihirdetés után lép hatályba, de a tiltások már hat hónap után élesednek, a nagy kockázatú rendszerekre és a nagy teljesítményű modellekre vonatkozó szabályokat pedig egy év után kell alkalmazni. A felügyeleti és irányítási testületeket szintén egy éven belül létre kell hozni, a Bizottság keretén belül pedig már fel is állt a mesterséges intelligencia hivatal.

Szabó S. László