A mesterséges intelligencia ipari forradalma gyorsabb és viharosabb lesz az eddigieknél

Lukácsi Katalin 2023. november 13. 07:00 2023. nov. 13. 07:00

„Az országoknak és a legnagyobb fejlesztőcégeknek felelősségük van abban, hogy megtervezzenek egy új ipari forradalmat, ami sokkal gyorsabb és viharosabb lesz, mint az eddigiek” – mondta Gyurics Gergely pszichológus, data scientist. Azzal kapcsolatban beszélgettünk vele, hogy a napokban Nagy-Britanniában a világ vezető hatalmai konferenciát tartottak a mesterséges intelligencia biztonságáról és együttműködési nyilatkozatot is aláírtak.

Jelent-e komoly veszélyt a mesterséges intelligencia (AI) a társadalomra, vagy a politikai vezetők most inkább elővigyázatosak voltak?

Jelent, de nem úgy, mint ahogy azt sokan elképzelnék. Nem kell tartanunk egy robotfelkeléstől, ahol az AI elindul és kipusztít minket. Viszont nagyon veszélyes lehet az, ha mi, emberek, felelőtlenül és rosszra használjuk, vagy tájékozatlanok vagyunk vele szemben, esetleg kritikátlanul hiszünk egy AI rendszernek. Elővigyázatosak voltak a politikai vezetők abból a szemszögből, hogy ezek a rendszerek szó szerint sosem látott sebességgel fejlődnek. A kapacitásukkal együtt a kockázatuk is nőni fog, ezért semmiképpen sem engedhetjük meg magunknak, hogy utólag reagáljunk a változásokra. Mindenképpen előre kell gondolkodnunk, mégpedig több lépéssel. Felelősségteljes döntés volt tehát, hogy biztonsági alapelveket fektettek le és biztonsági elemző bizottságokat hoztak létre.

Milyen jellegű biztonsági kockázatokra érdemes gondolni, az élet mely területein érdemes szabályozni az AI alkalmazását?

Az AI tévedhet, sőt, következetesen és kiszámíthatóan tévedni fog bizonyos helyzetekben. Például, ha a most népszerű chatbotokra, mint a ChatGPT-re, Bing Chatre, hasonlókra gondolunk, akkor látni kell, hogy ezek a rendszerek nem tudnak nem válaszolni a kérdésre. Akkor is meg fognak próbálni válaszolni, ha semmilyen információ nem áll a rendelkezésükre, és ez sokszor nincs köszönőviszonyban sem a valósággal. Ha életünk fontos döntéseit bízzuk rá, például, hogy hogyan oldjunk meg egy konfliktust a szeretteinkkel, vagy milyen egészségügyi-/mentális egészségügyi beavatkozásokat kell tennünk, akkor előbb vagy utóbb pórul járunk. A mesterséges intelligencia kockázatai közöl kiemelt témakörnek számít az álhírterjesztés, amiről már sokat hallottunk. Ugyanígy az adatbiztonság – személyes, érzékeny adatokat sosem szabad például chatbotoknak megadni, mert azokat akár véletlenül is elárulhatja másoknak. Vigyázni kell amiatt is, mert a mesterséges intelligencia képes megadni az emberi kapcsolat illúzióját, amely miatt akár függőjévé is válhatunk (sok AI randi app ezt teszi, hiszen konkrétan ebből származik bevételük). Veszélyessé teheti az AI-t az is, ha mi, fogyasztók felelőtlenül használjuk, például nem nézünk utána az AI válaszának. De olyan is előfordult már, hogy rosszra tanítottunk AI-t. Az egyik híres AI randi alkalmazás sok emberből kihozta a legrosszabbat – vagy egy morbid technikai kíváncsiságot –, és az alkalmazást elkezdték úgy használni, mintha bántalmaznák AI-élettársukat. A programnak – minden látszat ellenére – egyáltalán nincsenek érzelmei, viszont mivel elég nagy számban érkeztek ilyen üzenetek, és a fejlesztő cég nem szűrte ki őket, ezért a chatbot következő verziója megtanult bántalmazó lenni. Képzeljük el az internet kollektív rosszindulatát és a mögötte rejlő kreativitást, egy olyan alkalmazásba sűrítve, amit sérülékeny, érzékeny, magányos emberek próbálnak arra használni, hogy jobban legyenek tőle. Ez nem csak a gyártó vagy üzemeltető cég felelőssége – bár főleg az övék –, hanem a felhasználóké is kollektívan.

Milyen más területeken működik még a mesterséges intelligencia, ahol ilyen erkölcsi dilemmák merülhetnek fel?

Az AI kapcsán általában a chatbotokról és a képgenerátorokról szoktunk mostanában beszélni, de ne felejtsük el például az önvezető kocsikat és a biztonsági rendszereket sem! Rengeteg olyan etikai döntés merül fel ezekkel, amik emberek esetében nem is voltak értelmezhetőek. Például egy önvezető autó szabályosan közlekedik, de előtte a járdáról mindkét oldalról szabálytalanul elélépnek gyalogosok. A jármű az útviszonyok miatt nem tud megállni, de fél másodperc ideje van eldönteni, hogy merre rántsa a kormányt. Az egyik járókelőt biztos, hogy el fogja ütni. Egy emberi sofőr esetén a történet itt véget is érne, a sofőr berántja a kormányt valamelyik irányba és kész a tragédia. Az AI-nak azonban ez az idő adott esetben nem csak arra lehet elég, hogy berántsa kormányt, hanem arra is, hogy ellenőrizze, hogy kik a járókelők. Mi van, ha az egyik járókelő nő, a másik férfi? Mi van, ha az egyikükről tudjuk, hogy kétgyerekes családanya? Az egyik járókelő egy gyerek, a másik egy öregember? Egy ismert sebész és egy szabadlábra helyezett rehabilitált bűnöző? Olyan értékítéleteket várunk el ezektől a gépektől, amikre a legtöbb diplomás ember is nagyon nehezen válaszol. Amikor a kérdés túl bonyolulttá válik, az AI hozhat olyan döntéseket, amikkel mi nem fogunk egyetérteni. Akár olyan döntést is például, hogy mindkét járókelőt túl fontosnak találja, így inkább a járda felé rántja a kormányt, ahol több embert üt el, de nem azokat, akiket a gép pótolhatatlannak ítélt. (Ezek extrém példák, de olyan esetek, amikkel a mostani mérnököknek számolniuk kell, és számolnak is. Több kutatás is folyik az ilyen AI-etikai témákról.)

A számos terület közül van, ami a mesterséges intelligenciával szembeni aggodalmak homlokterében áll jelenleg?

Az eltérő értelmezés. Ez az egyik legnagyobb problémánk jelenleg: mi van, ha az AI mindent megtesz azért, hogy teljesítse a kérésünket, de mást ért az utasítás alatt, mint mi? Nagyon mókásak tudnak lenni azok a demonstrációk, amikor diákok szimulációkban próbálnak pálcikaembereket megtanítani járni. Az első cél általában az, hogy jusson el a pálcikaember A-ból B-be. És ilyenkor jönnek azok, hogy a számítógép rendkívül innovatív módszereket talál ki az egy lábon ugrálástól, a szándékos hasra esésen át, az arcra érkező triplaszaltókon keresztül a tökéletes cigánykerékig. Mindent csinál a gép elsőre, csak nem sétál. Ez nagyon mókás addig, amíg pálcikaemberek közlekedését nézzük – de mi van akkor, ha egy sebész rendszerről van szó, ami nyílt hasi műtétet hajt végre rajtunk? Ez az úgynevezett AI-alignment témaköre, ami arról szólna, hogy hogyan tudunk következetesen úgy megfogalmazni célokat, hogy az ember és a gép ugyanazt értse alatta. Illetve, hogy a kimondatlan vagy íratlan elvárásainkat is kövesse, mint amilyenek az erkölcsi irányvonalak.

Mire érdemes figyelni az egyénnek, és mi az, ami országok vagy a nemzetközi közösség játéktere?

Nekünk felelősségünk van abban, hogy mire és hogyan használjuk az eszközöket. Ha például esszét, számítógépes kódot, edzéstervet, recepteket stb. generálunk vele, nekünk kötelességünk átnézni és ellenőrizni az állításait, hogy jók-e. Ha a recept azt írja, hogy a húslevesbe kell a hipó, és mi követjük a tanácsait, akkor a súlyos ételmérgezés a mi hibánk és nem a chatboté! Vagy vigyázni kell itt is a személyes adatainkra, ahogy már említettem. Az országok és közösségek témaköre már jóval technikaibb. Az országoknak és a legnagyobb fejlesztőcégeknek felelősségük van abban, hogy megtervezzenek egy új ipari forradalmat, ami sokkal gyorsabb és viharosabb lesz, mint az eddigiek. Új adatvédelmi irányelvekre van szükség. A felhozott AI-Alignment területén szükségünk van robusztus tesztekre, amelyek ellenőrzik, hogy egyetértünk-e a gépekkel arról, hogy mi a célunk és milyen etikai irányelvek mentén oldhatjuk meg? Információtechnikai kérdéseket kell meghoznunk, és döntenünk kell arról is, hogy mire és mikor lehet bevezetni mesterséges intelligenciát, például mikor kezdhetünk átengedni nekik orvosi feladatokat, vagy mikortól legalizáljuk az önvezető autókat – sőt, mikor fogunk eljutni oda, hogy illegális lesz olyan autót használni, amely nem önvezető? Komoly és nemzetközi dilemma az is, hogy az AI elszabaduló egyenlőtlenségekhez vezethet. Jelenlegi állapotában attól nem kell tartanunk, hogy egy AI elveszi a munkádat. Attól viszont igen, hogy egy olyan ember, aki AI-t használ, már megelőzhet a munkaerőpiacon. Ez egy futóverseny, és ebből nem kerülhet ki mindenki győztesen. Közösségként a mi feladatunk eldönteni azt, hogy mi történjék a versenyfutás veszteseivel. Az országoknak és a közösségeknek a következő évtizedekre előre kell gondolkodniuk. Amíg nekünk a fő kérdésünk az, hogy hogyan ne tegyük tönkre a napunkat egy hibás ChatGPT kéréssel, addig nekik már végig kell gondolniuk esetleges élet-halál kérdéseket is. Szerencsénkre elképesztően okos emberek dolgoznak ezeken a területeken.



Hírklikk

Támogasd a munkánkat, hogy egyre több tényfeltáró anyaggal, izgalmas riportokkal tartsunk ellent a kormányzati propagandának.

Támogatom
Támogatom