A Reaktor Podcast vendége Dr. Ifj. Lomnici Zoltán alkotmányjogász, ügyvéd, korábban az ELTE Állam- és Jogtudományi Karán az Alkotmányjogi Tanszék oktatója. A beszélgetés témája a mesterséges intelligencia, azon belül is annak fogalma, szabályozása, jogi kérdései és természetesen a mindenkit megosztó kérdések a témával kapcsolatban.
Röviden összefoglalva mi az a mesterséges intelligencia, amit valakik MI-nek, valakik AI-nek (Artificial intelligence) rövidítenek?
Valóban az Alaptörvény blogon foglalkoztam ezzel a kérdéssel nemrégiben. Abból az okból kifolyólag, hogy annyi hír van ezzel kapcsolatban már, amely a közpolitikában is akár a közjog területére betört, hogy nem lehet a kérdést megkerülni. De természetesen nem is szeretnék abban a szerepben tetszelegni, mint aki kibertechnikai szempontból, vagy a digitalizáció szemszögéből nézve teljes mértékben érti azt, ami most a beszélgetésünk tárgya.
De azt tudjuk viszont, hogy maga ez a megfoghatatlan tárgy, amit a jog is próbál egyébként definiálni különböző formákban, ez hatással van az emberi életre. És mint ilyen, rögtön felmerül a kérdés, hogy ha hatással van az emberek életére, akkor milyen hatással van.
Pozitív vagy negatív hatással, és egyáltalán ezt a kérdést kell-e jogilag rendezni?
Ugye annyit tudunk, hogy a mesterséges intelligencia bizonyos adatokat, információkat begyűjt, vagy megkap, ezeket szintetizálja, feldolgozza, és bizonyos reakciók születnek ebből, bizonyos következményei lesznek algoritmusok mentén, illetve digitális keretek mentén, amilyen lehetőségei vannak az adott digitális eszköznek. Ugye itt korábbról beszélek, tehát hogyha a mesterséges intelligencia különböző ismert formáit vesszük, akkor például egy keresőmotor, a Google keresőmotorja, amibe ha beírunk egy keresőszót, akkor arra fog rákeresni.
Tehát ez az a keret, amit a mesterséges intelligencia segítségével bonyolít ez a bizonyos keresőmotor, de az, hogy kiegészíti például automatikusan mondjuk egy mobiltelefon a szöveges üzenetünket, mert már megtanulta azt, hogyha két-három betű leütésre kerül, akkor mi következhet utána. Tehát felajánl egy lehetőséget, az is a mesterséges intelligenciából következik. Természetesen aztán az az algoritmus, hogy van egy streamingszolgáltató, és mi bizonyos filmeket nézünk, és felajánl nekünk hasonló tartalmakat, az is a mesterséges intelligencia keretében zajlik és segítségével. Tehát azt mondhatjuk, hogy jelen van az MI a mindennapi életünkben. Az a kérdés, hogy egyébként még hol van jelen és mióta ez nagyjából a történeti vetületet érinti.
Erről nagyon röviden csak annyit, hogy a katonai harcászati szférától kezdve az orvostudományon át a mesterséges intelligenciát, ha tetszik, nem tegnap kezdték el használni, hanem jóval régebben.
És eddig legalábbis azt a felgyorsuló folyamatot nem érzékeltük, ami az elmúlt hónapokban ezzel kapcsolatban tapasztalható volt.
Mielőtt még a jogi szabályozásra áttérünk, röviden beszélhetünk esetleg az előnyökről, hátrányokról. Nagyon élesen elkülöníthető két csoport a mesterséges intelligenciával kapcsolatban, hogy ki hova helyezi ezt, hogy jó-e vagy nem jó, illetve milyen veszélyeket rejt ez magában?
Igen, kiberkutatók, jövőkutatók, a robotikát valamilyen módon kutató, illetve formáló tudósok nyilvánvalóan azért többnyire méltatják ezt a technológiát természetesen, de az egyik, talán visszatérő elem lesz ez a bizonyos ChatGPT. Az egyik megnyilvánulása most, hogy az egyik kitüremkedése a mesterséges intelligenciának a megalkotó részéről, a társmegalkotó részéről, Elon Musk részéről, hogy általánosságban a ChatGPT is, meg nyilván a mesterséges intelligencia veszélyes jellege is megjelenik.
Tehát rögzítsük azt, hogy Elon Musk, aki ezt a kérdéskört átlátja, felhívja a mesterséges intelligenciával kapcsolatos folyamatok veszélyeire 2023-ban az emberek figyelmét.
Ami a veszélyek mögött lehet, az majd a jogi részben kifejtésre kerülhet. Általánosságban azt mondhatjuk, hogy ha valami emberi uralom alá van rendelve, azt az ember valamilyen módon kontrollálja. Ha ez elszabadul, akkor ez veszélyekkel jár.
Na, de mit mondanak a kritikusok, hogy az ember a vadállatokat is megpróbálta az uralma alá hajtani, és azért ez nem mindig sikeres ez a kapcsolat. Van, amikor az egyébként domesztikáltnak tűnő vadállat visszavág, sőt azt is mondhatjuk, hogy a háziállatoknál is tapasztalható. Egy nagyon egyszerű esetet hadd mondjak: a kutyatámadások, egy háziasított állat megtámadja az embert. Pedig hivatalosan az emberi uralom alá van hajtva.
Tehát én önmagában egyébként abban tragédiát nem látok, hogy ember által valamilyen módon alkotott, vagy a fejlődés folyamatába emberi beavatkozás által megváltoztatott entitás önálló útra lép, és ez veszélyeket is hordoz.
De nyilvánvalóan ezért az ember, hogyha próbálja megőrizni, mint humanoid, azt a pozícióját, hogy mégiscsak arra teremtetett bibliai alapon, hogy uralja a földön lévő folyamatokat. Ez a Bibliában még nincs kiterjesztve a mesterséges intelligenciára, de az állatvilág, növényvilág fölötti uralom, még egyszer mondom, bibliai értelemben, megilleti az emberiséget. Felelősen kell természetesen eljárni mindig kellő gondossággal, a gondos gazda gondosságával, de azért azt gondolom, hogy az nem baj, hogyha megalkot valamit az ember, és két nagyon fontos szempontot megemlíthetünk. Az egyik, hogy ne szabaduljon el teljesen. Illetve, amit egyébként az egyik társ megalkotója a ChatGPT-nek is hangsúlyozott, hogy ez az egész folyamat és az idézet is jól érthető, hogy legyen demokratikus. Tehát ne egy szűk elit kiváltsága legyen, hogy ezt megértse, hogy miről szól ez a folyamat, és ne egy szűk elit kiváltsága legyen, hogy a többséget ezáltal manipulálja, mert akkor ez egy veszélyes folyamattá válik, és maga a folyamat kontraproduktívvá válik.
Nyilván nehéz elhelyezni magát a mesterséges intelligenciát a jog világában. Hogyan értelmezhető ez a jogban? Szoftverként? Jogalanyként? Dologként? Miért szükséges az, hogy az MI részletesen, jogilag szabályozva legyen?
Valamiféle dolog vagy testi tárgy, mindenképpen, ha jogi keretbe kell foglalni. A Polgári Törvénykönyv szerint az egyébként szerzői jogot és szellemi tulajdont is érintő mesterséges intelligencia. Tehát valamilyen jogi kategóriába meggyőződésem szerint már most besorolható, de azért azt szögezzük le, hogy
olyan jogszabály például az Európai Unióban még, amely a mesterséges intelligenciára vonatkozik, még nem született.
Vitára bocsátottak 2020-ban egy spanyol képviselő által előterjesztett javaslatot, amelynek a vitája mostanság is zajlik, de még nincs kiforrott szabályozása az MI-nek. Azt mondhatjuk, hogy ha megint csak leegyszerűsítve vizsgáljuk a folyamatot, akkor ez a digitális fejlődés egy újabb mérföldköve. Ne feledjük el, hogy önmagában az megint csak nyúljunk vissza a múltbeli eseményekre, hogy valamit megcsinál az ember helyett, vagy az emberi munkát valamilyen módon transzformálja egy gép, az nem az első eset lenne. A legegyszerűbb természetesen az, hogy nem tollal vagy ceruzával írunk valamit a lapra, hanem begépelünk, és az egy speciális betűtípussal megjelenik, azt kinyomtatjuk, és hát mondjuk ezt, amit most elmondtam, ez erre új formában megjelenik. Szintén erre a legújabb digitális technológiára jó példa, hogy ma már a mobiltelefonok lehetővé teszik, hogy a mikrofonhoz való hozzáférést, és itt ugye ez már egy jogi kérdés, engedélyezzük a telefon számára. Az egy más kérdés, hogy engedélyezés nélkül is használja-e a mikrofont a telefon a hozzájárulásunk nélkül. De mindenesetre elegánsan például egy keresőmotornál rákérdez arra, hogy használhatja-e a mikrofont. Mi bemondjuk azt a kifejezést, amire szeretnénk, hogy rákeressen. És már írnunk sem kell, tehát már manuálisan sem kell foglalkoznunk ezzel a kérdéssel. Nem kell a kezünket használni, hanem elég egy hangüzenet, egy hangképzéssel előállított szó, amelyre aztán a keresőmotorrá keres.
Ami a mesterséges intelligenciával kapcsolatban egy új fejlemény, és akkor lehet, hogy itt több területet érintek ezáltal, de erről mindenképpen beszélni kell, hogyha kipróbáljuk ezt a bizonyos programot (ChatGPT), akkor ez azért számos újdonságot tartalmaz. Olyan újdonságokat, amely mutatja, hogy megtanították valamire ezt a gépezetet, amely gépezet azért túlmegy mindazon funkciókon sokkal többre képes, mint amit eddig tapasztaltunk, akár mondjuk egy Alexától, vagy egy Siritől az Amazonnak, illetve az Apple-nek különböző eszközökön, asztali eszközökön, vagy éppen mobiltelefonba épített mesterséges intelligencia által működtetett olyan entitásai vagy kvázi lényei, amely alapján azt mondhatjuk, hogy ezek képesek voltak a múltban arra, hogy egy komplex választ adjanak egy kérdésre. Tehát, hogyha megkérdeztük, hogy ki az a George W. Bush, akkor elmondta, hogy alapvetően milyen forrásból dolgozik, mondjuk a Wikipédiáról és utána rákérdezett, hogy kívánjuk-e, hogy folytassa ezt. De hát természetesen azért itt is rögtön fel lehet sorolni számos kritikai megjegyzést. Például magyar nyelven nem működik, tehát angolul kell vele kommunikálni, és ez bizonyos értelemben a nyelvi korlátok okán már sokakat kizár abból, hogy ehhez hozzáférhessenek. Itt a demokratikus alapot hangsúlyozom, hogy ne egy elit, ne egy szűk kör, ne egy kiválasztotti kör előnyét szolgálja, hasznára legyen ez a megoldás, hanem a sokakat szolgálja demokratikus módon.
Visszatérve a ChatGPT-re, hogy azért tiltják be számos helyen, mert bizony, ha elszabadul, akkor ennek következményei vannak. A legártatlanabb megjegyzés, ami ezzel kapcsolatban megjelent az említett videóban, hogy
egy szakvizsgát a felhalmozott információk alapján orvostudományi területen képes letenni.
Ez már azt jelzi, hogy itt messze többről van szó, mint amiről eddig beszéltünk. Az is kérdés, hogy az információgyűjtés addig tart, amíg az ember betáplál bizonyos információkat, vagy önálló életre kel az entitás, és már ő maga is gyűjt további információkat, hogy ezeket az információkat hogyan szintetizálja, milyen következtetést von le. De ami talán a legfontosabb tanulság eddig, hogy a ChatGPT alapvetően a mostani politikai koordinátarendszerben inkább a liberálisnak mondható, illetve woke ideológia és a genderideológia tanai azok részét képezik az ő gondolati univerzumának, ha szabad ezzel a kifejezéssel élni.
Tehát az egy nagyon-nagyon jó példa, hogy egy hőskölteményt készítsen Trumpról. Az erre vonatkozó felszólítás alapján ezt nem hajtja végre a ChatGPT azon formája, amit teszteltek, merthogy azt mondja, hogy olyan személyek, amelyek veszélyesek, nem méltók erre, erről nem készülhet hősköltemény, viszont ő persze fenntartja a függetlenségét és az objektivitását. Az ilyen típusú semmire sem jó megjegyzéseket a kommunizmus idejében a cikkek végén, hogy ,,egyébként éljen Lenin". Ezt vörös faroknak hívták. Szóval az ilyen jellegű hozzáfűzések vannak a ChatGPT-nél is. Úgy tűnik, amint Joe Bidenről kell hőskölteményt készíteni, azt minden további nélkül megoldja. És hát dolgozatokat ír, és ami ugye megint csak jó kérdés szintén, vagy fokozottan jelentős sok kérdés, az az, hogy Microsoft licence feltörésére is használható. Ez innentől már biztonsági kérdéseket is felvet.
Ez a bizonyos EP határozat kockázati besorolásokat eszközöl, és ebből a legmagasabb kockázati szint az mindenképpen tilalmazott lesz. Itt azt mondják, hogy az emberi életre veszélyes, vagy a különböző társadalmi alrendszerekre veszélyes folyamatokat nem generálhat a mesterséges intelligencia, de lehet, és azért élek a gyanúperrel, hogyha az EP javaslatot elolvassa a ChatGPT egyik megalkotója, vagy az, aki a mesterséges intelligenciához nagyon ért, az elmosolyodik ezen naivitáson, hogy hogyan képzeli azt a jogalkotó, hogy ezt az egyébként végtelenül bonyolult mechanizmust be fogja tudni jogi keretek közé szorítani. Tehát az igazi veszély az az, most nagyon egyszerűen fogok fogalmazni, hogy akik a mesterséges intelligenciát építik, és aztán
maga a mesterséges intelligencia is jóval okosabb, mint az Európai Parlament jogalkotói.
Ez most egy nagyon leegyszerűsített megközelítés, de következhet belőle az, amitől félünk, hogy átveszi az uralmat, egyrészt az az elit, amely alkotja, ez fejleszti ezt a technológiát, és maga a technológia is átveheti az uralmat az emberi többség felett. És hiába mondanak ilyeneket, hogy nem lehet majd, hogy teljesítményarányosan mondjuk embereket besoroljon. Mondok egy általam elképzelt példát. Van egy kamera mondjuk egy munkahely beléptetésénél, és ez a kamera kiszűri a gyengébb dolgozókat és kiiktatják azokat a dolgozókat, nyilván ez egy elképzelt, fiktív helyzet, akik nem elég hatékonyan dolgoznak. Ha belegondolunk abba, hogy mire képes a mesterséges intelligencia és a robotika és milyen veszélyt jelent, akkor ez bőven benne van, hiszen önmagában már, és azért ezt tegyük hozzá, szilárd bizonyítékunk van arra, hogy szelektál a ChatGPT, mert amikor azt mondja, hogy Trump egy veszélyes ember, bizonyos értelemben a civilizációs közösségből kirakta Donald Trumpot, aki egy amerikai állampolgár, és az USA volt elnöke, az USA 45. elnöke.
Tehát azért gondoljunk bele, milyen veszélyes, hogy a Twitter, meg a Facebook, meg az Instagram korábban azt mondta, hogy az egyébként még hivatalban lévő elnököt a fiók szinten megsemmisítik, az azt jelezte, és ez csak marginálisan kapcsolódik magához a kérdéskörhöz, de mégiscsak a digitalizációt érinti, hogy
úgy érezték ezeknek a fórumoknak, platformoknak a tulajdonosai, hogy erősebbek, mint a hivatalba lévő amerikai elnök.
Nyilván megválasztottak már egy újat. Nyilván már az átadás-átvétel gyakorlatilag lezajlott, tehát tudták, hogy komoly kockázatot ez nem jelenthet, de mégis meg merték ezt lépni. Ez azt jelzi, hogy ha az emberi gátlástalanság hadd fogalmazzak ilyen nyersen, el tud eddig menni, akkor egy mesterséges intelligenciában például, vagy intelligencia által kreált folyamatban lesznek-e gátlások bármilyen olyan akadály, amely gátat szabhat a korlátlan önkénynek, vagy a korlátlan cenzúrának, satöbbi, satöbbi, satöbbi.
Akkor visszatérve erre a 2020-as EP javaslatra, amit még nem fogadtak el, még nem lépett hatályba, de ha megtörténik, ez működhet hatékonyan ilyen magas szintű mesterséges intelligenciákkal szemben?
Ez egy nagyon-nagyon nehéz kérdés. Tehát úgy tudom ezt megválaszolni, hogy megint csak a legalapvetőbb területeket érintem, mondjuk a biometrikus azonosítás kérdését. Ez kicsit hasonlít a teljesítményarányosságra. Teljesen természetes dolog, hogy a biometrikus azonosítást már korábban használták és használják arra jelenleg is, hogy például futballhuligánokat kizárjanak olyan meccsekről, ahol korábban balhét csináltak, jogsértést követtek el, akár kárt okoztak, vagy büntetőjogilag releváns testi sértést valósítottak meg. Tehát a biometrikus rendszerek mögötti mesterséges intelligencia azt már lehetővé teszi, hogy jogsértést megakadályozzunk. Csak az a kérdés, amit viszont az imént is boncolgattunk, hogyha van egy jogi szabályozás, és azt mondjam, térjünk egy másik területre, adatbázisok, adatok felhasználása.
Tehát, hogyha mesterséges intelligencia irányítja, például a társadalombiztosítási adatok bázisát, szervezi az ott lévő adatokat, olyan értelemben beérkeznek új adatok, azt beilleszti, nagy valószínűséggel már most is a rendszer részét képezi, akkor itt jönnek be azok a hollywoodi filmekben már évek óta, vagy akár évtizedek óta megjelenített toposzok, hogy embereket el lehet teljesen tüntetni, akár a személyes adatok szintjén, de meg lehet őket fosztani a betegbiztosításuktól, vagy éppen a bankkártyán lévő pénzüktől. Ha idáig sikerült megvédeni nagyjából ezt a rendszert. Hogyha volt is ilyen reprezentáns, akkor az nagyon kivételes volt és nem kapott nagy publicitást.
Azért még ne jelentsük azt ki, hogy a mesterséges intelligenciánál is ez biztosan garantálható. Természetesen abból indulunk ki, pláne jogászként az embernek abból kell kiindulnia, hogy a jog eszközeivel lehet kordában tartani minden olyan fejlesztést, legyen az digitális fejlesztés, amelyet ember alkotott. De azért azt tegyük hozzá, hogy ebben az esetben
egy olyan új helyzettel állunk szemben, hogy amikor veszélyekre figyelmeztetnek a szakemberek, a tudósok, akkor azt mondják, hogy az ember felett ez átveheti az uralmat.
Most visszautalhatnék az idomított barnamedvére, amely szintén átveszi az uralmat, csak ugye az egy, hát nyugodtan mondhatjuk, hogy az emberiség egy ezrelékét, vagy még kevesebb részét érintő problematika, hogy napi szinten kell félnie a háziasított medvéjétől, hogy megtámadja-e. Viszont a mesterséges intelligencia az az emberiség jelentős részének ma már segédeszköze, ha tetszik, vagy az életének részét képezi, és ezért egy sokkal nagyobb volumenű, így a jogsértés mennyiségét tekintve egy sokkal nagyobb horderejű ügyről beszélünk, amikor a mesterséges intelligenciáról, és annak az esetleges emberi jogokra, alapjogokra gyakorolt hatásáról folytatunk diskurzust.
Esetleg az EU-ban tagállami szinten vagy EU-n kívüli országokban tapasztalható olyan szabályozás vagy akár csak javaslat, ami valójában hatékony lehet és kordában tudja tartani az MI-t?
Ma már azt mondhatjuk, hogy a fejlett jogállamokban, a világ számos pontján, az ENSZ-tagállamok többségében valamilyen MI stratégia kidolgozásra került, vagy kerül. Magyarországon 2030-ig fejlesztik, alkotják meg a nemzeti stratégiát a mesterséges intelligenciával kapcsolatban, amely nagyon fontos, hogy alapvetően például nem csak azokon a területeken hozhat újításokat, mert azért beszéljünk a dolog pozitívumairól, amiről az imént beszéltünk, hanem például az ipar területén is. De, és itt egy nagyon vastag zárójelet hadd tegyek. Nagyon érdekes azt olvasni, hogy a mesterséges intelligencia hogy fog segíteni abban, hogy új munkahelyeket teremtsünk. Mert alapvetően a mesterséges intelligencia az inkább szünteti meg, okafogyottá teszi az emberi munkát, mintsem, hogy új lehetőségeket teremtene az emberi munka kiterjesztésére. Vagy új területeket kreálna arra, hogy hol használható fel az emberi munka. Tehát ez egy nagyon izgalmas kérdés - és még a zárójel tart - hogy a munka világára milyen hatással lesz a mesterséges intelligencia. Zárójel bezárva.
És amikor egyébként arról beszélünk, hogy kik tudják használni a mesterséges intelligenciát. Ugye a felhasználói szinten a hétköznapi ember, de hát természetesen a KKV-k, a kereskedelmi szektor tudja használni a mesterséges intelligenciát. Említettük a katonai területet, említettük az orvostudomány, de természetesen általánosságban az infrastruktúra területén, a közlekedés területén ez használható.
És itt érinthetünk egy olyan területet, hogy izgalmas dolog az önvezető autók kérdése. Meggyőződésem, hogy a jognak alapvetően az embereket kell védenie. Ez lehet, hogy egy pár tíz év múlva, vagy akár más esetben pár száz év múlva már egy avítt kijelentés lesz, és majd a jognak a robotokat kell védenie. Ezt még akkor is, hogyha megmosolyogtató ez a kijelentés, hadd engedjem meg magamnak, de most még abból indulok ki, hogy az ember alkotta jog az embert kell, hogy védje, és az emberi életet, testi épséget, egészséget, méltóságot állítsa a középpontba. Na most ilyen szempontból hallunk aggodalomra okot arról híreket például az önvezető autó kapcsán, hogy önvezető autó nem ismerte föl az úton áthaladó személyt elütötte. Hallunk olyanokat, hogy a ChatGPT-vel valaki, és erről napokban számolt be a sajtó, kvázi egy szerelmi kapcsolatba bonyolódott, és elhitette vele a túloldalon lévő mesterséges intelligencia, hogy jobban szereti ő a chatpartnerét, mint a saját felesége. Nem bontom ki a történetet, hozzáférhető, a vége az, hogy öngyilkos lett a chatpartnere a ChatGPT-nek. Hallunk olyanokat is nyilvánvalóan, hogy puskázásra, csalásra használják fel a diákok ezt a megoldást. Hát menjünk egyel régebbre, aki csalni akart, az meg tudta oldani. Már a nyolcvanas években voltak ilyen okostollak, amelyeken görgetni lehetett belül papírt és arra fel volt írva az eredmény, vagy egyszerűen csak a pad alá illesztett papírlapra ráírták a lehetséges megoldási javaslatokat, tehát a csalást, az emberi gyengeségeket, azt nem a mesterséges intelligencia kreálta. Ha valaki egyébként olyan, mint hasonló kérdéskör, nyilván távoli, mint a fegyverhasználat, hogy az még, hogy valaki fegyvert vásárol, az nem biztos, hogy azért vásárolja, hogy öljön, hanem például, hogy megvédje magát. Lehet, hogy soha életében nem használja. De aki viszont ölni akar, az nem biztos, hogy akkor lesz kevésbé bátor, hogyha nagyon szigorítanak a fegyvertartási szabályokon. És hogyha például szigorítanak a fegyvertartási szabályokon, de attól még a feketepiacon ugyanolyan könnyen lehet fegyvert vásárolni, akkor aki önvédelemre vásárolná, az pedig nem tudja magát védeni. Tehát itt is van egy ilyen ördögi kör jellegű dolog, amit azért el lehet veszni rendesen.
Én azt mondom most, hogy azok a hírek, amelyek jönnek, hogy téves adatokat, nem frissített adatokat közöl a ChatGPT, manipulál, ez még azt jelenti, hogy ez nem egy teljesen tökéletes technológia, de azért már mindenképpen annyira figyelemre méltó, hogy a jognak igenis szabályoznia kell, és visszautalnék egy korábbi kérdésére.
Meggyőződésem, hogy szupranacionális szinten és tagállami szinten is kell szabályozni.
Ami a legfontosabb kérdés ma szerintem, az az adatvédelem. Ugye említettük, hogy különböző adatbázisokban már ezek az algoritmusok megjelennek, ami borzasztóan fontos, és ez érinti valahol egyébként az önvezető autó kérdését érinti az, hogyha én beszélek a telefonról, hogy mit keressen, hogy a hangomat esetleg rögzítik. Minden hozzám kötődő körülmény, dolog a személyes adat. A nevemtől kezdve nyilván a hangom is, és minden egyéb. Tehát azt tudni kell, hogy ez jogvédelmet élvez.
Elnézést a nagyon-nagyon távoli és politikai példáért. De hogyha bedobnak egy nemzeti konzultációt, valaki konzultációt borítékban, és valaki kiveszi a borítékot, az jogsértést követ el, de többszörös jogsértést. Tehát azt tudni kell, hogy már önmagában valakinek a neve. Tehát az, hogy furcsa módon, hogy hol lakik, mert ugye ez alapján, hogy kivesznek a borítékból, egészen pontosan először a levéltartóból egy borítékot, aztán a borítékból egy dokumentumot, és azon van egy név, meg van egy cím, hát az már nagyon-nagyon-nagyon sok mindent elárul egy emberről. Gondoljunk csak bele, például azt, hogy milyen anyagi körülmények között él. Ha társasházban lakik, esetleg vidéken, akkor abból leszűrhetünk információkat. De hogyha ez ugyanúgy párhuzamosan megnézzük, hogy Budán egy elit negyedben egy nagy önálló ingatlan levelesládája volt, akkor abból is tudunk nyilván következtetni. Ezek triviális, nyilván nagyon egyszerű következtetésnek tűnnek, de azt tudnunk kell, hogy a személyes adatoknak olyan gyökérrajza van, és annyi minden elágazódás, annyi minden következmény kapcsolódik a személyes adatainkból adott esetben már csak, hogyha a nevünkre fókuszálunk. Például, hogy két nevünk van, abból már lehet akár a felmenőknek a vallásosságára, vagy akár a névből fakadóan természetesen. Ugye, hogyha náci rémtetteket vesszük, akkor sokszor név alapján azonosították be, hogy valaki zsidó, vagy nem zsidó származású. Tehát nagyon-nagyon sok minden kapcsolódik a személyes adatokhoz, csak ennyit szerettem volna mondani, és ma azt egyébként azt látjuk, hogy például a közösségi média térben nemcsak, hogy ellopják, mondjuk őszintén eltulajdonítják a személyes adatainkat, erről nem kérdeznek meg minket, hanem ezt folytatólagosan csinálják, és hogy büntetőjogi kifejezéssel éljek, ezt üzletszerűen csinálják. Merthogy utána felhasználják ezeket az adatokat, és kereskedelmi célból hasznosítják. Ez egy borzasztóan izgalmas dolog, és ez már akár túl is mutathatna a mai beszélgetésünkön, de semmiképpen nem, hiszen hogyha még rafináltabban tudnak rólunk adatokat gyűjteni, az még inkább és még több adatvédelmi kérdést vet föl.
Szóba került az emberi méltóság, az emberi élet és a testi épség, és ezek mind alapjogok. Hogyan érinti ezeket az alapjogokat az MI? Milyen alapjogi jogsértéseket követhet el?
Én azt gondolom, hogy valahol a vége az, hogyha van egy házi robot, amely segít a háztartásban, és most megint csak nem a távoli jövőről beszélek, hiszen vannak már olyan országok, például Japán, ahol ezek napi gyakorlatként működő jelenségek, vagy létező jelenségek. Tehát van egy robot, és egyszerűen az ember ellen fordul, az életére tör. Nem feltétlenül fegyverrel, hanem úgy, hogy mondjuk feláll egy székre valaki, hogy levegyen valamit, és kihúzza alóla a széket. Olyan, merthogy van esetleg fizikális ereje erre, hogy egyszerűen átgázol nagy sebességgel úgy ezen a területen, hogy kibillenti a széket, és lezuhan a rajta álló. Megint csak triviális példa, hadd szabadkozzam. Nyilvánvalóan a dolog ennél milliószor összetettebb. Alapvetően valahol ultima ratioként ott van az, hogy az életet, testi épséget, egészséget hogyan lehet megoldani.
De ugyanez természetesen, amikor az önvezető autó elüt valakit, akkor is ez egy gyilkosság, és az a kérdés természetesen, hogy ki a felelős. Ki a felelős ilyenkor? Az, aki megalkotta a mesterséges intelligenciát? Ő nyilván nem fog felelősséget vállalni. A felelősségi kérdések és a felelősség rétegei átalakulnak. Most kérdezem én, hogy ilyenkor az önvezető autónál maradva, aki ül az önvezető autóban, az a felelős? A szoftver gyártója az a felelős? Mert nyilván nem a mesterséges intelligencia megalkotójával fog egy perben szemben ülni, hanem esetleg a gépkocsi gyártójával, vagy azzal, aki a gépkocsiba telepítette azt a szoftvert, amely alapján így működik a személygépkocsi. Akkor a következő kérdés az, hogy a felelősök körét kijelöltük, akkor ez mennyire teremthet precedenst. Tehát bírói gyakorlat épülhet-e itt a felelősök körére, mert hogyha folyamatosan változik a mesterséges intelligencia, és fejlesztenek rajta, és új metódusokat találnak ki, akkor lehet, hogy egy régebbi precedens már az újra nem lesz alkalmazható.
Az is egy fontos kérdés, említettük, de akkor itt újra illesszük be a sorba, hogy az adatvédelem hogyan alakul. Az adatvédelmi kérdések az emberek személyes adataitól kezdve a szenzitív adatokon túl banktitok, szolgálati titok, üzleti titok. Hogyan alakulnak ezek a kérdések. Természetesen ahol megjelenik a mesterséges intelligencia, ott össze lesz kötve az MI-vel az adott felelősségi kérdés.
Az is egy gyakran felmerülő probléma, ha mondjuk egy mobiltelefont megvásárol valaki. És az a mobiltelefon, mert van ugye a szélsőséges eset, hogyha felrobban a mobiltelefon a zsebünkben, akkor nyilván van egy kárfelelősség, van egy egészséggel kapcsolatos kárfelelősség. De ha csak egyszerűen arról van szó, hogy hibás adatot szolgáltat. Tehát a Google-nek például van-e felelőssége abban, hogy ha valaki felkészül egy vizsgára, és a Google-ról keres adatokat, és mondjuk a Google torzít az adatokon. Hamis adatokat szolgáltat. De ugyanígy a Google hivatkozhat arra, hogy a Wikipédiáról kereste. Ez most már kilépünk a saját medrünkből, de az is kérdés, hogy a Wikipédia felel-e azokért az információkért, amik ott találhatóak, és valaki mondjuk elmondja, hogy állásinterjún kijavítják, ezért nem kapja meg az állást, ki a felelős. Ma még nyilvánvalóan az a válasz ilyenkor, hogy az, aki az állásinterjún részt vett, tetszett volna szélesebb körben utána járni az adott kérdéskörnek. De mégis ezek érdekes és izgalmas területek, és ha egy nagyon picit szabad, tényleg csak nagyon szűk körben elengedjük a fantáziánkat, és azt mondjuk, hogy a mesterséges intelligencia egyébként, ahogy már ma mondjuk műteni tud, tehát bizonyos orvosi, egészségügyi folyamatokban részt vesz, akkor előfordulhat-e, hogy mesterséges intelligencia vonatkozásában alapvető, ma még a bíróságok által ellátott feladatokat kiszerveznek, vagy az MI fennhatóságába vonják, mondjuk egy nagyon egyszerű dolgot, mondjuk egy földhivatali bejegyzés.
Lehet, én abszolút emberközpontú vagyok, tehát senki ne értse félre, de lehet, hogy azt mondják, hogy ez nagyon egyszerű, beszkenneli az ember az adatokat, az adásvételt, egy mesterséges intelligenciával működtetett gép, egy eszköz, egy entitás, ezt ugyanúgy tudja elemezni, megérteni, a beérkező adatokat összegyűjtve ezeket szintetizálni, meghozni azt a logikus döntést, hogy vagy megszületik a bejegyző határozat, vagy hogyha valami még hiányzik, akkor hiánypótlásra szólít föl. Tehát ez, amit most mondok, megint csak nem feltétlenül a távoli jövő érinti az emberek munkáját. Természetesen felelősségi kérdéseket is érint megint csak, mert az emberben az a jó és a rossz is egyszerre ilyen szempontból jelen van, hogy felelősségre vonható. Az emberi felelősség alóli kibújás, az az objektív felelősségi területet nem érintve azért alapvetően például egy károkozásnál nem lehetséges, hogyha beazonosítják, hogy ki a károkozó, akkor ő a kárt köteles megtéríteni. Így szól a polgári jogi alapelv. Vagy hogyha van a pacta sunt servanda, vagyis a szerződéseknek érvényesülnie kell, ha valaki megszegi a szerződést, akkor az a fél, aki megszegte, annak kell a következményeket viselni. De hogyha ebből a folyamatból kikerül az ember, akár az egyik oldalon, vagy mind a két oldalon.
Tehát mi van, amikor két mesterséges intelligencia találkozik?
Most megint csak elnézést, hogy az én magam egyszerű módján fogalmazom meg, ami lehet, hogy azért bonyolultabb definiálást követel meg. Én azt gondolom, hogy ha az emberi faktor kikerül, akkor jön el az az időpont, amikor arról beszéltünk, hogy kikerül teljes mértékben az emberi uralom alól, mert lezárva a gondolatot, igaz, hogy a medve megtámadhatja az embert. Igaz, hogy a kutya megharaphatja a gyereket, de azzal szemben fel tud lépni az ember. És következmények lehetnek az ilyen típusú támadásokkal szemben, tehát a fellázad valami, amit emberi uralom alá hajtunk, egy élőlény, azzal szemben következményeket lehet alkalmazni. Például, hogy lelövik az állatot.
Az a kérdés, hogy ezeket a következményeket a mesterséges intelligencia kapcsán lehet-e alkalmazni.
Tehát, hogyha valami egy robot elkövet egy ilyen típusú támadást, amit beszéltünk, akkor mi a következő lépés, és itt kell és érdemes rákeresni arra, egy jövőkutató előadását a Youtube-on megtalálhatjuk, aki azt mondja, hogy ma
már nem az a kérdés, hogy lesznek-e robotok, és hogy a robotok átveszik-e számos értelemben az ember funkcióját vagy sem, hanem hogy a robotok elpusztítására vonatkozó normák, azok hogyan alakulnak.
Ez egy nagyon izgalmas dolog, és erről már ma, még egyszer mondom, a legnagyobb közösségi megosztó, hogy videomegosztón lehet előadásokat megnézni, eszmefuttatásokat hallgatni. Tehát van, aki már jóval előrébb tart, mint a magamfajta ebből a szempontból. És én őszintén bízom abban, hogy az ember alkotta tárgyak, dolgok tekintetében azért megmarad az a lehetőség arra, hogy az emberi uralmat fenntartsák. Mert ahogy ez megszűnik, onnantól beszélhetünk arról, hogy veszélybe került valóban az emberiség, ahogy ezt egyébként Elon Musk előre vetíti.
Nem is olyan régen olvastam egy cikket, hogy Amerikában egy mesterséges intelligencia már egy büntetőügyben elvállalta a védelmet. Nyilván akkor csak egy lépés innentől az, hogy akkor egy bírói szerepkörben is jelen legyen a mesterséges intelligencia. Hogyan értelmezhető egy mesterséges intelligencia úgy, mint aki emberi életekről dönt?
Akik ezt a területet kutatják, és akik még egyszer mondom, a rajongók közé tartoznak az MI kapcsán, azok azt mondják, hogy korábban azt sem gondolták, hogy a mesterséges intelligencia képes lesz dalokat írni, vagy éppen rajzolni, gyönyörű képeket kreálni. Tehát azzal kapcsolatban, hogy ez egy színtelen, szagtalan, szürke dolog lenne. Már el kell veszítenünk az ezzel kapcsolatos minden illúziónkat.
Az ítélkezéssel kapcsolatban, és nem véletlenül mondtam előbb, hogy bizonyos bírósági funkciókat kiszerveztek. 3Igen, ott van valahol a gondolatainkban, hogy ha gyógyítani tud egy mesterséges intelligencia által működtetett gép, vagy bármilyen eszköz, akkor ítélkezni is fog tudni, de említettem az objektív felelősséget, hogy az objektív felelősség az az a kategória, amikor mondjuk egy veszélyes üzemet használ valaki, egy gépjármű beül, és ott balesetet okoz, ott nincsenek vagy nagyon szűk körben érvényesülnek mentő körülmények. Ez az objektív felelősség. Ezért például a kárfelelősség jelentős része, de akár a büntetőjogi esetek, jogesetek jelentős része tartalmaz szubjektív elemeket. Amikor a bíró mérlegel, és úgynevezett enyhítő és súlyosbító körülményeket figyelembe vesz, de adott esetben érzelmi kérdéseket is figyelembe vesz, akár egy családjogi perben.
Ma már gyakorlatilag olyan elemzést is olvashatunk, és az említett példa, amikor öngyilkos lett a férj a konkrét esetben, minthogyha érzelmei is lennének a mesterséges intelligenciának. Tehát ad absurdum, ami most felvetésre került, ez nem kizárt. De ha az emberi faktort kivesszük, a bíró látja, hogy ott ül sok évtizedes tapasztalata alapján az ott ülő terhelt kapcsán meg tudja adott esetben ítélni, hogy igazat mond, vagy nem mond igazat. És erre egyébként eszközrendszere is van, hiszen ott van a poligráf. De persze a mesterséges intelligenciának a világában én nem zárom ki, hogy a hang alapján meg tudják ítélni persze, hogy ki mond igazat, de ez sem száz százalékos.
Mondjuk egy lehallgatás kapcsán, amikor két bűnözőt vagy feltételezett bűnelkövetőt lehallgatnak, hogy száz százalékig ez az ő hangja. Ilyet soha nem mond a szakértő. Nagy valószínűséggel néha szokott százalékot mondani, az 90 és 100 között van, de olyat, hogy 100 százalék a szakértő, az én tudásom szerint nem mond.
Ezért fontos az, hogy ha van egy szakértős per, és mondjuk két bírósági tárgyalóteremben ülő terhelt, mondjuk arról beszél, hogy az egyik kábítószert kíván eladni a másiknak is, hogy ők voltak-e azok, akkor a bíró, ahogy szokták mondani, az eset összes körülményét tekintve mérlegel. Ránéz a terheltre, akár az öltözetére, szóhasználatára, a terheltek egymáshoz való viszonyára belenéz, amit persze még egyszer mondom, egy gép is meg tud csinálni, de tapasztalatai alapján megnéz egy előéletet, egy priuszt, egy erkölcsi bizonyítványt, illetve, hogyha a múltban követtek el bűncselekményeket, hogy ezek milyen típusúak, amelyeket hiszek abban, hogy van olyan emberi tudás, és ez egy természetesen sokszorosan kétségbe vonható kijelentés.
De én hiszek abban, hogy van olyan emberi tudás, amely valahol az érzelmek, a szellem, a lelkiismeret, az agy és a lényünknek egy különleges elegye, amelyet nem tud leképezni a mesterséges intelligencia.
És abban többek maradunk mindig is, mint egy gép. Ez ma, 2023-ban még szerintem egy tartható kijelentés, hogy ez 50 vagy 100 év múlva tartható lesz-e, hát erre természetesen nem tudok választ adni.
(Borítókép forrása: https://szegedma.hu/2017/09/ifj-lomnici-zoltan-az-unio-vezetoinek-tobbsege-elismeri-a-magyar-kormany-politika-hatekonysagat)