Ma már nehéz biztosan kijelenteni, hogy a gyerekünket valóban elrabolták.

Halász Viktor, a Készenléti Rendőrség Nemzeti Nyomozó Iroda Kiberbűnözés Elleni Főosztályának vezető nyomozója segítségével mélyebbre ástunk a deepfake technológia rejtelmeiben. Megtudtuk, hogy ez a fejlett mesterséges intelligencia által előállított hamisítványokkal dolgozó technológia milyen komoly kihívásokat jelent, és milyen bűncselekmények színhelyévé válhat. Viktor hangsúlyozta, hogy a jelenség egy végtelen macska-egér harcra emlékeztet, ahol egyre nehezebb megkülönböztetni a valóságot a hamisítványoktól, így már a saját érzékeinkben sem bízhatunk teljesen.

A mesterséges intelligenciával (AI) elkövetett átverések és csalások egyre nagyobb számban terjednek, ráadásul a minőségük is lassan ott tart, hogy az átlagemberek számára képtelenség megkülönböztetni a generált tartalmakat a valóságtól. Banki csalások, emberek átverése, hamisított képek és videók, politikai lejáratások és dezinformációs kampányok épülnek a mesterséges intelligenciára.

A deepfake technológia már évek óta izgalmas és egyben aggasztó témát jelent, hiszen számos esetben, például felnőttfilmes tartalmak manipulálásakor, sztárok arcképét használták fel. Ahogy a technológia folyamatosan fejlődik, úgy a használata is egyre szélesebb rétegeket érint. A jelenség mögött rejlő bűncselekmények, valamint a hatóságok válaszlépései iránti érdeklődésünket Halász Viktor, a Készenléti Rendőrség Nemzeti Nyomozó Iroda Kiberbűnözés Elleni Főosztályának főnyomozója segít megvilágítani. Kísérjük figyelemmel ezt a komplex problémakört, és fedezzük fel, milyen kihívásokkal néz szembe a társadalom a deepfake világában!

"A deepfake elnevezéssel a mesterséges intelligencia, és azon belül is a gépi tanulás azon ágát szoktuk illetni, amely - leginkább már létező, valódi - emberek hangját vagy arcképét képes utánozni" - kezdte a magyarázatot a százados. Hozzátette, ma már vannak olyan fejlett deepfake eszközök, amelyek valós időben képesek megváltoztatni valakinek az arcát vagy a hangját.

A kifejezés maga is innen ered - a gépek által használt, úgynevezett deep learning (mélytanulás) és fake (hamis) szavak összetételéből - és egy egyszerű fórumozótól származik, aki először használt mesterséges intelligenciát ilyen felvételek készítésére

- osztotta meg véleményét a szakértő. "A technológia kulcsfontosságú aspektusa a tréningezés, hiszen a kiváló minőségű deepfake hangok és videók előállításához a modelleknek előzetes felvételekre van szükségük az adott személyről, amelyek lehetővé teszik számukra, hogy 'elsajátítsák' az utánzás művészetét" - tette hozzá.

A deepfake technológiák széles spektrumú felhasználására ma már csupán néhány kattintás szükséges, hiszen számos gyűjtőoldalon könnyedén hozzáférhetünk a legújabb fejlesztésekhez. Ezek az oldalak naponta frissülnek, és egyre kifinomultabb modellek kerülnek fel rájuk. Ráadásul, már jó ideje a mindennapi applikációinkban is felfedezhetjük a deepfake funkciókat, hiszen a népszerű beszélgetőalkalmazásokban számos szórakoztató filter áll rendelkezésünkre.

Ez viszont nem jelenti azt, hogy mindenki profin tudja majd használni a technológiát, főleg nem az ingyenesen elérhető változatokkal. Ha valaki fiatalabbnak akar tűnni a képeken, videókon, akkor azt még simán meg tudja csinálni, de valakinek a hangját lemásolni profi szinten, az már nehezebb dió, de egy pár ezres előfizetés segíthet a problémáján. Az arcképek lemásolásához viszont már komolyabb modell, mélyebb technikai tudás és erősebb számítógép is elkél.

"Az azonban kétségtelen, hogy ezek a modellek napról napra egyre hozzáférhetőbb formában jelennek meg, valamint egyre több olyan online platform is található, ahol előfizetési díjért cserébe nem kell a technikai részletekkel bajlódnunk, emiatt pedig a deepfake technológiák egyre szélesebb rétegek számára lesznek valóban elérhetők" - fogalmazott Halász Viktor.

"A büntető törvénykönyvekben általában nem találunk utalást a deepfake (vagy tágabb értelemben a mesterséges intelligencia) technológiákra sem Magyarországon, sem más országokban. Ennek oka, hogy a bűncselekmények törvényi megfogalmazásainak mindig általánosnak és időtállónak kell lenniük, pontosan azért, hogy ne kelljen minden új technológia esetén újraírnunk őket" - mesélte a szakértő.

A deepfake-technológia alkalmazásával elkövetett bűncselekmények kapcsán elmondható, hogy ezek a cselekmények – legyen szó rágalmazásról, becsületsértésről, zsarolásról vagy csalásról – ugyanúgy megvalósulnak, mintha a bűnözők nem használnának mesterséges intelligenciát. Például a csalás lényege a sértett megtévesztése, és a bűncselekmény jogi megítélése szempontjából nem lényeges, hogy a csalás során a bűnözők mesterséges intelligenciát alkalmaztak-e vagy sem. Az elkövetők szándékainak és módszereinek vizsgálata mindig is kulcsfontosságú marad, függetlenül a technológiai háttértől.

Az AI-t használó elkövetők büntetésének kérdése egyre fontosabbá válik a technológiai fejlődés és a bűnüldözés szempontjából. A jogrendszerek világszerte igyekeznek alkalmazkodni az új kihívásokhoz, amelyek az mesterséges intelligencia alkalmazásával járnak. Az elkövetőket általában a már meglévő jogszabályok alapján vonják felelősségre, de a hatóságok új törvények és irányelvek kidolgozásán is dolgoznak, hogy kifejezetten az AI által elkövetett bűncselekményekre reagáljanak. A büntetések széles spektrumot ölelhetnek fel, a pénzbírságoktól kezdve a börtönbüntetésekig, attól függően, hogy milyen súlyos bűncselekményt követtek el. Emellett fontos szerepet játszik a rehabilitáció, hiszen a jogalkotók célja, hogy a technológia fejlődésével a társadalom is fejlődjön, és az elkövetők ne csupán büntetést, hanem oktatást is kapjanak a felelős technológiai használatról. A jövőben várhatóan egyre szigorúbb és célzottabb jogi keretek fogják szabályozni az AI-t használó bűncselekményekkel kapcsolatos eljárásokat.

Már jóval az mesterséges intelligencia elterjedése előtt, 2013 óta létezett a magyar büntető törvénykönyvben a "becsület csorbítására alkalmas hamis hang- vagy képfelvétel készítése" bűncselekmény, amely minden további nélkül alkalmazható a deepfake-felvételek ilyen célú létrehozására is. Emellett a gyermekpornográfia bűncselekménye esetén például Magyarországon már 2021 óta pontosan ugyanolyan megítélés alá esnek a valódi felvételek, mint "a nem létező személy vagy személyek valósághű ábrázolásai".

S bár nem büntetőjogi értelemben, de szabályozás terén az Európai Unió mesterséges intelligencia rendelete (AI Act) próbálja körülírni akár a deepfake-technológia használatának határait is, de ez a szabályozás inkább a hatóságokra és a vállalatokra vonatkozik, mintsem, hogy az egyszerű felhasználók jogait rögzítené.

A humor és a káros tartalmak közötti határvonalat inkább az egészséges ész határozza meg, mintsem a technológiai elemzések. Halász Viktor véleménye szerint fontos, hogy ne csak a célt, hanem a tényleges hatásokat is mérlegeljük. Ha azonban a nyilvánvaló paródia, a humor vagy más művészi kifejezés világából átlépünk a megtévesztés, a jogtalan anyagi haszonszerzés, a megfélemlítés, a pánikkeltés vagy a tisztességtelen lejáratás területére, akkor könnyen bűncselekményről beszélhetünk.

A személyes adatok és a digitális identitás megóvása érdekében a deepfake-technológia új kihívások elé állítja a felhasználókat. "Korábban elsősorban azt ajánlottuk, hogy az internetes felhasználók ügyeljenek jelszavaik és egyéb érzékeny információik biztonságára. Ma azonban már ugyanez a figyelem irányul az általuk megosztott fényképekre és videókra is. Ezek az anyagok ugyanis könnyedén felhasználhatók a deepfake modellek betanításához, lehetővé téve, hogy valakinek a hangját vagy arcát lemásolják, és ezt később bármilyen célra felhasználják" - figyelmeztetett egy szakértő.

Manapság egyre inkább elterjedt tendencia, hogy az emberek a hagyományos, statikus képek helyett inkább mozgóképeket, különösen hanggal kiegészített videókat osztanak meg a közösségi média platformokon. Az újabb közösségi média felületek, mint például a TikTok, kifejezetten a videós tartalmakat részesítik előnyben, így nem meglepő, hogy a felhasználók is ezt a formátumot választják. Azonban ez a jelenség nem csupán a kreatív önkifejezés szempontjából jelentős, hanem a bűnözők számára is kedvező lehetőségeket teremt, különösen amikor deepfake technológiák fejlesztéséről van szó.

- hívta fel a figyelmet a szakértő.

Halász Viktor véleménye szerint nem reális elvárás, hogy ne oszthassunk meg videókat saját magunkról. Azonban kulcsfontosságú kérdés, hogy kiknek engedjük hozzáférni ezeket a felvételeket. Ez különösen lényeges, ha felelősségteljes pozícióban dolgozunk, ahol a döntéseink hatással lehetnek másokra is.

Ha véletlenül hamis videót találunk magunkról, fontos, hogy ne habozzunk: azonnal mentsük le a felvételt, majd jelentsük az érintett platformnak. Az olyan szolgáltatók, amelyek komolyan foglalkoznak az ilyen bejelentésekkel – különösen, ha többen is hasonló tartalomra hívják fel a figyelmet – igyekeznek minél gyorsabban eltávolítani a problémás anyagokat. Amennyiben feljelentésre kerül sor, a bűncselekmény elkövetése miatt büntetőeljárás indulhat az elkövető felelősségre vonása érdekében, de polgári peres eljárást is kezdeményezhetünk, ha kártérítést vagy sérelemdíjat szeretnénk követelni.

A főnyomozó hangsúlyozta, hogy a deepfake-technológia leggyakoribb alkalmazása a hamisított gyermekpornográf tartalmak és a bosszúpornó jellegű felvételek körében figyelhető meg a büntetőeljárások során. Ezen kívül napjainkban egy újabb csalási módszer, az úgynevezett "vezérigazgatói csalás" is terjed, amely során az ügyintézők telefonos vagy videóhívásos formában kapnak utalási megbízásokat, mintha a főnöküktől származnának. A klasszikus személyiséglopás mellett ez a technológia a romantikus csalások lebonyolítását is jelentősen megkönnyíti, hiszen a hamis identitások létrehozása és fenntartása soha nem volt ilyen egyszerű.

Külföldön már előfordultak olyan megdöbbentő esetek, amikor bűnözők szülőket manipuláltak azzal, hogy elrabolták a gyermekeiket. Ezt a rémisztő helyzetet olyan hamis, deepfake hangfelvételekkel támasztották alá, amelyek segítségkérő üzeneteket tartalmaztak. Ez a módszer különösen aljas, mivel a pánikba esett szülők könnyen hajlamosak lehetnek a váltságdíj kifizetésére, hiszen a pszichológiai nyomás rendkívül erős ilyenkor.

- mesélte Halász Viktor. Emellett ott sorakoznak a dezinformációs kampányok, a politikai célzatú, valamint pánikot kiváltó üzenetek, nem is beszélve a hamis befektetési ajánlatokat ígérő verziókról.

Sok pénzintézet alkalmaz videós arcfelismerő rendszereket a bejelentkezések során, hogy hatékonyabban kiszűrjék a csalókat. Azonban ez a megoldás sem garantálja a teljes biztonságot, mivel a hatékonyság nagymértékben függ a bank által alkalmazott védelmi technológiáktól. "Nyilvánvaló, hogy az olyan automatizált rendszerek, amelyek a videófelvételek technikai jellemzőit is elemezni tudják – például a generatív AI-technológiák által létrehozott pixelmintázatokat – sokkal eredményesebben képesek kiszűrni a csalásokat, mint amikor egy emberi szakértő értékeli a feltöltött képeket vagy videókat, ami gyakori a kisebb cégeknél" – fejtette ki a százados.

Jelenleg egy olyan időszak küszöbén állunk, ahol az emberi szem már nem számít olyan megbízható eszköznek a deepfake felvételek észlelésében. Az ujjak számolásával és hasonló módszerekkel való szűrés inkább a múlt relikviáinak számít, semmint a jövőbeli támaszkodási lehetőségeknek. Emellett a nehezen meghatározható "uncanny valley" jelenség is egyre kevésbé figyelhető meg ezeken a felvételeken. Ez a jelenség akkor lép fel, amikor intuitívan érezzük, hogy nem valódi emberek láthatók a felvételen, még ha nem is tudjuk pontosan megfogalmazni, hogy miért érzünk így.

- fejtette ki a szakértő véleményét.

Számos olyan program és technológia áll rendelkezésre, amelyek képesek észlelni a mesterséges intelligencia generálta képeket a technikai jellemzőik alapján. Ezek az eszközök különböző, az AI-ra jellemző pixelmintázatokat, valamint a generatív AI-platformok által hátrahagyott láthatatlan "vízjeleket" analizálnak. Emellett figyelembe veszik azokat a képtulajdonságokat is, amelyek a valós képekre nem jellemzőek a fizika törvényei miatt, mint például a sötét és világos pixelek közötti egyensúly.

A deepfake-technológiák folyamatos fejlődése miatt elengedhetetlen hangsúlyozni, hogy valószínűleg sosem fog megjelenni olyan eszköz, amely maradéktalanul eltávolítja a hamisítványokat. "Ez egy végtelen macska-egér harc a generáló és detektáló rendszerek között, ahol az utóbbiak mindig hátrányban lesznek, mivel csupán reagálni tudnak az újabb technológiai vívmányokra" - mondta. Gyakran azonban nem is szükséges bizonyítani, hogy egy felvétel hamis, hiszen elegendő, ha a szereplője hitelesen tanúsítja, hogy sosem készített olyan videót.

"Annak felismerésére, hogy egy tartalom valós vagy generált, egyre kevésbé hagyatkozhatunk a puszta szemünkre és a különböző technikai lehetőségekre, ezért egyre inkább előtérbe kell kerülnie a józan belátásnak. Ha nem vagyunk biztosak egy tartalom valódiságában, ellenőrizzük az eredetét és próbáljuk meg több forrásból is megerősíteni azt. Általános szabályként azonban elmondható, hogy ami túl szépnek vagy hihetetlennek hangzik, az legtöbbször az is" - összegezte az elhangzottak Halász Viktor.

Kétségtelen, hogy a deepfake és a generatív mesterséges intelligencia technológiák hatásai a jövőbeni társadalmi dinamika szempontjából rendkívül aggasztó kérdéseket vetnek fel. Az viszont biztos, hogy ezek a technológiák, bármilyen irányban is alakuljanak, hosszú távon jelentős hatással lesznek a társadalomra.

- kifejtette, hozzátéve, hogy hamarosan elérkezünk arra a pontra, amikor már egyetlen eszköz sem áll rendelkezésünkre a generatív tartalmak azonosítására. Szerinte idővel teljesen alkalmazkodunk ehhez az újfajta valóságértelmezéshez, és megszokjuk, hogy még azokat az információkat is kétkedve fogadjuk, amelyek korábban soha nem ébresztettek bennünket kétségbe.

"A társadalmi normák általában lassabban alkalmazkodnak a technológiai újításokhoz, ami sajnos kedvező talajt biztosít a csalások és más rosszindulatú megtévesztések számára. Ebben az átmeneti időszakban különösen fontos, hogy figyelmesek legyünk, és ne engedjük, hogy mi is ennek a gyorsan átalakuló világnak az áldozatává váljunk!" - foglalta össze véleményét.

Related posts