Vicces, ahogy az ál-Klicsko rászedte Karácsonyt, de mégis nagyon félelmetes ez az egész

A deepfake-kel a valóság semmivé válik. Hol tart a technológia? Mi lehet ennek a vége?

Kétségtelenül komikusan hatott a napokban felröppent hír, miszerint több európai politikus is bedőlt az ál-Klicskó telefonhívásának. A berlini polgármesternek negyedórába telt, míg gyanakodni kezdett, hogy nem a kijevi városvezetővel beszél. Karácsony Gergely szintén lépre futott. Gyermeki öröme, hogy egy felkapott politikai celebritással beszélhet, annyira magával ragadta, hogy a videóhívás talán azóta is tartana, ha tolmácsai és tanácsadói nem lépnek közbe.

Miután kikacarásztuk magunkat Karácsony szerencsétlenkedésén, érdemes elgondolkodni azon, hogy a deepfake-technológia használatával végrehajtott „trollkodás” pusztán ártatlan vicc vagy a közbizalmat veszélyeztető súlyos veszély.

Mi is az a deepfake? A mesterséges intelligencia (AI-Artificial intelligence) által létrehozott videótartalom, amelyben egy videó eredeti szereplőjének képmását, arcvonásainak legapróbb részleteit és hangját egy másik személy képmásával és hangjával cserélik ki. Ezzel a technikával olyan mozgóképes tartalom készíthető, amely tökéletesen alkalmas a megtévesztésre, a modifikált videóban szereplő személy (a forrásszemély) azt és úgy mondja, ahogy azt a videó készítője akarja, miközben a való életben soha nem mondott ilyesmit.

Lássunk egy szemléletes példát, amint egy mesterségesen létrehozott Obama mond beszédet:

A deepfake hatékonysága messze felülmúlja a legjobb photoshop-applikációét. Persze a deepfake esetében is tetten érhetőek az apró árulkodó jelek, mint a szem- és szájmozgás (a pislogás gyakorisága, rendszertelensége, a szemek semmibe tekintése), a körvonalak pixelessége, a technika azonban folyamatosan fejlődik, így  egyre jobb minőségű videók készíthetőek.

A deepfake-szűrőkkel párhuzamosan fejlődik a videókészítési technika is. A kiszűrhető hibákat a mesterséges intelligencia egyre jobb minőségben küszöböli ki, ezzel párhuzamosan az is igaz, hogy amennyiben arra tanítunk egy rendszert, hogy felismerje saját technikáját, akkor arra is képes lesz, hogy kikerülje a felismerési folyamatokat.

Közel az idő, amikor egy videó megtekintése közben nem hihetünk már teljes bizonyossággal a saját szemünknek sem. A valóság ezáltal tényleg semmivé válik. Az lesz igaz, amit az adott személy annak tart, ami komfortos számára.

A politikai polarizáció ugyanis egyre kedvezőbb közeget teremt a csalások és visszaélések számára, hiszen az emberek többsége sokszor szívesebben hisz egy vágyott igazságnak, minthogy kételkedni kezdjen egy „perdöntő” bizonyíték hitelességében. Azt hisszük el, ami megerősíti a saját véleményünket, vagy ami ráerősít egy sulykolt hazugságra.

Gondoljunk csak bele, Kövér László elhíresült „köteles” beszéde milyen hatalmas karriert futott be a 2002-es parlamenti választások előtt, miközben a teljes hanganyag ismeretében nyilvánvaló volt, hogy a kiragadott részlet saját kontextusában teljesen más értelmet hordozott.

A manipulációval botrányt lehetett kreálni, az igazságnak pedig többé semmilyen jelentősége nem volt az alaphangulat megkomponálása után.

Az említett esetben mindössze egy megvágott hangfelvételről volt szó, ám a deepfake az ehhez hasonló primitív csalásoknál sokkal hihetőbb hazugságok „legyártására” is alkalmas. Az összeesküvés-elméleteket gyártók, a zsarolók, a bosszúpornó-készítők számára egy új dimenzió nyílt meg a technológia létrejöttével.

A célpontba került hölgy arcát például gond nélkül rá lehet „illeszteni” egy létező pornójelenet résztvevőjének arcára, vagy olyasmit mondatnak ki vele a hamisított videóban, amellyel bajba sodorják.

Aki pedig egyszer „kabátlopási” ügybe keveredik, az jó eséllyel örökre magán hordja a billogot.

A piti csalásokon túl azonban sokkal nagyobb kockázatokat rejt magában a deepfake technológiája. Gondoljunk csak bele, mi történne akkor, ha az amúgy is a rozzant mentális állapotáról ismert Biden elnök arcát veszik kölcsön valakik, majd egy videóban megfenyegetik Kínát vagy Észak-Koreát egy perceken belül bekövetkező amerikai atomcsapással.

Kína valószínűleg körültekintően járna el, és még a válaszcsapás vagy a konfliktus eszkalációja előtt tisztázódna a csalás.  Észak-Korea vagy egy közel-keleti állam esetében azonban már nem lehetünk biztosak abban, hogy az érintettek minden kétséget kizáróan meggyőződnének a fenyegetés valódiságáról, mielőtt válaszcsapásba kezdenének.

Az sem kecsegtet semmi jóval, ha egy köztiszteletnek örvendő közéleti személyiségre, teszem azt egy pénzügyi szakértőre megszólalásig (szó szerint) hasonlító személy egy nap bejelentené egy videóban, hogy XY vezető pénzintézet a csőd szélén tántorog, ezért aki teheti, azonnal menekítse a pénzét. A bank garantáltan még aznap csődbe megy, miután a betétesek a pénzüket féltve megrohamozzák.

De a dollár értéke is azonnal meredeken zuhanásba kezdene, ha a FED elnöke élő videóban jelentené be, hogy az amerikai fizetőeszköz hamarosan annyit ér majd, mint a papír, amire nyomtatták. Hiába cáfolnák a bejelentés valódiságát, hiába állnak ki az Amerikai Központi Bank tényleges vezére azzal, hogy egy deepfake-en alapuló csalásról van szó, a dollár hatalmas károkat szenvedne el.

A cáfolat és az igazság ugyanis sokkal lassabban terjed, mint a rémhír. Ez az emberi természettel és a világháló működésével összefüggő alapigazság.

Nem Morgan Freeman:

A deepfake megöli a valóságot, a hírek, a videók, a valós bizonyítékok elveszítik hitelüket. Bármelyik videó lehet félrevezető, a deepfake-technológiával létrehozott videó nagyon nehezen lebuktatható. A technológiai fejlődés persze mindezektől függetlenül alapvetően hasznos az emberiség számára.

Keretezve az eszmefuttatást, Karácsony Gergelyen nevetni is nagyon jó. Alapvetően komikus figuraként kitűnő alanya a rászedéseknek, mint egy burleszkszereplő.

Egy valóban fajsúlyos politikai szereplő arcának felhasználása azonban a más vázolt esetekben semmilyen okot nem adna a jókedvű nevetésre.

El kell gondolkodniuk az arra hivatottaknak azon, hogy miként lehet kivédeni a deepfake-ből származó veszélyeket.

A törvényalkotók azonban a közösségi médiafelületeket sem voltak képesek rábírni a törvényes és etikus működésre, a deepfake-gyártással szemben még inkább tehetetlenek lesznek.