
Coca-Cola idei karácsonyi reklámja komoly hullámokat kavart: a hagyományos, emberi szereplők helyett mesterséges intelligencia (MI) által generált képek és videók jelentek meg benne. Az ikonikus piros kamionok egy teljesen MI által létrehozott városon haladnak át, miközben a jól ismert "Holidays Are Coming" dallam szól. Bár a cél az volt, hogy az ünnepi hangulatot modern technológiával ötvözzék, a végeredmény inkább meghökkentette a közönséget, mintsem lenyűgözte volna.
A mesterséges intelligencia körüli viták Magyarországon is kiéleződtek az elmúlt hetekben, főként Magyar Péter, a Tisza Párt vezetőjének kijelentései miatt. Magyar azt állította, hogy a Fidesz 1 milliárd forintot költött egy olyan MI-alapú technológiára, amely képes lenne politikai ellenfelekről olyan hamisított videókat készíteni, melyeket szinte lehetetlen leleplezni. Bár ez az állítás figyelemfelkeltő, a Coca-Cola reklámja épp azt bizonyítja, hogy a technológia még nem tart ott, hogy ilyen manipulációkat büntetlenül lehessen alkalmazni.
A reklámban látható hibák – például a snittenként változó kamionok, egy hatujjú ember, vagy az egylábú kacsa – rávilágítanak arra, hogy még a leggondosabb kezekben is számos technikai tökéletlenség marad. Nem véletlen, hogy az amerikai választások során sem találkozhattunk deepfake technológiát alkalmazó kampányokkal: a technológia jelenlegi állása szerint túl nagy a lebukás kockázata, és a hitelesség elvesztése óriási politikai következményekkel járhat.
Ahhoz, hogy megértsük a kontextust nézzük meg azt a reklámot, amit a Coca-Cola is próbált utólag eltitkolni, de egy magyar TikTok felhasználó profilján megtaláltunk.
Kifejezetten szórakoztató nézni a snittenként megváltozó kamionokat, de ami még szembetűnőbb, az a 6 ujjú ember, illetve az 1 lábú kacsa.


Ez a reklám világosan megmutatja, miért alaptalan Magyar Péter állítása, miszerint a Fidesz közel 1 milliárd forintot fordított volna egy olyan deepfake technológiára, amely politikai manipulációra alkalmas videók készítésére szolgál. Bár a mesterséges intelligencia fejlődése rendkívül gyors, a technológia jelenlegi szintje – ahogyan azt a Coca-Cola példája is szemlélteti – még távol áll attól, hogy teljesen hiteles és megbízható, manipulált "valóságot" lehessen vele létrehozni.
Jelenleg nem létezik olyan deepfake technológia, amely teljesen észrevétlenül képes lenne manipulálni a valóságot. Bár a legfejlettebb rendszerek már rendkívül meggyőző eredményeket produkálhatnak, még ezek is hagynak maguk után árulkodó nyomokat. Az ilyen technológiák hatékonysága számos tényezőtől függ, és egy alapos elemzés – különösen speciális technikai eszközökkel – viszonylag gyorsan képes feltárni a hamisítás jeleit.
A deepfake technológia mára lehetővé tette, hogy akár néhány dollárból is látványos, de messze nem tökéletes videókat készítsenek. Olyan online platformok, mint a D-ID vagy a Synthesia, bárki számára elérhetővé teszik, hogy minimális költséggel és néhány kattintással mesterséges intelligencia által generált tartalmakat hozzon létre. Ezek a videók első ránézésre gyakran lenyűgözőek és hatásosak, de alaposabb vizsgálat során könnyen észlelhetők az árulkodó hibák, például természetellenes mozgások vagy apró, technikai tökéletlenségek.
Az alábbi példa tökéletesen bemutatja, hogy most hol áll a technológia:
A technológia árképzése azonban érdekes paradoxont mutat: a kezdeti, alacsony költségszint után a videók minőségének javítása jelentős kiadásokat igényelhet, de még így sem garantált a tökéletes eredmény. Az ár növekedése nem mindig áll egyenes arányban a videó minőségének javulásával. Például egy laikusok számára is elérhető, pár dolláros szoftver által készített tartalom látványos lehet, de az extra milliókért fejlesztett, professzionális technológiával készült videók sem feltétlenül lesznek lényegesen jobbak – főleg a technológia jelenlegi korlátai miatt.
Ez a "minőségbeli plafon" abból ered, hogy a deepfake videók alapvető hibái – például az emberi arcok finom dinamikájának szimulálása vagy az árnyékok, fények pontos visszaadása – még mindig nehezen oldhatók meg. Így még a drága megoldások sem képesek teljesen eltüntetni azokat az apró részleteket, melyek a manipulációt felismerhetővé teszik.
A deepfake technológia tehát ma már elérhető szinte mindenki számára, és a belépési költségek rendkívül alacsonyak. Ugyanakkor a technológia fejlődése és az ár-érték arány közötti szakadék azt jelzi, hogy még mindig nem érte el azt a szintet, ahol a hatalmas beruházások valódi hozzáadott értéket nyújtanának a manipulált tartalmak minőségében. Ez a dinamika teszi valószínűtlenné az olyan állításokat, hogy politikai szereplők milliárdokat költenének ilyen célra, amikor az olcsóbb alternatívák is közel ugyanazt az eredményt tudják nyújtani.
A legmodernebb generatív neurális hálózatok, mint például a GAN-ok (Generative Adversarial Networks), már olyan szintű képi és mozgási realizmust képesek produkálni, hogy egy laikus számára szinte lehetetlen észlelni a manipulációt. Az olyan cégek, mint a Nvidia és az OpenAI, folyamatosan fejlesztik a generatív technológiákat, melyek már valós idejű szimulációkra is képesek, azonban ezek a legnagyobb értékeik közé tartoznak és nem adják ki harmadik félnek.
Magyar Péter állítása nemcsak a technológiai realitásokkal áll ellentmondásban, hanem politikai szempontból is irreális. Egy politikai párt számára, különösen egy olyan intenzív figyelem alatt álló szereplőnek, mint a Fidesz, rendkívüli kockázatot jelentene ilyen eszköz használata. A deepfake videók felismerhetősége és a lehetséges leleplezés következményei óriási károkat okozhatnának a párt hitelességében. Az 1 milliárd forintos költség sem tűnik reálisnak, hiszen egy ilyen technológia fejlesztése sokkal többe kerül, a piacon elérhető szoftverek pedig ennél jóval olcsóbbak.
Magyar Péter célja vélhetően a figyelem elterelése volt a róla szóló negatív hangelvételekről, valamint a saját hitelességének megőrzése. Az MI technológia említése egy olyan narratívát teremthet, ami kétségbe vonja a kiszivárgott felvételek hitelességét, és a politikai ellenfelekre hárítja a felelősséget. Ez a stratégia lehetőséget ad arra, hogy a közvéleményben kételyeket ébresszen a felvételek valódiságával kapcsolatban, és elterelje a figyelmet a tartalmukról. Az ilyen taktika nem ismeretlen a politikában; a válságkommunikáció gyakran alkalmaz hasonló módszereket a károk minimalizálása érdekében.
Magyar Péter állítása jól mutatja, hogy a mesterséges intelligencia és a deepfake technológia milyen könnyen válhat a politikai diskurzus eszközévé. Az efféle vádak, még ha figyelemfelkeltők is, csak akkor állják meg a helyüket, ha konkrét bizonyítékokkal alátámaszthatók. A jelenlegi technológiai szint és a pénzügyi realitások azonban kétségessé teszik az állítását. A deepfake technológia lehetőségei izgalmasak, de korántsem tökéletesek – akárcsak a politikai narratívák, amelyek rájuk épülnek. Az igazán fontos kérdés nem az, hogy ki mire használhatná ezt a technológiát, hanem miként tanulunk meg vele felelősen bánni egyre összetettebb világunkban.