Digitália

2025.06.20. 06:00

Pokoli képeken Izrael és Irán harca – tele hamisítványokkal

A háború nem csak légicsapásokkal és rakétákkal folyik, hanem a közösségi médiában is, az emberek gondolkodásának bombázásával.

Pokoli képeken Izrael és Irán harca – tele hamisítványokkal

Egy lezuhant F-35-ösről készült, mesterséges intelligencia által generált kép

Forrás: X.com

A közösségi médiában nincs hiány a háború iszonyatos képeiből és videóiból, de a propaganda a hamisítást új szintre emeli mesterséges intelligencia által generált hamis képekkel Izrael és Irán harcáról. A félrevezető hadviselés elárasztja a Facebook, a TikTok, a Telegram, az X és társainak felületeit.

Ha követni akarunk egy háborút, az ma könnyen megy. A Telegram csatornák élő közvetítéseket tesznek közzé a bombázásokról, s látszólag abban a pillanatban, ahogy a rakéták becsapódnak, a felvételek nagy része látható az X-en, a TikTokon és más közösségi média platformokon. Sokkal több felvételt látunk, mint valaha – de mennyi hamisítvány van közöttük.

Néhány napja iráni hírügynökségek arról számoltak be , hogy hadseregük lelőtt három F-35-öst. Izrael tagadta. Ahogy a hír terjedt, úgy jelentek meg a lezuhant repülőgépekről készült állítólagos képek is. A borítóképünkön is látható felvételen egy sugárhajtású repülőgép maradványai mellett irreálisan apró emberek láthatók.

Szembe ötlő, hogy ócska hamisítvány, mégis azonnal ezrek osztották meg a neten. Egy másik kép az állítólag lelőtt repülőgépről azt mutatta, hogy valahol az éjszaka közepén lezuhant egy mezőn. Szárnyai eltűntek, utánégetője még mindig forrón izzott. Ez is generált kép volt, de mire letörölték, már elterjedt.

A mesterséges intelligencia bevetése a hírolvasók megtévesztésébe nem az anonim amatőr és hivatásos propagandisták kizárólagos területe: az a látszat, hogy az állami propaganda is ezt használja. Irán legfelsőbb vezetője nevében mesterséges intelligencia által generált rakétakilövéseket tettek közzé X-en.

Ilyen az izraeli védelmi miniszternek tulajdonított furcsaság is. Ezt cikkünk írásakor még nem törölték le.

Az egyre jobb képminőséget produkáló, új MI-eszközök, mint a Google Veo 3, minden eddiginél valósághűbbé teszik a mesterséges intelligencia által generált videókat.

A Tehran Times iráni hírportál megosztott egy videót az X-en, amely szerinte „azt a pillanatot rögzíti, amikor egy iráni rakéta eltalált egy épületet Bat Yamban, Tel-Aviv déli részén”. A videó hamis volt. Egy másikban, amely mintha egy tévéhíradóból származna, hatalmas rakéta haladt egy hosszú betonfolyosón. Ez olyan szemérmetlen hamisítvány, hogy a Google Veo vízjele is jól látható rajta a jobb alsó sarokban.

Miután Irán csapást mért Izraelre, a Tehran Times megosztott egy felvételt arról, amit állítólag „Tel-Avivban talált”. A drónfelvétel TikTokon a lerombolt épületeket és törmelékhalmokat mutatta. A többi videóhoz hasonlóan ez is MI által generált hamisítvány, és mind a Telegramon, mind a „3amelyonn”" nevezetű TikTok-csatornán megjelent.

A 3amelyonn TikTok csatornája arabul „Mesterséges intelligencia ellenállásnak” nevezi magát, de a Telegramon nincs ilyen címke. 2023 óta posztolnak a Telegramon, 2025 áprilisában jelent meg az első TikTok-videójuk, ami MI-generált filmen a különböző libanoni településeket füstölgő romokként mutatta be. Az még tele volt a korai MI-videókra jellemző szakadozásokkal és képi hallucinációkkal.

De a 3amelyonn egy hónappal későbbi videói már meggyőzőbbek. A június 5-én közzétett, Ben Gurion repülőtér címet kapott videó lebombázott épületeket és megsemmisült repülőgépeket mutat. Több mint kétmillióan nézték meg. A lerombolt Tel-Aviv videóját, amely bekerült a Teheran Timesba, több mint 11 milliószor nézték meg, és május 27-én, hetekkel a jelenlegi konfliktus előtt posztolták.

Hany Farid, az UC Berkeley professzora és a GetReal nevű médiafigyelő cég alapítója gyűjtötte össze a hamis videókat.

„Az elmúlt 12 órában a GetRealnál egy csomó hamis videót láttunk az Izrael és Irán közötti közelmúltbeli konfliktusról. Ezek a vizuálisan lenyűgöző videók a Veo 3-mal készültek” – írja a LinkedInen.

MI-generált képek és videók

Irán és Izrael is arra kéri állampolgárait, hogy ne osszák meg a pusztításokat mutató képeket, mivel az segíthet a másik félnek a jövőbeli támadások célzásában. Szombaton például az Izraeli Védelmi Erők a Facebookon arra kérték az embereket, hogy „ne tegyék közzé és ne osszák meg a csapások helyét vagy dokumentációját. Az ellenség követi ezeket a dokumentációkat, hogy javítsa célzási képességeit. Legyen felelősségteljes – ne osszon meg helyszíneket az interneten!”.

A közösségi média hamisítói ezt a vákuumot töltik be mesterséges intelligencia által generált tartalmakkal.

„A mesterséges intelligenciával folytatott háború áldozata az igazság” – fogalmazott Farid a 404 Media-nak. „Az ilyen MI besározza a valóságot, így bármelyik fél azt állíthatja, hogy akármelyik más videó (...) hamisítvány. Konfliktusok idején mindig is nehéz volt megtalálni az igazságot, de most, a mesterséges intelligencia és a közösségi média korában még nehezebb lett."

„Elkötelezettek vagyunk a mesterséges intelligencia felelősségteljes fejlesztése mellett, és világos irányelveink vannak a felhasználók védelmére és az AI-eszközeink használatának szabályozására” – mondta a Google szóvivője. „A Google AI-val generált tartalmakba SynthID vízjelet helyezünk el és látható vízjelet teszünk a Veo videókra is."

Farid és csapata a SynthID-t használta a hamis videók azonosítására. De a közösségi média görgetők nem szánnak időt arra, hogy ellenőrizzék, hanem úgy, ahogy van, közzéteszik, amit csak látni vélnek.

 

Hírlevél feliratkozás
Ne maradjon le a zaol.hu legfontosabb híreiről! Adja meg a nevét és az e-mail-címét, és mi naponta elküldjük Önnek a legfontosabb híreinket!