Konflikti Iran-Izrael është shtrembëruar nga dezinformatat e krijuara nga inteligjenca artificiale

Këtë javë, revista e njohur Forbes konfirmoi mënyrën e veprimit, se në hapësirën e dezinformimit, inteligjenca artificiale (IA) është një armë kyçe në amplifikimin e narrativave të rreme, dhe modeli Veo 3 i Google është në qendër të disa fushatave me falsifikime hiperrealiste fiktive që qarkullojnë, duke pretenduar se përshkruajnë skena nga konflikti midis Izraelit dhe Iranit, shkruan Vërtetmatësi.

Shkruan: Miroslava Simonovska

Një valë e fortë videosh dhe fotosh të krijuara me inteligjencë artificiale, qëllimi i të cilave është të tregojnë një nivel të rritur suksesi të sulmeve të Iranit ndaj objektivave izraelite dhe superioritetin e Iranit, kanë shënuar javët e fundit që nga shpërthimi i konfliktit midis këtyre dy vendeve. Disa prej tyre përfunduan në rrjetet sociale në Maqedoninë e Veriut, pasi u ndanë nga përdorues të ndryshëm.

Në disa prej tyre, përpjekja për të forcuar pozicionin iranian përmes teknikës së ribotimit të pamjeve të vjetra, me pretendime të rreme se ato janë të reja, ishte dominuese.

“Vërtetmatës” gjeti një shembull të tillë të ndarë më 13 qershor 2025, kur një video u publikua pa specifikuar se nga ishte, dhe duke pasur parasysh datën e publikimit dhe riaktualizimin e konfliktit, sigurisht që krijoi një përshtypje të pavërtetë se ishte aktuale. Po flasim për këtë video.

Raketat iraniane depërtojnë nëpër retë dhe godasin Izraelin, thuhet në përshkrimin e pamjeve të 13 qershorit 2025.

Megjithatë, regjistrimi nuk daton nga data e treguar, por nga 8 muaj më parë, nga 2 tetori 2024, gjë që mund të shihet nga data e publikimit fillestar të videos specifike në YouTube.

Pastaj, Irani nisi një sulm raketor ndaj Izraelit me gati 200 raketa balistike. E njëjta mënyrë e ndarjes së videos së vjetër në një kontekst të ri u vu re edhe nga verifikuesit e fakteve të Misbar, i cili mbulon zonën arabishtfolëse, që do të thotë se i njëjti lloj dezinformimi u shfaq edhe atje.

Përveç kësaj, midis serisë së videove që u prezantuan në rrjetet sociale, të cilat nuk ishin të besueshme, kishte video të krijuara me inteligjencë artificiale, me qëllim që të tregonin shkatërrimin e madh të Tel Avivit në Izrael. Një shembull i tillë është një material me pamje nga lart që tregon rrënojat e zonave urbane me popullsi të dendur, ndërtesat që janë shkatërruar plotësisht dhe ku nuk ka lëvizje njerëzore.

Siç shkruajnë verifikuesit e fakteve në Full Fact (fullfact.org), kjo është një video që nuk është e besueshme, por është krijuar me ndihmën e inteligjencës artificiale (IA). Kjo tregohet nga një vështrim më i afërt i aspekteve të ndryshme të videos – nëse shikoni këndin e sipërm të majtë ku dy makina afrohen me njëra-tjetrën në një kryqëzim T, ato papritmas bëhen një makinë (bashkohen në një), gjë që është një shenjë e qartë e manipulimit të përmbajtjes së videos me mjete IA.

Ndër fotot kataklizmike që kishin për qëllim të tregonin shkatërrimin e madh të Izraelit dhe supremacinë e Iranit, njëra u publikua më 17 qershor 2025, për të cilën u përdor inteligjenca artificiale. U paraqit në mënyrë të rreme si “që ilustron momentin e një sulmi masiv me raketa në Tel Aviv”.

Por fotografia është nga autori egjiptian “Mohammad Youssef”, i cili është dizajner grafik dhe vetë më 13 qershor 2025, kur e publikoi, deklaroi se imazhi ishte gjeneruar me inteligjencë artificiale. Ai deklaroi për dizajnin e tij se ishte krijuar për nevojat e medias egjiptiane “El Balad News”, për një poster në Facebook të publikuar më 14 qershor.

Foto të rreme të shkeljes së “Kupolës së Hekurt” pasuan edhe konfliktin midis Izraelit dhe Iranit. Mburoja më e famshme raketore izraelite e projektuar për të kapur raketa me rreze të shkurtër veprimi u shkel me të vërtetë, por rezultatet vizuale të disa fotove që e treguan atë ishin të ekzagjeruara dhe me ndihmën e teknologjisë së manipulimit të fotove.

Fotografia specifike nuk është reale, por e krijuar me inteligjencë artificiale që jep një “pamje djallëzore”.

Këtë javë, “Forbes” i njohur konfirmoi mënyrën e veprimit, se në hapësirën e dezinformimit, inteligjenca artificiale është arma kryesore në amplifikimin e narrativave të rreme, dhe modeli “Veo 3” i Google është në qendër të disa fushatave me falsifikime hiperrealiste fiktive që qarkullojnë, duke pretenduar se tregojnë skena nga konflikti midis Izraelit dhe Iranit.

Emmanuel Saliba, një hetues, analizoi për “Forbes” se cili është qëllimi i këtij përdorimi të mjeteve të manipulimit të fotove.

Kjo mund të jetë hera e parë që kemi parë inteligjencën artificiale gjeneruese të përdorur në një shkallë të gjerë gjatë një konflikti. Ai tha për Forbes se po përdoret gjithashtu për të replikuar sulmet me raketa, ndonjëherë natën, të cilat janë veçanërisht të vështira për t’u verifikuar me taktikat e zbulimit vizual.

Javën e kaluar, BBC raportoi se kishte gjetur dhjetëra video të gjeneruara nga inteligjenca artificiale që supozohet se përpiqeshin të provonin efektivitetin e përgjigjes së Iranit ndaj sulmeve të Izraelit.

Foto: Pamje e ekranit e një postimi në BBC, fotografia e rreme e një “aeroplani të dëmtuar pasi u rrëzua në shkretëtirën iraniane”
Foto: Pamje e ekranit e një postimi në BBC, fotografia e rreme e një “aeroplani të dëmtuar pasi u rrëzua në shkretëtirën iraniane”

Një shembull i një përmbajtjeje të tillë – e cila ende nuk është ndarë nga llogaritë e mediave sociale në gjuhën maqedonase – është një foto që supozohet të jetë e një “aeroplani të dëmtuar pasi u rrëzua në shkretëtirën iraniane”. Megjithatë, shenjat e manipulimit të inteligjencës artificiale ishin të qarta – civilët që rrethonin aeroplanin ishin të njëjtës madhësi me automjetet aty pranë, dhe nuk kishte asnjë gropë në rërë që do të tregonte se një aeroplan ishte rrëzuar.