Deepfake: Një teknikë e inteligjencës artificiale që do t’ju bëjë të vini në dyshim gjykimin tuaj

‘Deepfake’, një nga arritjet e përdorimit të inteligjencës artificiale, mund të jetë gjithashtu edhe një nga më të rrezikshmet, për shumë arsye – nga prishja e reputacionit dhe privatësisë së një personi, tek manipulimi i publikut dhe shtrembërimi i plotë i ngjarjeve të çdo lloji në sferën shoqërore. Shembulli më flagrant është videoja e Presidentit të Ukrainës, Zelenski, në të cilën ai u thotë ushtarëve të tij të dorëzohen në luftën kundër Rusisë, shkruan Meta.mk.

Videoja duket autentike. Personazhi është ai, shprehjet e fytyrës janë të njëjta, e hap gojën ashtu siç flet. Një njeri i thjeshtë nuk do të vërente asgjë të pazakontë këtu. Por, videoja është e rreme, gjegjësisht quhet “deepfake” (thellësisht e rreme), sepse ajo që mendoni se po shihni, në fakt nuk është e vërtetë.

Ky është një nga përkufizimet më të thjeshta të ‘deepfake’, një nga arritjet e përdorimit të inteligjencës artificiale, e cila mund të jetë gjithashtu edhe një nga më të rrezikshmet, për shumë arsye – nga prishja e reputacionit dhe privatësisë së një personi, përmes manipulimit të publikut për të (mos) votuar për një opsion të caktuar politik, e deri te shtrembërimi i plotë i ngjarjeve të çdo lloji në sferën shoqërore.

Shembulli më flagrant është videoja e Presidentit të Ukrainës, Volodimir Zelenski. Videoja në të cilën ai u thotë ushtarëve të tij të dorëzohen në luftën kundër Rusisë u bë një nga më viralet, vërshoi botën dhe u bë lajmi kryesor në raportet për agresionin rus në Ukrainë. E në fakt, kjo video nuk korrespondon aspak me realitetin – sado autentike të duket, është në të vërtetë e rreme.

Verifikuesit e fakteve në këtë video vunë re se, për shembull, koka e Zelenskit është për një nuancë më e madhe se trupi i tij, dhe në të njëjtën kohë është më e “pikseluar” për dallim nga pjesa tjetër e trupit, kështu që ata që i ndjekin rregullisht fjalimet e presidentit ukrainas mundën të vërejnë se ka diçka të pazakontë në këtë video. Por, videoja u postua në Ukraina 24, një ueb-portal i rëndësishëm, i cili në fakt ishte hakuar, e më vonë, ata dolën me një njoftim se ishin hakuar dhe se videoja e postuar ishte e rreme. Kjo u konfirmua më vonë edhe nga vetë Zelenski.

Një shembull krejt ndryshe janë aktorët dhe këngëtarët e njohur në mbarë botën, të cilët vazhdimisht janë subjekt i manipulimeve përmes teknikës ‘deepfake’. Për shembull, aktori, komediani dhe muzikanti amerikan, Miles Fisher u bë i famshëm për videot ‘deepfake’ për aktorin Tom Cruise – ai i bën ato deri në shkallë të përsosmërisë, kështu që vështirë se ndonjë i njeri i zakonshëm mund të vërë re se ata nuk kanë asnjë pikë të përbashkët me realitetin.

Fisher “u zhyt” në personazhin e Tom Cruise deri në atë masë, saqë u bë i famshëm në publik pikërisht për këtë – rregullisht është duke u intervistuar, dhe jep deklarata në lidhje me teknikën që përdor – një teknikë që është padyshim një thikë me dy tehe.

Rreziku më i madh që paraqet “deepfake” është aftësia e tyre për të përhapur informacione të rreme që duket se vijnë nga burime të besuara, mirëpo që janë gënjeshtër e plotë. Prandaj, është jashtëzakonisht e vështirë t’u shpjegosh shikuesve se ajo që ata shohin dhe dëgjojnë, në të vërtetë nuk ka asnjë pikë të përbashkët me realitetin. Ai sheh dhe dëgjon se si Zelenski deklaron kapitullim. Pse do të mendonte se nuk është kështu?!

Foto nga cottonbro studio: https://www.pexels.com/photo/a-woman-with-number-code-on-her-face-while-looking-afar-5473956/
Foto nga cottonbro studio / Pexels

Fillime pornografike me pasoja të rënda

Deepfakes, sipas definicionit, përfshijnë fotografi, video dhe audio të gjeneruara nga teknologjia e inteligjencës artificiale (IA) që paraqesin diçka që nuk ekziston në realitet ose ngjarje që nuk kanë ndodhur kurrë.

Termi është marrë nga një kombinim i fjalëve “të mësuarit e thellë” me inteligjencën artificiale dhe “e rreme” – me theks në faktin se përmbajtja nuk është reale.

Hera e parë që “deepfake” filloi të përdoret ishte në vitin 2017, kur një moderator në Reddit krijoi një komunitet të quajtur “deepfakes” dhe filloi të postonte video që përdorin teknologjinë e ndërrimit të fytyrës për të futur ngjashmëritë e personave të famshëm në videot ekzistuese pornografike. Prandaj, pornografia është në fakt origjina e videove “thellësisht të rreme”, të bëra për të diskredituar persona të famshëm, kryesisht femra.

Pastaj, aplikimi i tyre filloi të përhapet edhe në shumë segmente të tjera shoqërore. Shembuj të “deepfakes” që janë përhapur gjerësisht përfshijnë, për shembull, Papa Françeskun e veshur me një xhaketë pufer, për të cilën shumë figura publike, si Chrissy Teigen, kanë deklaruar se kanë besuar në origjinalitetin e tyre dhe kanë deklaruar se “nuk ka gjasa që t’i mbijetojnë të ardhmes së teknologjisë.”

Pothuajse në të njëjtën kohë, në rrjetet sociale u shfaq një video në të cilën gjoja shihet ish-president i SHBA-ve, Donald Trump në një konfrontim me policinë, e pastaj edhe një video e drejtorit ekzekutiv të Facebook-ut, Mark Zuckerberg ku flet për “fuqinë e keqe të kompanisë” dhe një video e mbretëreshës tashmë të ndjerë Elizabeth duke vallëzuar dhe duke mbajtur një fjalim për fuqinë e teknologjisë.

Asnjëra nga këto ngjarje nuk ka ndodhur në jetën reale. Por, jo të gjithë e dinë këtë, kështu që lehtë mund të mashtrohen. Kjo është arsyeja pse lajmet “deepfake” demaskohen rregullisht nga verifikuesit e fakteve në të gjithë botën, ndërsa përdorimi i “deepfakes” ka nxitur përgjigje edhe nga industria dhe nga qeveritë për të zbuluar dhe kufizuar përdorimin e tyre.

Si bëhen videot “deepfake”?

Mënyra se si funksionon algoritmi “deepfake” është komplekse. Por, “salca sekrete” e algoritmeve ka dy komponentë të rëndësishëm. E para është se algoritmi zhvillon një kuptim të thellë të fytyrës së një personi dhe mëson se si t’i hartojë ato atribute tek një person tjetër. Meqenëse shumica e njerëzve kanë gojën, sytë dhe hundën në afërsisht të njëjtin vend në fytyrën e tyre, algoritmi mund të analizojë tiparet e asaj anatomie dhe ta mësojë atë në detaje jashtëzakonisht të imta. Më pas manipulon me veçoritë në videon e dytë për t’iu përshtatur veçorive nga e videoja e parë. Algoritmi i bën të gjitha këto duke e ruajtur stilin dhe pamjen e përgjithshme të videos origjinale.

Ose, thënë thjesht, softueri i destinuar për të gjeneruar “deepfake” përmban fotografi, video dhe klipe me zë të njerëzve që përpunohen për të “mësuar” atë që e bën një person unik, diçka e ngjashme me softuerin për njohjen e fytyrës. Teknologjia “deepfake” më pas e zbaton atë informacion në klipe të tjera, duke zëvendësuar një person me një tjetër, si bazë për krijimin e një klipi krejtësisht të ri.

Për të krijuar një “deepfake”, softueri i specializuar ka nevojë për një numër të madh videosh, audiosh dhe fotografish. Madhësia e mostrës së këtyre të dhënave është e rëndësishme sepse ka një lidhje të drejtpërdrejtë me atë se sa cilësor apo jocilësore do të jetë “produkti” i ri. Nëse softueri ka vetëm disa fotografi ose klipe për të punuar, ai nuk do të jetë në gjendje të krijojë një fotografi bindëse.

Vetëm me një kërkim të thjeshtë në Google, mund të gjenden qindra mënyra për të bërë një video ”deepfake”. Shumica e këtyre aplikacioneve janë me pagesë, por duke qenë se nuk bëhet fjalë për shuma të mëdha, ato mund të përdoren nga pothuajse kushdo që është i gatshëm të kalojë nga argëtimi i thjeshtë në diçka që mund të ketë pasoja serioze.

Intelegjenca artificiale (IA, IA). Foto nga ThisIsEngineering/Pexels
Intelegjenca artificiale (IA, IA). Foto nga ThisIsEngineering/Pexels

Mënyrat për të dalluar një video “deepfake”

Fillimisht, videot “deepfake” u përdorën kryesisht për qëllime të padëmshme dhe argëtuese, të tilla si krijimi i zëvendësimeve të fytyrës së personave të famshëm ose futja e fytyrave në filma. Megjithatë, me avancimin e teknologjisë, u rrit edhe potenciali i saj për keqpërdorim. Algoritmet “deepfake” u bënë më të sofistikuara, duke mundësuar manipulime të patëmeta dhe bindëse. Kjo ka ngritur shqetësime në lidhje me potencialin për përdorim keqdashës, si përhapja e dezinformatave, shpifjeve e madje edhe manipulime politike.

Në vitin 2018, studiuesit amerikanë zbuluan se njerëzit në videot “deepfake” nuk i mbyllin sytë, gjegjësisht se shumica e fotografive i shfaqin njerëzit me sytë e tyre vazhdimisht të hapur. Por, sapo u publikua ky hulumtim, u paraqitën “deepfakes” me mbyllje të syve, gjegjësisht krijuesit mësuan se pasi të zbulohej një dobësi, ajo mund të rregullohej me lehtësi.

Sipas Guardian, më lehtë dallohen “deepfakes” me cilësi të ulët. Për shembull, sinkronizimi i buzëve mund të jetë i dobët ose toni i lëkurës mund të jetë i mugët, e mund të ketë edhe dridhje në filmim.

Kompania Norton, e cila ofron një shumëllojshmëri produktesh dhe shërbimesh në lidhje me sigurinë digjitale, mbrojtjen e identitetit dhe privatësinë në internet, i veçon gjërat kryesore sipas të cilave mund të njihet një video “deepfake”:

Lëvizja e panatyrshme e syve, sepse është sfidë e vështirë të përsëritet veprimi i hapjes dhe mbylljes së syve në mënyrë që do të duket e natyrshme. Është gjithashtu sfiduese të replikohen lëvizjet e syve të një personi të vërtetë.

Shprehjet e panatyrshme të fytyrës ose pozicionimi i çuditshëm i tipareve të fytyrës, si për shembull fytyra e kthyer në njërën anë, ndërsa hunda në anën tjetër;

Qëndrimi jo adekuat i trupit ose vendosja jokonsekuente e kokës dhe trupit. Kjo mund të jetë një nga mospërputhjet më të lehta për t’u zbuluar sepse teknologjia e “deepfake” zakonisht fokusohet në tiparet e fytyrës, e jo në të gjithë trupin.

Ngjyra e panatyrshme: Toni jonormal i lëkurës, ndryshimi i ngjyrës së lëkurës, ndriçimi i çuditshëm dhe hijet e vendosura gabimisht, të gjitha këto janë shenja se ajo që e shihni me gjasë është e rreme.

Flokë që nuk duken reale: Nuk do të shihni flokë të dredhura ose të shpupuritura, sepse fotografitë e rreme nuk janë në gjendje t’i gjenerojnë këto karakteristika individuale.

Dhëmbë që nuk duken realë: mungesa e konturave të dhëmbëve mund të jetë një tregues se videoja është e rreme.

Mjegullimi ose mospërputhja: nëse skajet e fotografive janë të mjegulluara ose pamjet vizuale janë radhitur gabimisht – për shembull, kur fytyra dhe qafa ngjiten me trupin – do ta kuptoni se diçka nuk është në rregull.

Zë dhe zhurmë jokonsekuente: Krijuesit e “deepfake” zakonisht shpenzojnë më shumë kohë te videot dhe fotografitë sesa te zëri (audioja). Rezultati mund të jetë sinkronizimi i dobët i buzëve, zëra me tingull robotik, shqiptimi i çuditshëm i fjalëve, zhurmë digjitale në sfond, etj.

“Kërkimi i kundërt i fotografive” (Reverse Image Search): kërkimi i fotografisë origjinale ose kërkimi i kundërt i fotografive me ndihmën e kompjuterit, mund të zbulojë video të ngjashme në internet për të ndihmuar në konstatimin nëse fotografia, zëri ose videoja janë ndryshuar në ndonjë mënyrë.

Videoja nuk raportohet nga burime të besuara të lajmeve: Nëse atë që e thotë ose e bën personi në video është tronditëse ose e rëndësishme, mediat do të raportojnë për të. Nëse kërkoni informacione për videon dhe asnjë burim i besuar nuk e transmeton atë, kjo mund të jetë një sinjal se videoja është e rreme.

Shpatë me dy tehe

Teknologjia “deepfake” paraqet një thikë me dy tehe në fushën e inteligjencës artificiale. Megjithëse ofron mundësi kreative dhe argëtuese, potenciali i saj për keqpërdorim dhe keqdashje është një shqetësim i rëndësishëm global. Përderisa algoritmet përparojnë, është thelbësore që njerëzit të jenë vigjilentë dhe të zhvillohen strategji për të zbutur ndikimet negative. Duke rritur ndërgjegjësimin, duke investuar në teknologjinë për zbulim dhe duke zbatuar masat përkatëse ligjore dhe politike, mund të lundrojmë në peizazhin kompleks të teknologjisë “deepfake” dhe të ruajmë besimin, sigurinë dhe integritetin e botës digjitale.

Kompania e teknologjisë Meta, pronare e Facebook-ut, nga viti i ardhshëm do të kërkojë nga reklamuesit politikë të tregojnë kur kanë përdorur inteligjencën artificiale (IA) ose manipulim digjital në reklamat në Facebook dhe Instagram. Duke filluar nga janari, reklamat që lidhen me politikën, zgjedhjet ose çështjet sociale do të duhet të raportojnë çdo fotografi ose video të ndryshuar në mënyrë digjitale, ndërsa përdoruesit do të njoftohen kur reklamat do të jenë shënuar si të ndryshuara në mënyrë digjitale.

Rregullat aktuale të “Meta”-s për videot “deepfake” parashohin heqjen e përmbajtjes nëse ajo mund të mashtrojë një person mesatar të besojë se subjekti në video i ka thënë gjëra që në fakt janë ndryshuar ose nuk i ka thënë fare.