Lufta në Izrael, roli i papritur i Inteligjencës Artificiale dhe kërkimi i së vërtetës

Hapat dhe kufijtë e bërë nga Inteligjenca Artificiale në vitet e fundit ndikojnë në mënyrën se si publiku reagon ndaj informacionit që merr për luftën në Izrael, sipas një analize të publikuar nga New York Times.

Artikulli në fjalë fillon duke përmendur shembullin e një imazhi të tmerrshëm që qarkulloi në internet ku tregon trupin e djegur të një fëmije që vdiq në ditët e para të konfliktit midis Izraelit dhe Hamasit. Disa komentues në mediat sociale shpejtuan ta hidhnin poshtë atë si një “imazh të rremë të krijuar nëpërmjet AI”, që do të thotë mjete të inteligjencës artificiale që mund të prodhojnë imazhe foto-realiste për vetëm disa klikime.

Disa ekspertë të A.I. thonë se teknologjia AI nuk është përdorur për këtë imazh të veçantë. Problemi është se dyshimet për vërtetësinë e tij tashmë ishin përhapur në internet.

Që nga sulmi terrorist i Hamasit kundër Izraelit më 7 tetor, rojet kundër dezinformimit kanë ngritur frikën se imazhet e rreme të krijuara përmes mjeteve të AI – duke përfshirë përshkrime realiste të njohura si ” deepfakes” – mund të përdoren për të ngatërruar publikun dhe për qëllime propagandistike. Deri më tani, ata kanë pasur të drejtë në parashikimin e tyre se teknologjia do të luante një rol kyç në formimin e opinionit publik për luftën – por jo për arsyen që ata mendonin.

Sondazhet e materialeve dezinformuese në internet kanë treguar deri më tani se imazhet e rreme të luftës të krijuara nga AI janë relativisht të pakta dhe shumë larg. Megjithatë, thjesht mundësia e qarkullimit të A.I. i bën njerëzit të hedhin poshtë imazhet, videot dhe dokumentet audio origjinale si të rreme.

Në forume dhe platforma të mediave sociale si X, Truth Social, Telegram dhe Reddit, komentuesit akuzojnë figura politike, media dhe përdorues të tjerë se përpiqen të manipulojnë opinionin publik duke krijuar përmbajtje të AI, edhe kur përmbajtja në fjalë është pothuajse me siguri autentike.

“Edhe sipas standardeve të ‘mjegullës së luftës’ me të cilat jemi mësuar, ky konflikt është veçanërisht konfuz,” thotë Hany Farid, një profesor i shkencave kompjuterike në Universitetin e Kalifornisë, Berkeley dhe një ekspert në forenzikën dixhitale, inteligjencën artificiale dhe dezinformimin. “Hija e deepfakes është shumë, shumë më e rëndë tani – nuk duhen dhjetëra mijëra, vetëm disa për të përhapur dyshime dhe për të bërë gjithçka të duket e dyshimtë.”

Teknologjia e Inteligjencës Artificiale është përmirësuar ndjeshëm vitin e kaluar dhe tani pothuajse çdokush mund të krijojë një falsifikim bindës duke futur tekst në “gjeneratorët” popullorë të imazheve, videove ose audiove – ose duke përdorur mjete më të sofistikuara. Kur u publikua një video e rreme e presidentit ukrainas Volodymyr Zelensky në pranverën e vitit 2022, ajo u tall gjerësisht si shumë e rreme për të qenë e vërtetë.

Në të kundërt, një video e ngjashme false e presidentit rus Vladimir Putin ishte mjaft bindëse për t’u transmetuar nga disa rrjete radiotelevizive ruse qershorin e kaluar.

“Çfarë ndodh kur fjalë për fjalë gjithçka dixhitale që shihni mund të jetë e rreme?” pyeti Bill Marcellino, një analist i sjelljes dhe ekspert i AI në grupin kërkimor RAND Corporation, në një konferencë të fundit për shtyp, duke vënë në dukje se një ndryshim historik ka ndodhur në mënyrën se si ne besojmë ose refuzojmë informacionin që marrim.

Mes diskutimeve shumë të ngarkuara për luftën në Izrael, shumë prej të cilave po zhvillohen në platformat e mediave sociale që përpiqen të mbrojnë përdoruesit e tyre nga përmbajtja tronditëse dhe e pasaktë, besimi vazhdon të prishet. Dhe tani, ekspertët besojnë se subjektet me qëllim të keq po përfitojnë nga disponueshmëria e inteligjencës artificiale për të hedhur dyshime mbi harduerin e vërtetë. Përpjekja e tyre forcohet nga ekzistenca e materialit që në fakt është krijuar përmes teknologjisë AI.

Një postim në ‘X’ me 1.8 milion shikime që supozohet të tregojë tifozët e futbollit në një stadium të Madridit duke mbajtur një flamur të madh palestinez. Përdoruesit e platformës vunë në dukje se trupat e shtrembëruar në imazh “japin” se është krijuar duke përdorur inteligjencën artificiale. Një llogari e lidhur me Hamasin në ‘X’ ndau një imazh që pretendonte të tregonte një kamp për izraelitët e zhvendosur, por flamuri izraelit përshkruhej me dy yje blu në vend të një. Postimi u hoq më vonë. Llogaritë në Truth Social dhe një kanal Telegram i lidhur me Hamasin shpërndanë imazhe të Benjamin Netanyahut të dyshuar të mbuluar me gjak.

Shumë më tepër vëmendje iu kushtua materialit “të dyshimtë” që nuk tregonte shenja të ndërhyrjeve të inteligjencës artificiale, siç është video e drejtorit të një spitali të bombarduar në Gaza duke dhënë një konferencë shtypi, të cilën disa e quajtën të rreme, por që u regjistrua nga këndvështrime të ndryshme nga burime të shumta.

Shembuj të tjerë ishin më të vështirë për t’u kategorizuar: Ushtria izraelite publikoi një bisedë të regjistruar midis dy anëtarëve të Hamasit që tha se e kishte rrëmbyer. Megjithatë, në rrjetet sociale ka komentues që kanë shprehur dyshime për vërtetësinë e tij, ndërkohë që rrjete si BBC dhe CNN e kanë luajtur atë pa konfirmuar se audioja ishte e vërtetë.

Në përpjekje për të dalluar të vërtetën nga inteligjenca artificiale, disa përdorues të mediave sociale i janë drejtuar mjeteve të zbulimit, të cilat pretendojnë se zbulojnë manipulimin dixhital, por që kanë rezultuar të jenë gjithçka tjetër veçse të besueshme. Një test nga The Times zbuloi se detektorët e imazheve kanë performuar dobët në të kaluarën, duke diagnostikuar gabimisht fotot origjinale dhe të rreme.

Shërbimet e disponueshme të zbulimit të A.I ato mund të jenë potencialisht të dobishme si pjesë e një grupi më të gjerë mjetesh, por janë të rrezikshme kur trajtohen si “fjala e fundit” për autenticitetin e përmbajtjes, shpjegon eksperti i manipulimit të përmbajtjes Henry Ager . Sipas tij, mjetet e zbulimit të Deepfake nuk janë asgjë më shumë se një zgjidhje e rreme “për një problem shumë më kompleks dhe më të vështirë”.

Megjithatë, tani për tani, përdoruesit e mediave sociale që kërkojnë të mashtrojnë publikun po mbështeten më pak në imazhet fotorealiste të AI dhe më shumë në pamjet e vjetra nga konfliktet ose fatkeqësitë e mëparshme, të cilat ata i paraqesin në mënyrë të rreme si situatën aktuale në Gaza, thotë Alex Mahadevan, drejtor i MediaWise. program për edukimin mediatik, duke vënë në dukje se në fund të fundit “cilësia” e mashtrimit apo risia e tij nuk është aq e rëndësishme.

()

Arena e Lajmit

Lufta në Izrael, roli i papritur i Inteligjencës Artificiale dhe kërkimi i së vërtetës

Ju mund të regjistroheni në buletinin tonë të lajmeve plotësisht falas

Mos e humbisni mundësinë për t'u informuar për lajmet më të fundit dhe eksluzive, filloni tani abonimin tuaj falas me e-mail.

Welcome

Instalo aplikacionin tonë
×
Na ndiqni

Na ndiq në Facebook