Inteligjenca artificiale, një mjet jashtëzakonisht i dobishëm, por edhe i rrezikshëm në duart e njeriut
Mësoni se si funksionon në të vërtetë teknologjia që qëndron pas IA-së, si ndikon në jetën tonë, cilat janë pozitive dhe negative të saj dhe çfarë mund të presim në të ardhmen
Autor: Borjan Gagovski, Meta.mkMeta.mk
Duket se nuk kanë fund bisedat për inteligjencën artificiale (IA), në media, në rrjetet sociale, në shkencë, në botën e biznesit, në jetën e përditshme. Prandaj, nuk është për t’u habitur që fjalori Collins këtë vit i dha titullin “fjala e vitit” pikërisht IA-së.
Inteligjenca artificiale mbulon një gamë të gjerë teknologjish, të cilat synojnë të zhvillojnë programe kompjuterike me aftësi shumë të zhvilluara të të menduarit dhe mësimit. Teknologjia e IA-së e bën të mundur zgjidhjen e detyrave komplekse që deri para do kohësh thuajse dukeshin të pamundura, siç është përgjigjja tepër e detajuar në të gjitha llojet e pyetjeve nga chatbot-et, si ChatGPT.
Jemi dëshmitarë të artit të jashtëzakonshëm të krijuar nga IA-ja – në mësim, biznes, e po ashtu dëgjojmë se një këngë e re nga Beatles është bërë pikërisht me ndihmën e IA-së. Në të njëjtën kohë, shohim se si e njëjta teknologji përdoret për të krijuar edhe përmbajtje të rreme dhe manipuluese politike, se si krijohen probleme në sferën akademike në fushën e plagjiaturës dhe si manipulohet me përmbajtje të rreme pornografike me personazhe që nuk kanë dhënë leje për këtë.
Kështu, nga njëra anë, ajo është një mjet jashtëzakonisht i dobishëm, mirëpo nga ana tjetër, mund të sjellë dëme të mëdha, kështu që pyetja kryesore është – ku është ekuilibri dhe cili është kufiri që nuk duhet të kalohet, në mënyrë që të ruhet vetëm ana pozitive e saj, nëse kjo është e mundur, duke qenë se mundësitë e saj ende nuk janë eksploruar plotësisht. Përkundrazi, koha e saj sapo është duke ardhur.
Çfarë është inteligjenca artificiale?
Siç u tha më parë, inteligjenca artificiale është një term i gjerë që përfshin shumë fusha të ndryshme në shkencën kompjuterike.
Në përgjithësi, bëhet fjalë për teknologji që synojnë arritjen e aftësive të avancuara të të menduarit përmes përdorimit të sistemeve kompjuterike. Vetë strukturat e modeleve të IA-së, gjegjësisht programet që analizojnë informata, duke përdorur teknologjinë e IA-së, shpesh frymëzohen nga strukturat e trurit të njeriut.
Teknologjia e IA-së përdoret për të zgjidhur një sërë detyrash, si për shembull, luajtja e lojës Pac-Man ose shah për të arritur rezultatin më të lartë, vlerësimi i probabilitetit që një pacient të ketë diabet, sipas të dhënave të caktuara mjekësore për të, ose krijimi i tekstit në stilin e Dostojevskit.
Algoritmet që sot tërheqin më shumë vëmendjen i përkasin konkretisht domenit të të mësuarit të thellë (MTh) – një degë e mësimit të makinës (MM) – e cila nga ana tjetër është një degë e IA-së. Modelet që përdorin mësimin e makinës “mësojnë” se si të zgjidhin në mënyrë optimale një detyrë të caktuar, ndërsa modelet që përdorin mësimin e thellë janë versione më të avancuara të mësimit të makinës që përdorin baza të dhënash shumë më të mëdha.
Kur e lexojmë fjalinë e fundit, mund të duket e pakuptueshme që programet kompjuterike të jenë në gjendje të “mësojnë”. Modelet që përdorin MM-në në fakt mësojnë duke zgjidhur një numër të madh shembujsh të të njëjtit problem, duke u përmirësuar me çdo problem të zgjidhur gabimisht.
Le të marrim një shembull relativisht të thjeshtë për të kuptuar se si “mëson” teknologjia MM. Kështu, ne programojmë një model, detyra e të cilit është të njohë nëse ka një qen në një foto të caktuar. Gjatë trajnimit të modelit, gjegjësisht derisa programi është ende në fazën e zhvillimit dhe “të mësuarit”, ne i japim një sërë fotografish. Për çdo fotografi veç e veç, modeli i merr vlerat e çdo pikseli, i shumëzon ato me disa vlera ndihmëse të quajtura “pesha” dhe më pas rezultatin përmbledhës jep një rezultat përfundimtar që e tregon probabilitetin nëse në fotografinë e dhënë ka qen ose jo.
Mësimi konsiston në atë që me çdo shembull të gabuar, modeli i rregullon “peshat” e tij në mënyrë adekuate (në mënyrë të specifikuar nga programuesi), për të përmirësuar rezultatin e përcaktimit të përmbajtjes së fotografisë. Me sa më shumë fotografi ta “trajnojmë” modelin gjatë fazës së zhvillimit të tij, aq më saktë ai do të jetë në gjendje t’i njohë qentë.
Me këtë rast, sa më e madhe të jetë sasia e të dhënave të trajnimit, aq performanca më të mirë do të arrihen përmes sistemeve të inteligjencës artificiale. Në fakt, qasja në një sasi të madhe të dhënash në internet është një nga arsyet kryesore pse ka pasur një “bum” të IA-së në dhjetë vitet e fundit.
Është jashtëzakonisht e rëndësishme të theksohet se inteligjenca artificiale nuk do të kishte arritur asgjë në këtë rast pa njeriun që është “natyrshëm inteligjent”, i cili më parë ka përcaktuar nëse në fotografi ka qen ose i ka dhënë urdhër algoritmit se si t’i përshtat “peshat” e tij në mënyrë të saktë. Pikërisht për këto arsye, disa hulumtues konsiderojnë se termi “inteligjencë artificiale” mund t’u japë njerëzve përshtypjen e rreme se modelet janë të vetëdijshme. Por, termi “modele komplekse statistikore për njohjen dhe gjenerimin e modeleve” nuk tingëllon aq interesant sa termi “inteligjencë artificiale”.
Inteligjenca artificiale – për të mirë dhe për të keq
Ndërsa mjetet që përdorin inteligjencën artificiale po bëhen gjithnjë e më të disponueshme, dhe ndërsa ato bëhen gjithnjë e më të sofistikuara, çdo ditë kemi shembuj të rinj të aplikimit të saj. Zbatimi, natyrisht, mbulon një spektër të tërë – nga shembuj të dobishëm në pothuajse çdo sferë deri në shkatërrimin e sferave të tjera, duke përhapur dezinformata.
Një shembull i paradokohshëm që pati pasoja të dukshme mund të gjendet në bisedën e rreme mes një gazetareje dhe Mihael Shimeçkës, liderit progresiv të opozitës në Sllovaki, i cili u publikua më pak se 48 orë para mbajtjes së zgjedhjeve, gjatë heshtjes mediatike. Në të mund të dëgjohet se si kandidati i opozitës pretendohet se do të blejë votat e votuesve romë. Videoja pati një numër të madh shikimesh.
Partia në pushtet, një nga premtimet kryesore të së cilës ishte shkurtimi i plotë i ndihmës ushtarake për Ukrainën, fitoi në këto zgjedhje. Edhe pse arsyeja e fitores sigurisht që nuk mund të reduktohet në përhapjen e dezinformatave të krijuara përmes inteligjencës artificiale, ky shembull megjithatë tregon se si teknologjia e IA-së mund të ndikojë në procesin demokratik.
Ekzistojnë gjithashtu një sërë shembujsh pozitivë se si IA-ja mund të zbatohet në jetën e përditshme, veçanërisht kur bëhet fjalë për të ndihmuar gjatë shkrimit (këtu nuk flasim për krijimin e përmbajtjeve të rreme).
Për shembull, mundemi t’i themi ChatGPT-së që t’u përgjigjet pyetjeve nga pozicioni i një profesori ose drejtuesi të një agjencie marketingu. Nëse në këtë mënyrë ia parashtrojmë detyrat ChatGPT-së, mund të marrim përgjigje më specifike që janë më të përshtatshme për nevojat tona.
Gjithashtu, Ia-ja mund të jetë jashtëzakonisht e dobishme nëse jemi të saktë në pyetjen tonë. Nëse kërkesa është shumë e përgjithshme ose kërkojmë shumë gjëra menjëherë nga bot-i, mund të marrim përgjigje joadekuate. Specifikimi në kërkesë përfshin, për shembull, “më jep përgjigjen në pesë paragrafë”.
Për më tepër, ekziston edhe opsioni për të pyetur vetë ChatGPT-në se si mund ta parashtrojmë më mirë kërkesën tonë.
Studiuesi Mushtak Bilal shpesh publikon mënyra se si chatbot-et mund të përdoren në mënyrë më efektive në hulumtimet akademike.
Ai thotë se gjithmonë është më mirë ta ndash detyrën që dëshiron t’ia parashtrosh ChatGPT-së në hapa më të vegjël. Për shembull, në vend që t’i jepet menjëherë një detyrë e vështirë, si “më shkruaj një shabllon eseje për analizën e kësaj vepre letrare, duke përdorur metodën e analizës letrare të këtij filozofi”, është më mirë të nisemi nga pyetja për veprën e filozofit, pastaj për veprën konkrete dhe në fund të kombinohen gjetjet.
Bilal rekomandon edhe mjete të tjera të IA me përdorime të specializuara që janë jashtëzakonisht të dobishme gjatë hulumtimeve.
Consensus është një mjet që mund ta pyesni një pyetje të caktuar, dhe ai përgjigjet se cili është “konsensusi” në botën shkencore-akademike për atë temë – gjegjësisht, sa studime e konfirmojnë ose e mohojnë tezën që e parashtroni.
Scite.ai gjithashtu ofron përgjigje për pyetjet akademike dhe shpreh qartë se cilat burime janë përdorur në përgjigjet e dhëna.
Së fundi, megjithëse mund të duket se mjetet më të fundit të IA-së mund t’u përgjigjen të gjitha llojeve të pyetjeve, të gjitha teknologjitë “biseduese” të IA-së duhet të përdoren me kujdes. Hulumtimet tregojnë se chatbot-et e këtilla “halucinojnë”, gjegjësisht tregojnë informacione të rreme ose tërësisht të fabrikuara në rreth 27 për qind të rasteve. Prandaj, është mirë që të mos përdoren për të marrë fakte të pastra, por vetëm për të marrë frymëzim ose për t’ju çuar në ndonjë drejtim që do të jetë objekt i shtjellimit të mëtejshëm.
E ardhmja dhe kufizimet e IA-së
Shumë entuziastë dhe investitorë të IA-së thonë se qëllimi i zhvillimit të teknologjisë aktuale është arritja e Inteligjencës së Përgjithshme Artificiale (IPA), një model hipotetik që do t’i zotëronte të gjitha aftësitë e të menduarit njerëzor. Por, a jemi pranë një të ardhmeje ku ekziston kjo teknologji, apo bëhet fjalë për një mjet marketingu nga investitorët në IA?
Sipas gjuhëtarit të njohur, Noam Chomsky, mënyra se si “mendojnë” chatbot-et e IA-së është në fakt shumë e ndryshme nga mënyra se si mendojnë njerëzit.
“Ndryshe nga ChatGPT-ja dhe programet e ngjashme, mendja e njeriut nuk është një motor statistikor që konsumon qindra terabajt të dhëna dhe e llogarit përgjigjen me gjasa më të mëdha statistikore për bisedë ose përgjigjen statistikisht më të mundshme për një pyetje shkencore. Përkundrazi, mendja e njeriut është një sistem çuditërisht efikas, e madje edhe elegant që punon me sasi të vogla informacioni; nuk synon të nxjerrë korrelacione të detyruara midis të dhënave, por synon të krijojë shpjegime”, thotë Chomsky, në një artikull për New York Times.
Kufizimet e teknologjive aktuale të IA-së konfirmohen nga një studimi ri, i udhëhequr nga tre inxhinierë nga gjiganti i teknologjisë “Google”. Studimi zbuloi se kufizimet e teknologjisë aktuale të IA-së nënkuptojnë se ne jemi shumë larg nga “Inteligjenca e Përgjithshme Artificiale”. Edhe pse modelet janë të mira në zgjidhjen e detyrave bazuar në të dhënat mbi të cilat janë trajnuar, ato tregojnë rezultate të dobëta kur bëhet fjalë për zbatimin e atyre njohurive në fusha të tjera, që në fakt është një nga aftësitë kryesore të të menduarit të njeriut.
Një përfundim i tillë lidhet me një kufizim tjetër të teknologjisë së IA-së, gjegjësisht, një model konkret i IA-së është po aq i mirë sa shumëllojshmëria e të dhënave mbi të cilat është trajnuar gjatë “mësimit”.
Le të kujtojmë shembullin e mëparshëm, shembullin e thjeshtë të një programi që duhet të njohë nëse ka një qen në fotografi.
Në varësi të cilësisë së të dhënave të trajnimit, modeli mund të mësojë mënyrën e gabuar të njohjes së qenve. Për shembull, mund të njohë qentë sepse janë kafshë që kanë bisht. Kjo mund të ndodhë nëse në mostrat që i ka mësuar në fazën e trajnimit nuk ka pasur fotografi të kafshëve të tjera me bisht – në atë rast ai e njeh bishtin si diçka unike që i dallon qentë nga kafshët e tjera. Një model i tillë, kur të përballet për herë të parë me një foto të një maceje, do ta identifikojë atë si qen. Për më tepër, për shkak të kompleksitetit të algoritmeve, njohuritë e këtilla të gabuara shpesh është e vështirë të njihen dhe të çrrënjosen.
Këto lloj gabimesh mund të çojnë në pasoja tragjike, siç bënë në rastin e Elaine Herzberg. Në vitin 2018, ajo po kalonte rrugën në Tempe, Arizona. Ajo është përplasur nga një automjet i kompanisë “Uber”, që drejtohej nga një “autopilot”. Herzberg vdiq nga plagët e marra. Automjeti ishte në fazën e testimit, që do të thotë se ka pasur një person që mund të ndërhynte, por fatkeqësisht nuk ka reaguar në kohë.
Softueri nuk e identifikoi Herzbergun si njeri, pikërisht për shkak të mangësive në mostrat e trajnimit. Ajo po shtynte biçikletën e saj dhe kishte qese plot me sende ushqimore të varura në biçikletë. Sistemi dinte të dallonte çiklistët, e po ashtu edhe këmbësorët, por deri më tani nuk kishte hasur në një këmbësor që shtynte një biçikletë, gjë që bëri që automjeti të sillet në mënyrë të paparashikueshme.
Për më tepër, ka frikë legjitime se teknologjia e IA-së mund të përbëjë një kërcënim për punëtorët e angazhuar në punë që teknologjia e IA-së tashmë mund t’i bëjë në mënyrë relativisht efikase (dhe falas).
Tashmë janë duke u bërë përpjekje për të kontrolluar përdorimin e IA-së në vendet e punës. Pikërisht çështja e mundësisë së IA-ja të zëvendësojë disa vende pune ishte një nga pikat kyçe të grevës së sindikatës më të madhe amerikane të skenaristëve. Ata kërkuan që të rregullohet përdorimi e IA-së në shkrimin e skenarëve – gjegjësisht, të mos përdoret Ia-ja për të ndryshuar skenarët ekzistues, e as të përdoret si bazë për materialin e skenarëve.
Ekzistojnë edhe frika të tjera që lidhen me pasojat shoqërore të teknologjisë së IA-së. Në SHBA, presidenti Xho Biden nënshkroi një urdhër ekzekutiv për përdorimin e teknologjisë që përdor IA. Ai përfshin urdhra për transparencë më të madhe nga kompanitë në lidhje me të dhënat që përdoren, mbrojtje nga diskriminimi gjatë përdorimit të këtyre algoritmeve, si dhe shënimin adekuat të përmbajtjeve të gjeneruara me IA.
Edhe industria e TI-së vë në dukje rreziqet e mundshme që lidhen me inteligjencën artificiale. Në mars të këtij viti, Elon Musk dhe ekspertë të tjerë të IA-së kërkuan me një peticion që të ndalohet ose të ngadalësohet zhvillimi i teknologjive të IA-së, sepse ato mund të çojnë në përhapjen e dezinformatave dhe një sërë problemesh të tjera. Por vetëm tetë muaj më vonë, vetë Musk njoftoi se po zhvillonte chatbot-in e tij.
Por, nuk janë vetëm investitorët në teknologjitë e IA-së ata që flasin për rreziqet e mundshme të kësaj teknologjie. Në literaturën akademike ka kohë që flitet për rreziqet e mundshme që ekzistojnë në këtë teknologji, të cilat (pa dashje, por në mënyrë të pashmangshme) janë “të ngulitura” në vetë arkitekturën e algoritmeve.
Rreziqet e mundshme shpesh ilustrohen përmes këtij eksperimenti të të menduarit. Le të themi se kemi një sistem hipotetik, qëllimi i të cilit është të prodhojë sa më shumë kapëse letrash. Sistemi mund të kuptojë se njerëzit mund të paraqesin problem gjatë prodhimit më optimal të kapësve për letra, sepse janë pikërisht njerëzit ata që mund, për shembull, ta fikin sistemin. Sistemi percepton se fikja e tij është një lajm i keq për qëllimin e tij – prodhimin e kapëseve për letra. Meqenëse gjithçka që i është thënë se duhet të bëjë është të mendojë se si të prodhojë në mënyrë optimale kapëse për letra, ai mund të vendosë t’i eliminojë të gjithë njerëzit në mënyrë që ata të mos i “pengojnë”. Edhe pse ky eksperiment i të menduarit mund t’i ekzagjerojë paksa rreziqet e këtij skenari të veçantë, ai nuk është vetëm satirë. Ai tregon në mënyrë të prekshme nevojën për vëmendje të jashtëzakonshme në zhvillimin dhe lëshimin e pakontrolluar të mjeteve të IA-së.
Pyetjet rreth IA-së ka të ngjarë të shfaqen po aq shpejt sa edhe vetë zhvillimi i teknologjisë – çdo zhvillim i ri paraqet një dilemë të re etike, shoqërore dhe ligjore.
Ndërkohë, i kthehemi përsëri faktorit njerëzor, sepse prej tij varet nëse do ta përdorë teknologjinë me ndërgjegje apo do ta keqpërdor atë, dhe nga ai varet se sa do të edukohet për këtë temë që të mund të njohë manipulimet.