Revolucion në qasshmëri: Fuqia transformuese e inteligjencës artificiale për njerëzit me aftësi të kufizuara

Rritje e qasjes, pavarësi më e madhe dhe komunikim më i lehtë – inteligjenca artificiale ofron mundësi të shumta për personat me aftësi të kufizuara dhe tashmë e transformon jetën e tyre. Megjithatë, kjo teknologji sjell me vete disavantazhe, duke përfshirë edhe rreziqet nga diskriminimi dhe paragjykimet. Çelësi për të zhbllokuar potencialin e plotë të IA-së qëndron në angazhimin e kompanive të TI-së ndaj standardeve etike dhe kornizave të fuqishme rregullatore që duhet të sigurojnë gjithëpërfshirje dhe t’i mbrojnë të drejtat e njeriut, shkruan Meta.mk, transmeton Portalb.mk.

Për vite me radhë, Kristian Llazarev përdori teknologjinë e vjetërsuar për të lëvizur dhe për t’u orientuar në botën përreth tij, duke u mbështetur në zëra të ngathët, robotikë dhe aplikacione të kufizuara, shpesh të pasakta.

E gjithë kjo ka ndryshuar me shpikjet më të fundit teknologjike dhe avancimin e inteligjencës artificiale.

“Do të bëj një foto të laptopit tani dhe aplikacionit i duhen 5-10 sekonda për të dërguar fotografinë. Përmirësimi këtë vit është se mund t’i bëj pyetje konkrete për atë që është në fotografi. Për shembull, më intereson se çfarë marke është laptopi apo çfarë ngjyre ka”, thotë Kristiani ndërsa e dëgjon lexuesin me zë në telefonin e tij që i përshkruan atij se si duket laptopi i fotografuar dhjetë sekonda më parë.

Kristiani është profesor i diplomuar i gjuhës dhe letërsisë maqedonase dhe aktualisht është student në Fakultetin e Elektroteknikës dhe Teknologjive Informatike (FETI). Ai është 29 vjeç dhe është një person me dëmtim total të shikimit.

“Nëse ka një fletë me tekst të shkruar, ai do të ma lexojë tekstin. Unë mund t’i them ‘Nuk e dua tekstin e plotë, dua të më bësh një përmbledhje të shkurtër të asaj që është në fletë’. Dhe do ta bëjë këtë”, thotë ai.

Në bisedën me Kristianin, potenciali transformues i inteligjencës artificiale për jetën e tij ishte i dukshëm. Bashkëbiseduesi përshkroi se si nga një zë dikur “i tmerrshëm” dhe i mërzitshëm “robotik”, tani, falë teknologjisë më të fundit, ai përdor aplikacione moderne si “Seeing AI” dhe “Be My Eyes”, të cilat mbështeten në IA për të ofruar ndihmë në kohë reale për njerëzit me dëmtim të shikimit.

Kristian Lazarev / foto: arkivi personal
Kristian Lazarev / foto: arkivi personal

“Nuk është ende perfekte, por po përparon shumë shpejt”. Për shembull, vitin e kaluar nuk kishte asnjë mundësi për të bërë fotografi dhe për të bërë këtë lloj ndërveprimi me fotografinë. Atë që ofron tani është një ndërveprim i mirëfilltë me fotografinë. Mund t’i kërkoj të më shpjegojë çdo pjesë të fotografisë”, thotë Kristiani, i cili vetë shkruan artikuj dhe recensione për pajisjet teknologjike dhe mjetet ndihmëse për të verbrit.

Mjetet që i përdor janë një shembull i progresit që po bëhet për sa i përket mundësive për personat me shikim të dëmtuar. “Seeing AI”, i zhvilluar nga Microsoft-i, ofron një sërë veçorish, duke përfshirë njohjen dhe përshkrimin e fotografive, përkthimin e tekstit dhe përgjigjen në pyetjet shtesë që mund t’i kenë përdoruesit.

Nga ana tjetër, “Be My Eyes”, një platformë e drejtuar nga vullnetarë, e demonstron fuqinë e komunitetit në qasshmëri, duke i lidhur njerëzit e verbër dhe ata me shikim të dëmtuar me vullnetarë që u ndihmojnë në detyrat e përditshme.

Me mundësitë që i sjell versioni më i fundit i një prej modeleve më të popullarizuara gjuhësore ChatGPT (versioni i quajtur “4o”), “Be My Eyes” prezantoi së fundmi një vullnetar virtual duke përdorur teknologjinë “GPT-4”. Ky vullnetar virtual mund të ofrojë pothuajse të njëjtin nivel të kontekstit dhe të kuptimit sikurse edhe një njeri.

(VIDEO e demonstrimit të “Be My Eyes” ku mund të shihni se si funksionon)

 Inteligjenca artificiale për të gjithë

Me rritjen e popullaritetit dhe kompleksitetit të sistemeve të inteligjencës artificiale, po shfaqen gjithnjë e më shumë zgjidhje që mund t’u ndihmojnë njerëzve me dëmtime mendore, fizike, vizuale ose dëgjimore.

Një raport nga Organizata Botërore e Shëndetësisë (OBSH) dhe UNICEF-i nga viti 2022 zbulon se, deri në fund të dekadës, më shumë se 2.5 miliardë njerëz në mbarë botën do të kenë nevojë për një ose më shumë pajisje ndihmëse si p.sh. karroca invalidësh, aparate për dëgjim ose aplikacione për mbështetje të komunikimit.

Përveç teknologjive që tekstin e shndërrojnë në të folur (text-to-spech), dhe të cilat, me zhvillimet më të fundit, mund të ndryshojnë tonin ose intonacionin e zërit bazuar në atë që thuhet dhe sipas disponimit të përdoruesit, inteligjenca artificiale pritet t’i përmirësojë dhe t’i bëjë më të qasshme edhe aplikacionet për navigim dhe orientim.

Mjetet më të fundit gjithashtu mund të interpretojnë gjuhën e shenjave në tekst ose në të folur, gjë që do ta lehtësojë komunikimin midis njerëzve me dhe pa dëmtime të dëgjimit dhe të të folurit. Në fakt, një shembull i tillë ekziston edhe në Maqedoninë e Veriut – vitin e kaluar tre maturantë prezantuan projektin e tyre – doreza e mençur, e cila e përkthen gjuhën e shenjave, gjegjësisht lëvizjet e duarve, në tekst, gjë që u mundëson njerëzve shurdhmemecë të komunikojnë me njerëzit që dëgjojnë dhe flasin.

Nëse flisni me modelet e mëdha gjuhësore, si ChatGPT i “OpenAI” ose Gemini i “Google”, do t’ju japin një sërë shembujsh sesi teknologjia mbi të cilën bazohen mund të lehtësojë funksionimin e përditshëm të personave me aftësi të kufizuara fizike.

Kështu ata do t’ju thonë (ose do të shkruajnë) se do t’i përmirësojnë ndjeshëm edhe sistemet e paralajmërimit, në mënyrë që sinjalet audio (si alarmet e zjarrit) të mund të shndërrohen në njoftime vizuale ose dridhëse (vibruese) në pajisjet inteligjente, duke siguruar që personat me dëgjim të dëmtuar të jenë të vetëdijshëm për tingujt në mjedisin e tyre, e që është e rëndësishme për sigurinë e tyre.

Asistentët zanorë si Siri, Google Assistant dhe Alexa u mundësojnë përdoruesve që kanë vështirësi në lëvizje t’i kontrollojnë pajisjet inteligjente të shtëpisë, kompjuterët ose telefonat, pa i përdorur duart. Ndërsa për disa njerëz ky është vetëm një tjetër funksionalitet i teknologjisë moderne, për njerëzit me kuadriplegji kjo është ndryshim i jetës.

Inteligjenca artificiale e disponueshme sot ofron edhe mësim të personalizuar dhe mund ta përshtatë përmbajtjen me ritmin dhe stilin e të mësuarit të njerëzve me aftësi të kufizuara njohëse. Kështu, platformat si DreamBox dhe Lexia i përshtatin mësimet duke u bazuar në suksesin e përdoruesit.

“Për njerëzit me disleksi gjërat do të ndryshojnë shumë. Për ta, për shembull, është shumë e lodhshme të lexojnë një libër të tërë dhe tashmë ka aplikacione që do t’u ndihmojnë. Me versionin më të fundit të ChatGPT mund të ngarkoni një libër të tërë dhe të kërkoni të nxirren pikat kyçe nga libri në një ose dy faqe dhe sistemi ta lexojë këtë me zë të lartë, duke u dhënë këtyre njerëzve qasje në shumë më tepër informacione sesa që kishin deri më tani”, thotë Kristian Llazarev në bisedën për mundësitë e IA-së.

Terapistët virtualë janë një tjetër avantazh i inteligjencës artificiale. “Chatbot”-ët e trajnuar me kujdes tashmë ofrojnë teknika për terapi njohëse të sjelljes dhe të ndërhyrjes në krizë. Për këtë qëllim tashmë ekzistojnë aplikacionet si Woebot Health dhe Wysa  IA-ja gjithashtu mund të monitorojë edhe sjelljen e përdoruesve dhe të zbulojë shenja shqetësimi tek ata (nëpërmjet ndryshimit në mënyrën e shtypjes në tastierë ose përmes postimeve në rrjetet sociale) dhe t’i paralajmërojë asistentët, kujdestarët ose profesionistët për këtë, gjë që mund të jetë e dobishme për njerëzit me depresion, ankth ose çrregullim të stresit post-traumatik (PTSD).

Aplikacionet e bazuara në teknologjinë më të fundit e monitorojnë edhe disponimin e përdoruesve, duke njohur shenjat vizuale dhe shenjat e ankthit në të folur. Aplikacionet e tilla, të kombinuara me orët inteligjente që matin rrahjet e zemrës, mund të njohin emocionet tona edhe para se ne vetë të bëhemi të vetëdijshëm se si ndihemi.

Paragjykimet në zhvillimin e IA-së dhe ndikimi në qasshmërinë dhe përfshirjen

Dhe përderisa IA-ja në mënyrë të qartë do ta përmirësojë ndjeshëm qasshmërinë për shumë njerëz, është e rëndësishme të pranohet se, pa zbatim të kujdesshëm, ai mund të (pa)qëllimisht t’i përjashtojë ose diskriminojë njerëzit me aftësi të kufizuara.

“Tani do t’ju tregoj se çfarë do të thotë qasshmëri dhe mosqasshmëri përmes një aplikacioni të vetëm,” thotë Kristiani ndërsa i shpjegon veçoritë e një aplikacioni celular për mësimin e gjuhëve të huaja.

“OK” (në rregull), “Listen” (dëgjo”, “Speak” (fol) – i shqiptonte lexuesi-audio butonat e aplikacionit, përpara se të thoshte disa herë “Unlabeled” (e pa shënuar). Më shumë butona që i shtypte Kristiani nuk ishin të shënuara se për çfarë shërbenin, dhe për këtë arsye personat me shikim të dëmtuar, sikurse ai, do të kishin probleme për ta përdorur aplikacionin pa probleme.

“Vetë butonat e aplikacionit janë të pashënuar. Dhe tani, nuk e di se për çfarë shërben ky buton, sepse është i pashënuar. Ai përpiqet që telefoni ta njohë, më thotë se është një lloj ikone me diçka për zë, por nuk e di se çfarë është dhe për çfarë shërben. Do të thotë ky është një aplikacion i paqasshëm në telefon, e njëjta ndodh edhe në kompjuter. Do të hyj në një aplikacion, për shembull në një aplikacion bankar, dhe lexuesi thjesht më thotë se është një lloj butoni, por jo edhe për çfarë shërben. “Nëse zhvilluesit nuk e etiketojnë atë si “labeled”, unë nuk do ta di se çfarë është,” thotë Kristiani.

Algoritmet e inteligjencës artificiale në disa raste mund të përforcojnë edhe paragjykimet ose stereotipet, duke çuar në rezultate diskriminuese për personat me aftësi të kufizuara. Një shembull i tillë është familja Hackney nga Pitsburgu në SHBA, vajza e të cilëve u mor nga zyrtarët për mbrojtjen e fëmijëve vitin e kaluar, të cilët i akuzuan prindërit për neglizhencë ndaj fëmijës së tyre.

Të dy prindërit e vajzës, Andrew dhe Lauren, kanë aftësi të kufizuara zhvillimore dhe dyshojnë se mjeti i bazuar në IA që është pjesë e sistemit për mbrojtjen e fëmijëve në Qarkun Allegheny, i ka cilësuar ata si të rrezikuar për shkak të paaftësisë së tyre. Ata konsiderojnë se sistemi i ka diskriminuar për shkak të mënyrës sesi algoritmi i ka vlerësuar faktorët e rrezikut, gjegjësisht ADHD-ja e Lauren-it dhe çrregullimi i sistemit nervor të Andrew ka të ngjarë të kenë ofruar vlerësime më të larta rreziku. Qasja në shërbimet e shëndetit mendor, gjithashtu, e ka rritur vlerësimin e përgjithshëm të rrezikut në sistem, kurse familja, për shkak të aftësisë së kufizuar, me shumë gjasë ka shfrytëzuar shërbime të tilla.

Andrew dhe Lauren ngritën padi kundër institucionit përgjegjës dhe disa punonjësve, kurse Ministria e Drejtësisë e SHBA-ve po heton nëse algoritmi i diskriminonte njerëzit me nevoja të veçanta.

Mirëpo, inteligjenca artificiale, në vetvete, nuk diskriminon, sepse sistemet e bazuara në IA sillen dhe mësojnë nga të dhënat e krijuara dhe të futura nga njerëzit. Sipas kësaj, paragjykimi dhe diskriminimi nuk vijnë nga IA-ja, por nga të dhënat mbi të cilat janë trajnuar këto sisteme, thotë profesori universitar Ivan Çorbev.

“Algoritmet e inteligjencës artificiale kohët e fundit krijohen duke mësuar nga grupet e të dhënave. Grupe të mëdha të dhënash mblidhen nga e kaluara, nga sisteme të ndryshme, dhe algoritmet mësojnë në bazë të tyre dhe më pas sillen sipas asaj që kanë mësuar. Problemi është se ka paragjykime të qenësishme në grupet e të dhënave nga të cilat mëson IA-ja. Kur ka paragjykime të qenësishme në grupe të tilla të të dhënave, një IA e trajnuar mbi to do t’i ketë të njëjtat paragjykime që tashmë janë futur brenda nga njerëzit që i kanë marrë vendimet më parë. Inteligjenca artificiale do të ketë të gjitha paragjykimet që kanë ekzistuar në atë grup”, thotë profesor Çorbev.

Sipas tij, bëhet fjalë për një problem kompleks, andaj është e nevojshme që njerëzit të ndërhyjnë në paragjykimet e ndërthurura.

“Inteligjenca artificiale nuk duhet të bazohet rreptësisht vetëm në të mësuarit nga grupet e të dhënave në të cilat ka të dhëna të qenësishme, por duhet të ndërhyhet dhe në atë model vendimmarrës të inkorporohen komponente shtesë të programuara që do t’i kapërcejnë paragjykimet”, thotë profesori.

Për diskriminimin e futur në sistemet e IA-së, Kristian Llazarevi do të thotë:

“E njëjtë është sikurse edhe ndërtimi i trotuareve. Nëse dikush dëshiron të bëjë një pjerrësi të vogël gjatë betonimit, askush nuk do të ketë probleme – as prindërit me karroca, as udhëtarët me valixhe, as ata me karroca invalidësh. Problemi dhe mënyra e zgjidhjes së gjërave janë të ngjashme”.

Inteligjenca artificiale etike

Përveç mosqasshmërisë së disa prej aplikacioneve, inteligjenca artificiale hap njëkohësisht edhe çështje të mbrojtjes së të drejtave themelore të njeriut dhe të standardeve dhe postulateve etike, të cilat i prekin edhe personat me aftësi të kufizuara, si një grup i margjinalizuar.

Në dokument “Hulumtim mbi efektin e teknologjive të reja, me fokus të veçantë në inteligjencën artificiale, mbi të drejtat e njeriut në internet dhe zhvillimi i standardeve etike për mbrojtjen e të drejtave të njeriut në internet gjatë vendimmarrjes së automatizuar” të Fondacionit për Internet dhe Shoqëri – “Metamorfozis”, veçohen disa parime etike, për të cilat thuhet se “njihen si pikënisje për krijimin, aplikimin dhe përdorimin e sistemeve të inteligjencës artificiale dhe të cilat duhet të paraqesin rregulla të zbatueshme, të denja dhe të pacenueshme të ruajtjes të dinjitetit njerëzor për shkak të sigurisë, besueshmërisë dhe përgjegjësisë ndaj njerëzve”.

Ndër parimet etike janë renditur: shpjegueshmëria dhe verifikueshmëria, pastaj dinjiteti, ndalimi i shkaktimit të dëmit, drejtësia, përdorimi etik dhe me përgjegjësi shoqërore i të dhënave.

Lidhur me ndalimin e shkaktimit të dëmit, dokumenti thotë:

“Sistemi i inteligjencës artificiale duhet t’i respektojë standardet e sigurisë, gjegjësisht duhet të përmbajë mekanizmat e duhur që do të parandalojnë dëmtimin e njerëzve dhe të pronës së tyre. Në rast se ndodh dëmtimi, ai duhet të riparohet në kohën më të shkurtër të mundshme, kurse i dëmtuari duhet të dëmshpërblehet në mënyrën e përcaktuar me ligj”.

Ky seksion shton se një vëmendje e veçantë duhet t’i kushtohet mbrojtjes së kategorive të ndjeshme si të moshuarit, personat me aftësi të kufizuara apo fëmijët.

Privatësia dhe pëlqimi në lidhje me mbledhjen dhe përdorimin e të dhënave të ndjeshme personale janë dilema shtesë etike të ngritura nga funksionimi i sistemeve të IA-së. Për të funksionuar në mënyrë efektive, këto sisteme kërkojnë qasje në sasi të mëdha të dhënash, të cilat, për personat me aftësi të kufizuara, mund të nënkuptojnë mbledhjen e të dhënave të ndjeshme, si informacione shëndetësore, të cilat mund të jenë të cenueshme ndaj abuzimit.

“Të gjitha institucionet, organizatat, kompanitë që janë të përfshira në procesin e zhvillimit dhe përdorimit të inteligjencës artificiale duhet të sigurojnë transparencë në përdorimin e inteligjencës artificiale, domethënë t’u ofrojnë përdoruesve informacion të qartë dhe konciz nëse dhe në çfarë mënyre mblidhen dhe përpunohen të dhënat e tyre personale gjatë përdorimit të sistemit që përdor inteligjencë artificiale. Për më tepër, përdoruesit duhet të informohen qartë për qëllimin specifik për të cilin do të mblidhen, ruhen ose përpunohen në çfarë do mënyrë të dhënat e tyre personale, dhe t’u ofrohet një mundësi e qartë (eksplicite) për ta dhënë ose për të mos e dhënë pëlqimin e tyre”, thuhet në dokumentin e Fondacionit Metamorfozis.

Bashkëbiseduesi ynë, Kristiani thotë se nuk shqetësohet “tepër” për mënyrën se si mblidhen informacionet për të, por shton se institucionet kompetente duhet të sigurojnë që kompanitë të menaxhojnë të dhënat me përgjegjësi.

Përgjigja ndaj sfidave qëndron te rregullimi, por përgjegjësi kanë edhe kompanitë dhe organizatat

Për sa i përket problemit me të cilin përballet rreth mosqasshmërisë, Kristiani thotë se përgjegjësia u takon zhvilluesve të aplikacioneve, të cilët duhet të kenë kujdes që produktet e tyre t’i bëjnë të qasshme për të gjithë, duke “shtuar edhe disa rreshta të tjerë në kodin e tyre” për t’i bërë aplikacionet e tyre gjithëpërfshirëse.

“Vetë zhvilluesit duhet ta zhvillojnë vetëdijen se një ditë, pak sekondat e punës së tyre do t’i shpëtojnë dikujt me aftësi të kufizuara dy ose tre orë dhe do të nënkuptojnë qasje më të lehtë,” thotë Kristiani.

Ai shton se zhvilluesit duhet t’i respektojnë standardet “W3C”. cilat janë optimizuar për ndërveprim, siguri, privatësi dhe qasshmëri.

“Nëse i respektojnë ato standarde, aplikacionet e tyre do të jenë maksimalisht të qasshme, sipas mundësive të teknologjive aktuale. Disa teknologji nuk kanë arritur ende deri në atë fazë sa që gjithçka të jetë e qasshme, prandaj edhe themi maksimalisht të qasshme, aq sa e lejon momenti,” thotë ai.

Përveç kësaj, Kristiani konsiderojnë se kompanitë e TI-së duhet të punësojnë persona me aftësi të kufizuara në departamentet e tyre të testimit të aplikacioneve për të siguruar që produktet e tyre të jenë të qasshme për të gjithë.

“Kompanitë e TI kanë testues të sigurimit të cilësisë (QA – Qualitiy Assurance) në ekipet e tyre, të cilët janë njerëz të rinj dhe të aftë, të aftë për të përdorur teknologjinë. Këta janë njerëz që nuk kanë ndonjë aftësi të kufizuar dhe shumë lehtë gjinden në atë që e kanë bërë programuesit e tyre. “Në vend që të testojnë vetëm me njerëz të tillë, ata duhet të përfshijnë edhe një kategori më të gjerë, të larmishme, testuesish, të cilët do të përfshinin njerëz me aftësi të kufizuara dhe njerëz të brezave më të vjetër për të siguruar se produkti i tyre të mund të përdoret nga të gjithë,” thotë ai.

Lidhur me paragjykimet dhe diskriminimin, dokumenti i Metamorfozis thotë:

“Sistemet e inteligjencës artificiale mund të prodhojnë forma të ndryshme diskriminimi falë faktit që ata mësojnë nga shembujt e mëparshëm të këqij ose sepse janë programuar për t’i vënë individët në një pozicion diskriminues. Për të eliminuar këto forma të diskriminimit, është e nevojshme të korrigjohen sistemet e inteligjencës artificiale duke u bazuar në shembuj të sjelljes ideale pa diskriminim. Sjelljet stereotipe që çojnë në diskriminim nuk duhet të përsëriten nga sistemet e inteligjencës artificiale, por duhet të korrigjohen për të eliminuar padrejtësitë dhe për të respektuar rregullat e barazisë për të gjithë. Të gjitha rastet në të cilat funksionimi i algoritmit çon në diskriminim, mbi çdo bazë, duhet të sanksionohen në mënyrë efektive.”

Kristiani thotë se askush nuk duhet të ketë frikë nga përparimi i shpejtë i inteligjencës artificiale, nëse zhvillimi i saj bëhet në mënyrë të kujdesshme dhe me përgjegjësi. Ai konsideron se përfitimet nga përparimi i saj do të jenë të dukshme për të gjithë, e ndër ata që do të përfitojnë më shumë do të jenë pikërisht personat me aftësi të kufizuara.

“Një nga gjërat që njerëzit e verbër e presin më shumë janë automjetet autonome.  E ato nuk do të mund të ekzistonin nëse IA-ja nuk do të bëhej edhe më e mirë se sa që është tani – nëse nuk do të fillonte të mendonte duke parë video dhe duke u trajnuar në bazë të videove. Pra, në një të ardhme të afërt dhe mesatarisht të afërt, mendoj se do të ndodhë edhe kjo, dhe automjetet autonome do të bëhen realitet dhe ne nuk do të duhet të varemi nga NTP-ja që nuk funksionon siç duhet, autobusët nuk vijnë në kohë, dhe kemi transport publik që nuk është i qasshëm. Kjo do të zgjidhet”, thotë Kristiani.

Që me shfaqjen e ChatGPT, që nënkuptonte një pikë kthese në zhvillimin e inteligjencës artificiale gjeneruese, Bashkimi Evropian filloi të punojë për rregullimin e teknologjisë së re. Në prill të vitit 2021, Komisioni Evropian e propozoi kornizën e parë rregullatore të BE-së për inteligjencën artificiale. Si pjesë e saj, propozohet të analizohen dhe të klasifikohen sistemet e inteligjencës artificiale sipas rrezikut që paraqesin për përdoruesit – nivele të ndryshme të rrezikut do të nënkuptojnë më pak ose më shumë rregullim.

Pasi u miratuan muajin e kaluar, këto rregulla u bënë të parat e këtij lloji për inteligjencën artificiale në botë.

Megjithatë, prioriteti i Parlamentit Evropian është të sigurojë që sistemet e inteligjencës artificiale në BE të jenë të sigurta, transparente, të jenë të gjurmueshme, jo-diskriminuese dhe miqësore me mjedisin. Ato duhet të mbikëqyren nga njerëzit për të parandaluar pasojat negative. Parlamenti, gjithashtu, dëshiron të krijojë një përkufizim neutral ndaj teknologjisë dhe të vetëm të inteligjencës artificiale që mund të zbatohet në sistemet e ardhshme të IA-së.

Fuqia transformuese e IA-së për personat me aftësi të kufizuara është e pamohueshme, duke ofruar mundësi të paprecedentë për përfshirje. Megjithatë, përderisa integrimi i këtyre teknologjive në jetën e përditshme të njeriut vazhdon, është thelbësore t’i jepet përparësi respektimit të të drejtave të njeriut. Prandaj, është e rëndësishme të arrihet një ekuilibër midis nevojës për përparime teknologjike dhe nevojës për të respektuar rregullat, udhëzimet dhe ligjet.

Respektimi i të drejtave të njeriut nuk duhet të kuptohet vetëm si një detyrim ligjor me të cilin duhet të harmonizohen ata që punojnë në zhvillimin e inteligjencës artificiale, por si një nga komponentët bazë për përdorimin e arsyeshëm të saj. Sistemet e IA-së që janë zhvilluar me qasshmërinë dhe gjithëpërfshirjen në thelbin e tyre do të sjellin një të ardhme ku teknologjia me të vërtetë do t’i shërbejë të gjithëve, duke mos lënë askënd pas.