Çeliku: Mënyra më e sigurtë e mbrojtes së të dhënave personale është të mos regjistrohen në databaza lokale

Sigurimi i të drejtatve të njeriut është një hap i domosdoshëm, jo vetëm moralisht, por edhe ligjërisht kur punohet me të dhëna në botën digjitale. Para se të lëshohet në përdorim një produkt i bazuar në Inteligjencën Artificiale (IA) duhet të testohet siguria e të dhënave personale dhe privatësia e përdoruesve. Ndërkaq, mënyra më e mirë për të siguruar mbrojtjen e të dhënave personale është që ato të mos regjistrohen fare në databaza, kështu shprehet developer-i i Inteligjencës Artificiale, Armir Çeliku në një intervistë me Portalb.mk.

Me zhvillimin e teknologjisë dhe krijimit të produkteve të bazuara në inteligjencë artificiale, të drejtat e njeriut, siç janë privatësia dhe mbrojtja e të dhënave personale ndodh që të shkelen. Për të mësuar më shumë se si zhvilluesit e produkteve të Inteligjencës Artificiale sigurojnë privatësinë e përdoruesve të tyre, Portalb.mk bisedoi me developerin e Inteligjencës Artificale, Amir Çeliku.

Në vitin 2023, Amiri dhe kolegët e tij të bashkuar në grup të quajtur “Ai4Good” kanë fituar vendin e parë në një hakaton me chatbot-in e tyre të quajtur “Sakhi”.

Portalb: Si rrjedh i gjithë procesi i krijimit të një produkti të bazuar në inteligjencë artificiale? Na trego procesin hap pas hapi, prej te nevoja deri tek ideja dhe realizimi?

Armir Çeliku: Inteligjenca artificiale është shumë e gjerë. Për shumicën nuk mundem të flas. Por, kur vjen puna te modelet e mëdha të gjuhës (LLM – large language models), hapi i parë është ideja. Zakonisht duhet të kesh një ide aplikimi, ku një teknologji e tillë mund të kryejë funksionin e vet ndërsa opsionet tradicionale ose nuk janë konkurruese në aftësi veprimi ose në kosto. Këto raste janë kur ke një databazë të madhe të tekstit dhe lind nevoja të gjenden përgjigje për detaje të caktuara dhe ajo të jetë e shpejtë dhe specifike mbi detajet e kërkuara. Për shembull, një kompani që ka shumë produkte dhe do t’ju japë konsumatorëve qasje të shpejtë mbi informata specifike mbi to. Pas kësaj zakonisht duhet të zgjedhësh një model të madh gjuhe të caktuar, në bazë te kërkesave të produktit. A të nevojitet një gjuhë e caktuar, a të nevojitet një model i avancuar apo një model i lirë ja del në gjenerimin e përgjigjeve. Të tëra këto merren parasysh. Së fundmi gjen një framework apo librari të caktuar kodi që mund ta modifikosh sipas kërkesave për ta implementuar të tërë aplikimin e modelit.

Portalb: Në këtë proces, a i merrni parasysh të drejtat e njeriut dhe nëse produkti mund të shkelë ndonjë nga të drejtat njerëzore siç janë privatësia, mbrojtja e të dhënave personale, diskriminimi mbi baza të ndryshme?

Armir Çeliku: Po patjetër. Në fakt është një hap i domosdoshëm, si etikisht ashtu edhe ligjërisht. Gjatë trajnimit në analitiken e të dhënave, shkencën e të dhënave apo çfarëdolloj dege që merret me të dhënat, këto konsiderata janë pjesë e plan programit.

Portalb: Si siguroheni se sistemet që i zhvilloni të bazuara në inteligjencë artificiale të mos të shkelin ndonjë nga të drejtat themelore të njeriut si privatësinë, lirinë e të shprehurit dhe mos-diskriminimin?

Armir Çeliku: Fatmirësisht, inxhinierë dhe kompani të mëdha që i krijojnë modelet bazë të cilat ne i përdorim, investojnë shumë punë dhe kapital në këtë çështje, të cilat një individ i vetëm nuk mund t’i përballojë. Ideja është që siguria dhe mbrojtja e të drejtave themelore janë pjesë gjatë trajnimit fillestar të modelit të cilat nuk bëhen nga individi. Por, gjatë krijimit të aplikimit prapëseprapë nevojitet shumë testim paraprak para se të lëshohet një produkt ku dhe shihet performanca, siguria dhe përgjegjësia e aplikimit.

Intelegjenca artificiale (IA, IA). Foto nga Tara Winstead/Pexels
Intelegjenca artificiale (IA, IA). Foto nga Tara Winstead/Pexels

Portalb: Çfarë masash ndërmerrni për të parandaluar paragjykimet dhe diskriminimet në algoritmet e inteligjencës artificiale siç është Medchat, veçanërisht kur bëhet fjalë për fusha të ndjeshme si kujdesi shëndetësor?

Armir Çeliku: “Medchat” është thjesht një demonstrim i teknologjisë pa qellim të lëshimit në treg si produkt i vetëm. Në rast se një produkt të tillë do ta lëshonim në treg, atëherë hapat që do merreshin do ishin leje dhe licenca të caktuara, konsultim me avokat, testim me universitete dhe institucione mjekësore, dhe “disclaimer” që prapë se prapë aplikimi s’mund të përdoret si këshilltar i fundit dhe këshillat e tij të merren pa konsultim me mjek. Kjo ka te bëjë me sigurinë. Nga ana e diskriminimit dhe paragjykimit, aplikimi s’do të ruante të dhëna të individit për t’ju shmangur këtij problemi. Dhe në fund asnjë model nuk është 100% korrekt, sepse dijenia në të është dijenia njerëzore me paragjykimet njerëzore të thurura në të. Është çështje e hapur teknikisht dhe filozofikisht se si, ose nëse këto çështje kanë zgjidhje.

Portalb: Personat të cilët nuk janë të mirë-informuar, ndonjëherë për të shpjeguar ndonjë situatë pa dashje i tregojnë të dhënat e tyre personale siç emrin, mbiemrin, numrin amë, vendbanimin, informacione të ndjeshme shëndetësore. Duke e pasur parasysh natyrën e inteligjencës artificiale, se bazohet në të dhëna, si i menaxhoni dh si i mbroni të dhënat e përdoruesve për të parandaluar qasjen e paautorizuar, keqpërdorimin ose pasoja të pa dëshirueshme të cilat mund të shkelin të drejtën e privatësisë së individëve kur përdorin produktet e juaja? 

Armir Çeliku: Për një kompani që sapo ka filluar me punë dhe që nuk ka kapital për të pasur një punonjës ne sajber-siguri është shumë e vështirë të mbrohen të dhënat e përdoruesve dhe të parandalohen qasjet e paautorizuara. E vetmja mënyrë është që të dhënat e përdoruesit mos të regjistrohen fare në databaze lokale.

Portalb: Çfarë përpjekjesh keni ndërmarrë për të përfshirë perspektiva të ndryshme në dizajnet dhe zhvillimin e produkteve të bazuara në IA , duke përfshirë komunitetet e margjinalizuara për të shmangur shtimin e paragjykimeve dhe pabarazive ekzistuese shoqërore?

Armir Çeliku: Kjo ka qenë një temë qendrore e Fellowshipit te Goethe Institutit ku skuadra jonë fitoi. Demokratizimi dhe përfshirja e këndvështrimeve të komuniteteve të margjinalizuara është vetëm hapi i parë. Por kjo është e pamundur pa përfshirje të drejtpërdrejtë të vetë komuniteteve të ndryshme. Pa një footprint të atij komuniteti në të dhënat trajnuese të modeleve. Që shihet qartë në aftësitë e Chat GPT-së në Anglisht krahasuar me Shqip. Thjesht ka shumë më shumë material të shkruar në atë gjuhë. Domethënë për të qenë i përfshirë, duhet të përfshihesh.

Portalb: Cilat strategji i përdorni dhe i ndryshoni për të qëndruar në tek me sfidat e reja etike edhe implikimet që zhvillohen për të drejtat e njeriut kur krijoni zgjidhje në bazat e inteligjencës artificiale dhe si i përshtatni praktikat e juaja për të adresuar probleme të këtilla?

Armir Çeliku: Është një fushë që ndryshon jo gjatë vitit, apo nga muaj në muaj, por shpesh dita ditës. Nevojitet një kulturë dhe njohuri e përgjithshme në lidhje me sfidat dhe shumë përqendrim dhe mendim se si këto ndryshime teknologjike kanë impakt mbi njerëzimin si dhe vetë neve. Domethënë është vështirë të kesh një shabllon ose kornizë me një strategji të caktuar, por duhet të përshtatesh ku dhe sa mundesh.

LEXO: Armir Çeliku: Për zhvillimin e Inteligjencës Artificiale, të dhënat duhet të jenë publike dhe të digjitalizuara