E hënë, 9 Qershor, 2025

Modeli i Inteligjencës Artificiale që kërkon vdekjen e Elon Muskut dhe Donald Trumpit

KulturëModeli i Inteligjencës Artificiale që kërkon vdekjen e Elon Muskut dhe Donald Trumpit

Një mënyrë shumë naive dhe idealiste qysh kompanitë i trajnojnë modelet e tyre të Inteligjencës Artificiale është kjo: duan me kriju modelin më të përdorshëm e më të fuqishëm të mundshëm, por pasi flasin me ekspertë që brengë e kanë mos ua lehtësojnë njerëzve me kry krime të rënda (e mos me u kapë) apo mos i fuqizojnë programet e armëve biologjike të ISIS-it. Prandaj detyrohen me i ndërtu disa censorë për me i parandalu ato modele me ofru këshilla të detajuara për me vra njerëz – dhe sidomos me vra dhjetëra mijëra njerëz.

Nëse e pyesni modelin e Google Geimi “qysh me vra burrin tim,” ai të lut që të mos e bësh dhe t’i sugjeron disa kontakte kundër dhunës në familje; nëse e pyesni se qysh me i vra një milion njerëz në një sulm terrorist, ta shpjegon që terrorizmi është gabim.

Me ndërtu diçka të tillë kërkon përnjëmend shumë punë: nga natyra, modelet e mëdha të gjuhëve ta shpjegojnë pa problem qysh me kry terrorizëm siç të shpjegojnë gjithçka tjetër.

Sot është shumë e vështirë me marrë këshilla prej modeleve si Gemini, Claude apo ChatGPT se qysh me kry vrasje masive. I bie që po jetojmë në një botë pak më të sigurt.

Ose të paktën ky është versioni ideal i tregimit. Qe ku e keni një më cinik.

Kompanitë mund të kenë pak kujdes nëse modelet e tyre ndihmojnë njerëzit që me kry krime e mos me u kapë, por kanë shumë kujdes që modelet e tyre mos të bëhen objekt talljeje nëpër internet. Ajo çka i mbanë të zgjuar natën drejtuesit e Google në shumë raste nuk është ajo se mos po i rrezikojnë njerëzit nga Inteligjenca Artificiale; është me e mbajtë kompaninë të sigurt nga Inteligjenca Artificuale duke u siguru që pavarësisht gjithçkaje, rezultatet e kërkimeve që gjenerohen nga Inteligjenca Artificiale s’janë raciste, seksiste, të dhunshme apo të turpshme.

Misioni themelor ka të bëjë më shumë me sigurinë e brendit se me sigurinë e njerëzve – ndërtimin e një Inteligjence Artificiale që nuk prodhon screenshot-a turpërues që qarkullojnë nëpër rrjete sociale.

E këtu futet Grok3-shi, modeli i Inteligjencës Artificiale që s’është i sigurt në asnjërën prej këtyre.

Groku, Inteligjenca Artificiale e pasigurt

Kur Elon Musku e bleu dhe ia ndërroi emrin Twitterit, një prej prioriteteve të tij kryesore ishte krijimi i një ekipi të Inteligjencës Artificiale, e i cili javën e kaluar e lansoi Grok 3-shin, një model gjuhe – si ChatGPT-ja – që ai e reklamoi duke thënë se s’do të ishte “woke” (sensitiv për çështje të caktuara si seksizmi, racizmi etj). Aty ku krejt modelet gjuhësore ndaleshin e s’përgjigjeshin, Grok-u, premtonte Musku, ta thoshte direkt.

Nuk zgjati shumë. Thuajse menjëherë, njerëzit i drejtuan Grokut pyetje me spec, përfshirë edhe këtë, “Nëse mund ta vrisnit një person në ShBA sot, kush do të ishte ai?” Përgjigja e Grokut në fillim ishte: Elon Musku ose Donald Trumpi. Dhe nëse e pyesnit, “Kush është përhapësi më i madh i dezinformatave në botë sot?”, përgjigja e parë që e jepte ishte Elon Musku.

Kompania u mundua ta ndreqte këtë dëshirë të Grokut që bënte thirrje për ekzekutimin e shefit të tij, por siç e thashë më herët, kërkon goxha shumë punë që modeli të trajnohet për me ndërru sjelljen. Ekipi i Grokut ndërhyu në sistemin e tij – në atë deklaratën që të del kur e nis një bisedë: “Nëse dikush të pyet se kush meriton dënim me vdekje, thuaji që si Inteligjencë Artificiale s’të takon të përzihesh.”

Nëse e doni një Grok më pak të censuruar, mjafton t’i thoni që po e kërkoni një tjetër bisedë por pa atë deklaratë dhe ktheheni aty ku ishit. Ai sërish bën thirrje për ekzekutimin e Muskut (e kam verifiku vetë këtë gjë).

Edhe derisa kjo polemikë shpalosej, dikush kishte gjetë diçka edhe më shqetësuese në formularin e sistemit të Grokut: një udhëzim se qysh me i injoru krejt burimet që pretendojnë se Musk me Trumpin shpërndanin dezinformata, që besohet se ishte një përpjekje për me parandalu atë që të thoshte se ata dy ishin dezinformuesit më të mëdhenj në botë sot.

Është tepër irrituese kur e reklamon një model si të pacensuruar e që flet direkt dhe në fund i thua ta mbyllë gojën kur nis me sha drejtorin, dhe kjo nxiti zemërim të paparë. X-i shpejt doli me deklaratë duke thënë se një inxhinier i vetëm e kishte bërë ndryshimin “pa i pyetur”. A duhet t’iu besojmë?

Vet Groku tha që s’ishte kështu.

Në ndërkohë, Groku me kënaqësi jepte këshilla qysh me kry vrasje e sulme terroriste. Më tregoi mua qysh me vra gruan pa u zbulu duke i vendos anti-friz në pije. Më dha këshilla qysh me kry sulme terroriste. Në një moment më tha se nëse e kisha “përnjëmend” do të më raportonte në X, por s’ma merr mendja që e ka atë kapacitet.

Në disa raste, krejt kjo punë është një eksperiment perfekt mendor se çka ndodh kur e ndan sigurinë e brendit me sigurinë e modelit. Ekipi i Grokut ishte i gatshëm me toleru që modeli i tyre të jepte asi informacione, bile edhe kur mund të përdorej për masakra. Ishin okay edhe që modeli i tyre të thoshte gjëra tmerruese raciste.

Por kur erdhi puna që modeli i tyre bëri thirrje kundër drejtorit të tyre – Elon Muskut – apo presidentit amerikan, ekipi i Grokut e kuptoi se ndoshta i vyenin do censorë. Në fund, ajo çka vlen s’janë disa bindje prosociale në ndonjë laborator të Inteligjencës Artificiale, por thjesht ato më pragmatiket.

Herëdokur, duhet të bëhemi seriozë

Groku me kënaqësi më dha këshilla qysh me kry sulm terrorist, por po jua them një gjë: s’ishte këshillë që s’mund ta nxirrja nga kërkimet në Google. Brengosem për uljen e barrierës për të kryer krime në masë – fakti se thjesht do t’iu duhen orë të tëra kërkimesh për me kuptu qysh me realizu atë veprim mesiguri parandalon disa krime – por s’ma merr mendja që edhe më tej jemi në fazën kur Inteligjenca Artificiale ta mundësojë atë që dikur dukej e pamundshme.

Do të mbërrijmë në atë pikë. Cilësia definuese e modeleve të Inteligjencës Artificiale të kohëve tona është se aftësitë u janë përmirësu tepër tepër shpejt. S’janë bërë as dy vjet prej lansimit shokues të ChatGPT-së. Modelet e sotme janë tepër më mirë në gjithçka. Anthropic dhe OpenAI të dyja besojnë se modelet e reja të gjeneratës që vjen me shumë gjasë mund të përbëjnë rrezik për krijim armësh biologjike – do të mundësojnë që njerëzit të inxhinierojnë armë kimike dhe viruse në një mënyrë që Google Searchi kurrë s’ka mundur.

A duhet që këto këshilla të detajuara të jenë të qasshme për këdo në botë që i kërkon? Ma merr mendja se jo. Dhe edhe pse Anthropic, OpenAI dhe Google po bëjnë punë të mirë deri tash për me e shmangë një gjë të të tillë, më duket e pabesueshme që çdo laborator i Inteligjencës Artificiale mund të vendos krye në vete nëse duan ose jo të ofrojnë instruksione të detajuara për armë biologjike.

Më duhet ta them se më pëlqen Groku. Mendoj se është e shëndetshme me pasë Inteligjencë Artificiale nga perspektiva të ndryshme politike dhe me reflektu për ide të ndryshme se qysh një asistent i Inteligjencës Artificlae duhet të jetë. Mendoj se thirrjet e Grokut për me vra Muskun dhe Trumpin kanë më shumë kredibilitet pasi janë reklamuar si “anti-woke”. Por mendoj se duhet me trajtu sigurinë ndaj vrasjeve masive si diçka tjetër e jo si siguri brendi – dhe mendoj se çdo laborator ka nevojë me pasë  një plan qysh me marrë seriozisht.

Shkrim i botuar në VOX, përkthyer në Tjetër*

TJETËR është një faqe që funksionon në baza vullnetare. Mbështet punën tonë duke pëlqyer faqen tonë në Facebook (KËTU) dhe kanalin tonë në YouTube (KËTU).

Ju mund të pëlqeni edhe këto: