Nën Trump, shkencëtarëve të AI u thuhet të heqin ‘paragjykimin ideologjik’ nga modelet e fuqishme

5 Min Read

Instituti Kombëtar i Standardeve dhe Teknologjisë (NIST) ka lëshuar udhëzime të reja për shkencëtarët që partneri me Institutin e Sigurisë së Inteligjencës Artificiale të SHBA (AISI) që eliminojnë përmendjen e “AI Safety”, “AI përgjegjëse”, dhe “AI drejtësi” në aftësitë që pret për anëtarët dhe prezanton një kërkesë për të dhënë përparësi “zvogëlimin e njëanshmërisë ideologjike”, për të mundësuar lulëzimin e njeriut dhe kompetencën ekonomike “.

Informacioni vjen si pjesë e një marrëveshje të azhurnuar të kërkimit dhe zhvillimit të bashkëpunimit për anëtarët e Konsorciumit të Institutit të Sigurisë së AI, dërguar në fillim të marsit. Më parë, kjo marrëveshje inkurajoi studiuesit të kontribuojnë në punë teknike që mund të ndihmojnë në identifikimin dhe rregullimin e sjelljes së modelit diskriminues në lidhje me gjininë, racën, moshën ose pabarazinë e pasurisë. Paragjykime të tilla janë jashtëzakonisht të rëndësishme sepse ato mund të ndikojnë drejtpërdrejt në përdoruesit fundorë dhe të dëmtojnë në mënyrë disproporcionale pakicat dhe grupet e pafavorshme ekonomikisht.

Marrëveshja e re heq përmendjen e mjeteve në zhvillim “për vërtetimin e përmbajtjes dhe gjurmimin e origjinës së saj”, si dhe “etiketimin e përmbajtjes sintetike”, duke sinjalizuar më pak interes në gjurmimin e dezinformimit dhe falsifikimeve të thella. Ai gjithashtu shton theksin në vendosjen e Amerikës së parë, duke i kërkuar një grupi pune të zhvillojë mjete testimi “për të zgjeruar pozicionin global të AI të Amerikës”.

“Administrata Trump ka hequr sigurinë, drejtësinë, dezinformimin dhe përgjegjësinë si gjëra që vlerëson për AI, për të cilën unë mendoj se flet vetë,” thotë një studiues në një organizatë që punon me Institutin e Sigurisë së AI, i cili kërkoi të mos emërohej nga frika e hakmarrjes.

Studiuesi beson se injorimi i këtyre çështjeve mund të dëmtojë përdoruesit e rregullt duke lejuar mundësinë e algoritmeve që diskriminojnë bazuar në të ardhura ose demografi të tjera të mos kontrollohen. “Në qoftë se nuk jeni një miliarder i teknologjisë, kjo do të çojë në një të ardhme më të keqe për ju dhe njerëzit që ju interesojnë. Presin që AI të jetë i padrejtë, diskriminues, i pasigurt dhe i vendosur në mënyrë të papërgjegjshme, “pretendon studiuesi.

“Wildshtë e egër”, thotë një studiues tjetër që ka punuar me Institutin e Sigurisë së AI në të kaluarën. “Doesfarë do të thotë edhe që njerëzit të lulëzojnë?”

Elon Musk, i cili aktualisht është duke udhëhequr një përpjekje të diskutueshme për të zvogëluar shpenzimet e qeverisë dhe burokracinë në emër të Presidentit Trump, ka kritikuar modelet e AI të ndërtuara nga Openai dhe Google. Shkurtin e kaluar, ai postoi një meme në X në të cilën Binjakët dhe Openai u etiketuan “racist” dhe “u zgjuan”. Ai shpesh citim Një incident ku një nga modelet e Google debatoi nëse do të ishte e gabuar të gabosh dikë edhe nëse do të parandalonte një apokalips bërthamor – një skenar shumë i pamundur. Përveç Tesla dhe SpaceX, Musk drejton Xai, një kompani AI që garon drejtpërdrejt me Openai dhe Google. Një studiues që këshillon Xai kohët e fundit zhvilloi një teknikë të re për të ndryshuar ndoshta prirjet politike të modeleve të gjuhëve të mëdha, siç raportohet nga Wired.

Një organ në rritje i hulumtimeve tregon se paragjykimi politik në modelet e AI mund të ndikojë në të dy liberalët dhe konservatorët. Për shembull, Një studim i algoritmit të rekomandimit të Twitter Botuar në vitin 2021 tregoi se përdoruesit kishin më shumë të ngjarë të tregohen perspektiva të mbështetur në të djathtë në platformë.

Që nga janari, i ashtuquajturi Departamenti i Efikasitetit të Qeverisë së Muskut (DOGE) ka qenë duke përfshirë qeverinë amerikane, duke gjuajtur në mënyrë efektive nëpunësit civilë, duke ndalur shpenzimet dhe duke krijuar një mjedis që mendohet të jetë armiqësor për ata që mund të kundërshtojnë qëllimet e administratës Trump. Disa departamente qeveritare siç është Departamenti i Arsimit kanë arkivuar dhe fshirë dokumente që përmendin DEI. Doge ka synuar gjithashtu NIST, organizatën mëmë të AISI, javët e fundit. Dhjetëra punonjës janë pushuar nga puna.

Share This Article
Leave a Comment