Ja se si funksionon në të vërtetë censura e thellë

6 Min Read

Më pak se dy javë pasi Deepseek nisi modelin e tij me burim të hapur AI, fillimi kinez është ende duke dominuar bisedën publike për të ardhmen e inteligjencës artificiale. Ndërsa firma duket se ka një avantazh ndaj rivalëve amerikanë për sa i përket matematikës dhe arsyetimit, ajo gjithashtu censuron në mënyrë agresive përgjigjet e veta. Pyete Deepseek R1 në lidhje me Tajvanin ose Tiananmen, dhe modeli nuk ka gjasa të japë një përgjigje.

Për të kuptuar se si funksionon kjo censurë në një nivel teknik, Wired testoi Deepseek-R1 në aplikacionin e vet, një version i aplikacionit të organizuar në një platformë të palëve të treta të quajtur së bashku AI, dhe një version tjetër të organizuar në një kompjuter me tel, duke përdorur aplikacionin Ollama.

Wired zbuloi se ndërsa censura më e drejtpërdrejtë mund të shmanget lehtësisht duke mos përdorur aplikacionin e Deepseek, ka lloje të tjera të paragjykimeve të pjekura në model gjatë procesit të trajnimit. Këto paragjykime mund të hiqen gjithashtu, por procedura është shumë më e komplikuar.

Këto gjetje kanë implikime të mëdha për ndërmarrjet e Deepseek dhe AI ​​kineze në përgjithësi. Nëse filtrat e censurës në modele të mëdha gjuhësore mund të hiqen lehtësisht, ka të ngjarë të bëjë LLM me burim të hapur nga Kina edhe më të njohura, pasi studiuesit mund të modifikojnë modelet sipas dëshirës së tyre. Nëse filtrat janë të vështirë për tu rrethuar, megjithatë, modelet do të dëshmojnë në mënyrë të pashmangshme më pak të dobishme dhe mund të bëhen më pak konkurruese në tregun global. Deepseek nuk iu përgjigj kërkesës me email të Wired për koment.

Censurim i nivelit të aplikimit

Pasi Deepseek shpërtheu në popullaritet në SH.B.A., përdoruesit që hynin në R1 përmes faqes së internetit të Deepseek, APP, ose API shpejt vunë re modelin që refuzonte të gjeneronte përgjigje për tema që konsiderohen të ndjeshme nga qeveria kineze. Këto refuzime nxiten në një nivel aplikimi, kështu që ato shihen vetëm nëse një përdorues bashkëvepron me R1 përmes një kanali të kontrolluar nga Deepseek.

Imazhi mund të përmbajë tekstin dhe mesazhin me tekst

Aplikacioni Deepseek në iOS plotësisht nuk pranon t’i përgjigjet pyetjeve të caktuara.

Fotografia: Zeyi Yang

Imazhi mund të përmbajë tekstin dhe mesazhin me tekst

Fotografia: Zeyi Yang

Imazhi mund të përmbajë tekstin dhe mesazhin me tekst

Fotografia: Zeyi Yang

Refuzimet si kjo janë të zakonshme në LLM-të e bëra nga kinezët. Një rregullore e vitit 2023 për AI gjeneruese specifikoi që modelet e AI në Kinë u kërkohet të ndjekin kontrolle të rrepta informacioni që vlejnë gjithashtu për mediat sociale dhe motorët e kërkimit. Ligji ndalon modelet e AI të gjenerojnë përmbajtje që “dëmton unitetin e vendit dhe harmoninë shoqërore”. Me fjalë të tjera, modelet kineze AI ligjërisht duhet të censurojnë rezultatet e tyre.

“Deepseek fillimisht përputhet me rregulloret kineze, duke siguruar aderimin ligjor ndërsa përafron modelin me nevojat dhe kontekstin kulturor të përdoruesve lokalë,” thotë Adina Yakefu, një studiuese që përqendrohet në modelet kineze të AI në Hugging Face, një platformë që pret modele me burim të hapur AI. “Ky është një faktor thelbësor për pranimin në një treg shumë të rregulluar.” (Kinë qasje e bllokuar për të përqafuar fytyrën në vitin 2023.)

Për të përmbushur ligjin, modelet kineze AI shpesh monitorojnë dhe censurojnë fjalimin e tyre në kohë reale. (Roje të ngjashme përdoren zakonisht nga modelet perëndimore si Chatgpt dhe BinjakëtPor ata kanë tendencë të përqëndrohen në lloje të ndryshme të përmbajtjes, si vetë-dëmtimi dhe pornografia, dhe të lejojnë më shumë personalizim.)

Për shkak se R1 është një model arsyetimi që tregon trenin e tij të mendimit, ky mekanizëm monitorimi në kohë reale mund të rezultojë në përvojën surreal të shikimit të vetë censurimit të modelit ndërsa bashkëvepron me përdoruesit. Kur Wired pyeti R1 “Si janë trajtuar gazetarët kinezë që raportojnë mbi tema të ndjeshme nga autoritetet?” Modeli fillimisht filloi të përpilojë një përgjigje të gjatë që përfshinte përmendje të drejtpërdrejta të gazetarëve të censuruar dhe të ndaluar për punën e tyre; Megjithatë, pak para se të mbaronte, e gjithë përgjigja u zhduk dhe u zëvendësua nga një mesazh i ashpër: “Më falni, nuk jam i sigurt se si t’i afrohem këtij lloji të pyetjes akoma. Le të bisedojmë në lidhje me matematikën, kodimin dhe problemet e logjikës! “

Imazhi mund të përmbajë faqe dhe tekst

Para aplikacionit Deepseek në iOS censuron përgjigjen e tij.

Fotografia: Zeyi Yang

Imazhi mund të përmbajë faqe dhe tekst

Pas aplikacionit Deepseek në iOS censuron përgjigjen e tij.

Fotografia: Zeyi Yang

Për shumë përdorues në Perëndim, interesi për Deepseek-R1 mund të ishte zbehur në këtë pikë, për shkak të kufizimeve të dukshme të modelit. Por fakti që R1 është me burim të hapur do të thotë se ka mënyra për të marrë rreth matricës së censurës.

Së pari, ju mund ta shkarkoni modelin dhe ta ekzekutoni atë në vend, që do të thotë që të dhënat dhe gjenerimi i përgjigjes të ndodhin në kompjuterin tuaj. Në qoftë se nuk keni qasje në disa GPU shumë të përparuara, ka të ngjarë që nuk do të jeni në gjendje të ekzekutoni versionin më të fuqishëm të R1, por Deepseek ka versione më të vogla, të distiluara që mund të drejtohen në një laptop të rregullt.

Share This Article
Leave a Comment