Databricks, një kompani që ndihmon bizneset e mëdha të ndërtojnë modele të personalizuara të inteligjencës artificiale, ka zhvilluar një mashtrim të mësimit të makinerisë që mund të rrisë performancën e një modeli AI pa nevojën për të dhëna të pastra të etiketuara.
Jonathan Frankle, Shefi i Shkencëtarëve të AI në Databricks, kaloi vitin e kaluar duke biseduar me klientët për sfidat kryesore me të cilat përballen për të marrë AI për të punuar me besueshmëri.
Problemi, thotë Frankle, janë të dhëna të ndyra.
“Të gjithë kanë disa të dhëna dhe kanë një ide se çfarë duan të bëjnë,” thotë Frankle. Por mungesa e të dhënave të pastra e bën sfiduese të rregulloni një model për të kryer një detyrë specifike .. “Askush nuk shfaqet me të dhëna të këndshme dhe të pastra të rregulluara që ju mund t’i ngjitni në një të shpejtë ose një [application programming interface]”Për një model.
Modeli i Databricks mund të lejojë kompanitë që përfundimisht të vendosin agjentët e tyre për të kryer detyra, pa cilësinë e të dhënave që qëndrojnë në rrugë.
Teknika ofron një vështrim të rrallë në disa nga truket kryesore që inxhinierët tani po përdorin për të përmirësuar aftësitë e modeleve të përparuara të AI, veçanërisht kur të dhënat e mira janë të vështira për tu arritur. Metoda shfrytëzon idetë që kanë ndihmuar në prodhimin e modeleve të përparuara të arsyetimit duke kombinuar mësimin e përforcimit, një mënyrë që modelet e AI të përmirësohen përmes praktikës, me “sintetike”, ose të dhëna trajnimi të krijuara nga AI.
Modelet e fundit nga Openai, Google dhe Deepseek të gjithë mbështeten shumë në mësimin e përforcimit, si dhe të dhënat e trajnimit sintetik. Wired zbuloi se Nvidia planifikon të marrë Gretel, një kompani që specializohet në të dhëna sintetike. “Ne të gjithë po lundrojmë në këtë hapësirë,” thotë Frankle.
Metoda e të dhënave shfrytëzon faktin se, duke pasur parasysh përpjekjet e mjaftueshme, madje edhe një model i dobët mund të shënojë mirë në një detyrë të caktuar ose pikë referimi. Studiuesit e quajnë këtë metodë për të rritur performancën e një modeli “Best-Of-N”. Databricks trajnoi një model për të parashikuar se cili do të preferonte testuesit më të mirë të rezultatit-N, bazuar në shembuj. Modeli i shpërblimit të të dhënave, ose DBRM, më pas mund të përdoret për të përmirësuar performancën e modeleve të tjera pa pasur nevojë për të dhëna të etiketuara më tej.
DBRM përdoret më pas për të zgjedhur rezultatet më të mira nga një model i caktuar. Kjo krijon të dhëna të trajnimit sintetik për rregullimin e mëtejshëm të modelit në mënyrë që të prodhojë një prodhim më të mirë për herë të parë. Databricks e quan optimizimin adaptiv të kohës së tij të testit të qasjes ose TAO. “Kjo metodë për të cilën po flasim përdor disa mësime relativisht të lehta të përforcimit për të pjekur në thelb përfitimet e më të mirës-N në vetë modelin,” thotë Frankle.
Ai shton se hulumtimi i bërë nga Databricks tregon se metoda TAO përmirësohet pasi është shkallëzuar në modele më të mëdha, më të afta. Mësimi i përforcimit dhe të dhënat sintetike tashmë janë përdorur gjerësisht, por kombinimi i tyre për të përmirësuar modelet e gjuhës është një teknikë relativisht e re dhe teknikisht sfiduese.
Databricks është jashtëzakonisht i hapur për mënyrën sesi zhvillon AI sepse dëshiron t’u tregojë klientëve se ka aftësi të nevojshme për të krijuar modele të fuqishme me porosi për ta. Kompania më parë zbuloi për Wired se si ajo zhvilloi DBX, një model i madh i gjuhës së madhe me burim të hapur (LLM) nga e para.