CMU tyrėjai pristato „Paprika“: tobulinimo metodą, leidžiantį kalbos modeliams sukurti bendrąsias sprendimų priėmimo galimybes, neapsiribojančias tam tikra aplinka
Šiandien sparčiai besivystančioje AI kraštovaizdyje vienas nuolatinis iššūkis yra kalbos modeliams aprūpinti…
Vaterlo universiteto ir CMU tyrėjai pristato kritikos derinimą (CFT): naujas AI metodas, skirtas sustiprinti LLM samprotavimus su struktūrizuotu kritikos mokymuisi
Tradiciniai požiūriai į kalbų modelių mokymą labai priklauso nuo prižiūrimo tobulinimo, kai…
Tyrėjai iš MBZUAI ir CMU pristato „Bi-Mamba“: keičiamo dydžio ir efektyvią 1 bitų „Mamba“ architektūrą, sukurtą kelių dydžių didelių kalbų modeliams (780 M, 1,3 B ir 2,7 B parametrai)
Mašininio mokymosi raida padarė didelę pažangą kalbos modeliuose, kurie yra esminiai tokiems…
Tyrėjai iš Snowflake ir CMU pristato SuffixDecoding: naują metodą be modelio, kaip pagreitinti didelės kalbos modelio (LLM) išvadas naudojant spekuliacinį dekodavimą
Didelės kalbos modeliai (LLM) greitai tapo pagrindine šiuolaikinių vartotojų ir įmonių programų…

