„Salesforce AI Research“ pristato „Moirai-MoE“: MoE laiko serijos pagrindo modelį, kuris autonomiškai pasiekia žetonų lygio modelio specializaciją
Laiko eilučių prognozavimas jau seniai buvo neatsiejama finansų, sveikatos priežiūros, meteorologijos ir…
„Tencent“ išleido „Hunyuan-Large“ (Hunyuan-MoE-A52B) modelį: naują atvirojo kodo transformatoriumi pagrįstą MoE modelį, kuriame iš viso yra 389 milijardai parametrų ir 52 milijardai aktyvių parametrų
Dideli kalbos modeliai (LLM) tapo daugelio dirbtinio intelekto sistemų pagrindu, o tai…

