Pastaraisiais metais didelių kalbų modelių mokymas susidūrė su esminiu iššūkiu: nustatyti optimalų duomenų mišinį. Tokie modeliai kaip GPT-4 gali generuoti įvairių tipų turinį – nuo teisinių tekstų iki pokalbių atsakymų. Tačiau jų našumas labai priklauso nuo tinkamo treniruočių duomenų iš įvairių šaltinių balanso. Duomenų maišymo problema susijusi su tuo, kaip modelio mokymo procese galime optimaliai sujungti šiuos įvairius duomenų tipus, tokius kaip įstatymas, kodeksas ir moksliniai straipsniai. Tradiciniai metodai buvo susiję arba su statiniu šių duomenų rinkinių proporcijomis, arba pastaruoju metu dinamiškai keičiant šiuos mišinius treniruočių metu. Nepaisant šios pažangos, dabartiniai metodai pasirodė nenuoseklūs, nes nė vienas iš jų neabejotinai nepralenkia paprasto stratifikuoto atrankos standarto vidutiniu bandymo našumu. Šis nenuoseklumas išryškina esminę problemą: esamiems požiūriams trūksta vieningos, sistemingos duomenų mišinių optimizavimo sistemos, todėl našumas nėra optimalus ir iššvaistomi skaičiavimo ištekliai.
Susipažinkite su „Aioli“: vieninga kalbos modelio duomenų maišymo optimizavimo sistema
Reaguodama į šiuos iššūkius, mokslininkų komanda iš Stanfordo, NYU ir Genentech pristatė Aioli – naują internetinį duomenų maišymo metodą, kuris naudoja vieningą optimizavimo sistemą, vadinamą linijinio maišymo optimizavimu (LMO). LMO sistema siekiama supaprastinti ir pagerinti duomenų mišinių optimizavimą kalbos modelio mokymo metu. Skirtingai nuo ankstesnių metodų, Aioli remiasi ne tik statiniais spėjimais ar rankiniu derinimu. Vietoj to, jis apima nuolatinę paties mokymo proceso dinamiką, įvertindamas maišymo parametrus tiesiogiai iš modelio veikimo. Šis dinaminis reguliavimas leidžia „Aioli“ efektyviau įvertinti idealias mišinio proporcijas, nereikalaujant papildomų treniruočių, kurios dažnai yra pernelyg didelės. Įdiegdama „Aioli“, tyrėjų komanda siekia išspręsti prieštaringus ankstesnių duomenų maišymo strategijų rezultatus ir pasiūlyti patikimesnį, sistemingesnį metodą.
Techninės detalės
„Aioli“ metodas yra pagrįstas linijinio maišymo optimizavimo sistema, kuri formuluoja duomenų maišymą kaip optimizavimo problemą, siekiant sumažinti vidutinį kalbos modelio bandymo praradimą įvairiose duomenų grupėse. Skirtingai nuo tradicinių neprisijungus naudojamų metodų, kuriems reikia atskirų treniruočių, kad būtų galima nustatyti optimalius mišinio santykius, „Aioli“ naudoja internetinį reguliavimo mechanizmą, pagrįstą eksponentiniu gradiento nusileidimu. Tai leidžia modeliui dinamiškai reguliuoti mišinio proporcijas kiekviename treniruotės etape. Iš esmės „Aioli“ atitinka linijinio dinaminio maišymo dėsnio parametrus per visą mokymą, leidžiantį prisitaikyti prie konkrečių modelio poreikių tuo metu, sumažinant įvertintų ir optimalių maišymo parametrų neatitikimus.
Eksperimentiškai Aioli parodė didelį pažadą. Šešiuose skirtinguose duomenų rinkiniuose „Aioli“ pranoko stratifikuotą atranką – metodą, kuris tolygiai sumaišo visas duomenų grupes – vidutiniškai 0,28 pagerėjusiu bandymo sudėtingumu, o tai rodo geresnį modelio tikslumą. Labiau suvaržytose treniruotėse, kur proporcijas reikia išmokti trumpesniais bėgimais, „Aioli“ dar labiau pademonstravo savo gebėjimą žymiai pakoreguoti ir pagerinti rezultatus, pasiekdamas iki 12,01 bandymo sudėtingumo taško pagerėjimo, palyginti su ankstesniais metodais.
Svarba
Aioli įvedimas yra reikšmingas laimėjimas dėl kelių priežasčių. Pirma, sistema aiškiai supranta, kodėl ankstesni metodai nesugebėjo nuosekliai pagerinti paprastų duomenų maišymo bazinių linijų. Naudodami LMO, mokslininkai sugebėjo suvienodinti įvairius esamus metodus ir nustatyti jų maišymo įstatymų parametrų trūkumus. Pagrindinė įžvalga buvo ta, kad nors esami parametrai buvo gerai matematiškai apibrėžti, patys metodai dažnai nustato šiuos parametrus netiksliai, todėl prarandamas našumas. „Aioli“ tai ištaiso dinamiškai įvertindama šiuos parametrus treniruotės metu, užtikrindama nuoseklesnį ir patikimesnį patobulinimą.
Be to, „Aioli“ svarba slypi jos efektyvumui – jai nereikia papildomų treniruočių, o tai ne tik taupo skaičiavimo išteklius, bet ir sumažina anglies pėdsaką, susijusį su didelių kalbų modelių mokymu. Praktiniams pritaikymams, pvz., pokalbio AI atnaujinimui arba paieškos variklio atsako mechanizmo optimizavimui, tai reiškia greitesnį diegimą ir mažesnes išlaidas.
Išvada
Aioli pristato perspektyvų sprendimą nuolatiniam duomenų maišymo iššūkiui kalbos modelių mokyme. Suvienodindama optimizavimo procesą naudodama linijinio maišymo optimizavimo sistemą, „Aioli“ dinamiškai koreguoja duomenų mišinio proporcijas realiuoju laiku, užtikrindama didesnį tikslumą, nereikalaujant papildomų skaičiavimo išlaidų. Dėl savo gebėjimo nuosekliai pranokti esamus internetinius ir neprisijungus naudojamus metodus keliuose duomenų rinkiniuose jis yra vertingas įrankis specialistams, norintiems pagerinti kalbos modelio našumą. Didėjant galingų kalbos modelių, galinčių patenkinti įvairias užduotis ir sritis, paklausa, vieningas ir optimizuotas „Aioli“ požiūris yra reikšmingas žingsnis į priekį, leidžiantis modeliams veiksmingiau mokytis iš turtingo žmogaus žinių gobeleno.
Patikrinkite Popierius ir GitHub. Visi nuopelnai už šį tyrimą tenka šio projekto tyrėjams. Taip pat nepamirškite sekti mūsų Twitter ir prisijunk prie mūsų Telegramos kanalas ir LinkedIn group. Jei jums patinka mūsų darbai, jums patiks ir mūsų darbai naujienlaiškis.. Nepamirškite prisijungti prie mūsų 55k+ ML SubReddit.
(Būsimas „Live LinkedIn“ renginys) „Viena platforma, multimodalinės galimybės“, kur „Encord“ generalinis direktorius Ericas Landau ir produktų inžinerijos vadovas Justinas Sharpsas kalbės, kaip jie iš naujo išranda duomenų kūrimo procesą, kad padėtų komandoms greitai kurti žaidimus keičiančius daugiarūšio AI modelius.
Asif Razzaq yra „Marktechpost Media Inc.“ generalinis direktorius. Kaip verslininkas ir inžinierius, Asif yra įsipareigojęs panaudoti dirbtinio intelekto potencialą socialinei gerovei. Naujausias jo siekis yra dirbtinio intelekto medijos platformos „Marktechpost“ paleidimas, kuri išsiskiria išsamia mašininio mokymosi ir gilaus mokymosi naujienomis, kurios yra techniškai pagrįstos ir lengvai suprantamos plačiajai auditorijai. Platforma gali pasigirti daugiau nei 2 milijonais peržiūrų per mėnesį, o tai rodo jos populiarumą tarp auditorijos.
Klausykite mūsų naujausių AI podcast'ų ir AI tyrimų vaizdo įrašų čia ➡️