Как мащабирането по време на тестване разкрива скритите способности за разсъждение в малките езикови модели

Много малките езикови модели (SLM) могат да надминат водещите големи езикови модели (LLM) в задачите за разсъждение, според ново проучване на Shanghai Artificial Intelligence Lab. Авторите показват, че с правилните инструменти и техники за мащабиране по време на тестването, SLM с 1 милиард параметри може да надмине LLM 405B при сложни математически тестове. Способността да […]
Прочети цялата публикация