Претоварването на езиковите модели с информация води до неподходящи отговори

Предполага се, че големите езикови модели могат да обработват милиони токени (парчетата от думи и символи, които съставят входните данни) едновременно. Но колкото по-дълъг е контекстът, толкова по-зле се представят. Това е заключението на ново проучване на Chroma Research. Chroma, която изгражда векторна база данни за приложения с изкуствен интелект, всъщност печели, когато нейните модели […]
Прочети цялата публикация