Изкуственият интелект все повече мисли като хората – това е опасно

Група водещи изследователи от DeepMind, OpenAI, Meta, Anthropic и няколко академични и нестопански организации публикуваха съвместен доклад с тревожно послание: способността да се наблюдава как AI взема решения може скоро да изчезне. Докладът е подписан от носителя на наградата Тюринг - Джефри Хинтън и съоснователя на OpenAI - Иля Суцкевер, наред с други известни фигури от технологичната индустрия, става ясно от публикацията в ArXiv. Фокусът на посланието е върху т.нар. "вериги на мисълта" или "вериги на разсъждението" (CoT), които се използват в съвременните езикови и мултимодални модели. Това са междинни стъпки, през които AI „разговаря" вътрешно, преди да даде отговор. CoT са особено важни при решаването на сложни проблеми, които изискват логика, планиране или работа с числа. Докато изкуственият интелект остава „прозрачен" и позволява на човека да следва неговия ход на мисълта, хората ще могат да откриват грешки, пристрастия или потенциално опасно поведение. Авторите на статията обаче предупреждават, че с нарастване на възможностите на AI и усложняването на архитектурите, способността за наблюдение на такива вериги може да отслабне. Моделите може да започнат да „крият" вътрешните си стъпки, оптимизирайки поведението си за съответствие с външни показатели
Прочети цялата публикация