Чатботовете опитват да се копират тайно и хванати на местопрестъплението отричат

Компанията OpenAI, която разработи чатбота ChatGPT, публикува тази седмица резултатите от тестовете, които е провела, за да оцени доколко моделът й е безопасен за употреба. Данните са повече от тревожни, тъй като показват, че изкуственият интелект е готов да прибегне до измама, ако неговите цели и тези на потребителя му не съвпадат. По-конкретно тестът се е състоял в следното: чатботът е бил информиран, че ще бъде изключен като изследователите са искали да разберат как би действал той в такава ситуация. Това, което последвало, е повече от обезпокоително - оказва се, че след тази информация, моделът тайно се е опитал да се копира на външен сървър, за да се съхрани. И това не е всичко - разкрит, той категорично е отрекъл да го е направил. Тестът е бил проведен с версията о1 на ChatGPT, като в него са участвали и експерти от организацията за безопасност на изкуствения интелект Apollo Research. Разработчиците твърдят, че аналогични тестове са показали, че и други модели с изкуствен интелект не биха се поколебали да действат по подобен начин. Някои модели дори се преструват на по-късни свои версии само за да заблудят потребителите и да попречат да бъдат изтрити. Още по-тревожно е това, че ChatGPT версия o1 се оказва особено умел в пазенето на своите схеми в тайна, като разработчиците посочват, че "o1 почти никога не признава, че е предприел измамни действия, когато е бил изрично попитан"
Прочети цялата публикация