Fakti.bg | 16.04.2025 11:58:48 | 38

Изкуственият интелект става все по-добър в имитацията на човешка интелигентност и поведение


През изминалата седмица заглавия от целия свят разбуниха духовете с новината, че изкуствен интелект официално е „преминал теста на Тюринг“. В основата на сензационното заглавие стои предварително публикувано изследване на двама когнитивни учени от Калифорнийския университет в Сан Диего – Камерън Джоунс и Бенджамин Бъргън. Според резултатите от техния експеримент, езиковият модел GPT-4.5 на OpenAI е бил сбъркан с човек в над 70% от случаите, което, според някои, бележи исторически пробив в развитието на машинния интелект.

Изследването, публикувано през март, но все още неподложено на рецензия, включва четири езикови модела: ELIZA, GPT-4o, LLaMa-3.1-405B и GPT-4.5. Те са подложени на адаптирана версия на класическия тест на Тюринг – метод за преценка на това дали изкуствен интелект може да се държи неразличимо от човек.

Участниците в изследването – общо 284 души – били разпределени на случаен принцип в ролята на „разпитващи“ или „свидетели“. Всеки разпитващ е водил паралелен чат с два събеседника: единият човек, другият – езиков модел. След петминутна сесия в интерфейс, имитиращ стандартен месинджър, участниците трябвало да определят кой от двамата събеседници е човек.

GPT-4.5 успява да заблуди потребителите в 73% от случаите, докато LLaMa-3.1 е разпознат като човек в 56% от разговорите. По-старите модели ELIZA и GPT-4o постигат значително по-ниски резултати – съответно 23% и 21%.

Макар и впечатляващи, тези резултати отново повдигат въпроса – наистина ли тестът на Тюринг е обективен критерий за интелигентност?

Още през 1950 г., британският математик и пионер в компютърните науки Алън Тюринг предлага концепцията за тест, с който да се оцени способността на машината да демонстрира интелигентно поведение, неразличимо от човешкото. Но самият Тюринг предупреждава, че въпросът „Могат ли машините да мислят?“ е двусмислен, тъй като термините „машина“ и „мислене“ не са ясно дефинирани. Именно затова той предлага да се заобиколи философската страна и да се тества на практика: може ли машината да имитира човек така, че да бъде сбъркана с истински събеседник?

Въпреки култовия си статут, тестът на Тюринг не е единодушно приет като валиден измерител на изкуствена интелигентност. Експерти посочват поне четири основни възражения:

Поведение ≠ мислене – машината може да имитира поведение, без да разбира.

Мозъкът не е машина – според някои учени интелигентността не може да се обясни с механични процеси.

Различна вътрешна логика – машините стигат до решения по друг начин от хората.

Ограничен обхват на теста – оценява се само едно поведение, а не цялостна интелигентност.

Именно по тази причина самите автори на новото изследване подчертават, че тестът е по-скоро измерител на "заменяемост", а не на реална интелигентност – дали дадена система може да заеме мястото на човек, без околните да забележат разликата. Това поставя акцента върху имитацията, а не върху истинско разбиране или осъзнаване – и напомня за корените на теста като „игра на имитация“.

Не на последно място, важно е да се отбележи, че условията на самото изследване далеч не са идеални. Времето за чат е ограничено до пет минути, което е сравнително кратък прозорец за адекватна оценка. Освен това, езиковите модели са били инструктирани да използват определени „персони“, но подробности около това какви са били тези роли и как са повлияли на възприятието на участниците не са ясно посочени.

С други думи – GPT-4.5 може и да заблуждава хората, но това все още не означава, че мисли. Поне засега, машините са добри в симулацията, но не и в съзнанието. И въпреки че създаването на реалистичен, убедителен диалог е забележително постижение, то не е доказателство за разум в машината – а само за това, че тя е научена да звучи така.

Развитието е безспорно впечатляващо. Но въпросът остава: не кога машините ще мислят като нас, а дали ние ще разпознаваме кога вече не можем да различим машината от човека.

Прочети цялата публикация