Изследователи хакнаха изкуствен интелект, като го претовариха с псевдонаучен жаргон

Моделите с изкуствен интелект, като ChatGPT, Gemini и LLaMA, обикновено имат вградени защити, които блокират злонамерените или опасни заявки. Екип от изследователи от Intel, Boise State University и University of Illinois at Urbana-Champaign обаче въведе нов метод за разбиване на тези модели: „InfoFlood“ или „информационно претоварване“. Как работи методът на претоварване Според изследване, InfoFlood ви […]
Прочети цялата публикация