
OpenAI призна, че халюцинациите на AI са математически неизбежни

Големите езикови модели винаги ще произвеждат правдоподобни, но неверни резултати, дори с перфектни данни. Това се дължи на фундаментални статистически и изчислителни ограничения, показва ново проучване на изследователи от OpenAI. Това е важно признание от една от водещите AI компании. Изследването, публикувано на 5 септември, е проведено от изследователите на OpenAI Адам Тауман Калай, Едуин Джанг и Офир Начум, заедно със Сантош Вемпала от Технологичния университет на Джорджия. То предоставя цял...