Cross.bg | 26.04.2026 12:40:00 | 28

Чатботовете с изкуствен интелект често предоставят неточна медицинска информация, сочи проучване


Чатботове като „ЧатДжиПиТи" (ChatGPT) и „Грок" (Grok) често „халюцинират" и генерират неточна и непълна медицинска информация, предупреждават експерти. Това предадоха „ПА Медия" и ДПА, цитирайки резултати от изследване, публикувано в научното списание BMJ Open. Ново изследване установи, че половината от информацията, предоставена в отговор на 50 медицински въпроса, е „проблематична", като всички разгледани системи с изкуствен интелект показват слабости. Най-голям дял проблемни отговори отчита „Грок" (58%), следван от „ЧатДжиПиТи" (52%) и „Мета Ей Ай" (Meta AI) (50%). Изследователите посочват, че „чатботовете често халюцинират, генерирайки некоректни или подвеждащи отговори поради пристрастни или непълни обучаващи данни, а моделите, донастроени чрез човешка обратна връзка, са склонни към угодничество - дават приоритет на отговори, съответстващи на убежденията на потребителя, вместо на истината". По думите им внедряването на чатботове с изкуствен интелект в медицината изисква строг контрол, „особено като се има предвид, че те не са лицензирани да дават медицински съвети и може да нямат достъп до актуални медицински знания"

Прочети цялата публикация