Фалшиви новини, генерирани от изкуствен интелект, формират общественото мнение
Беше неизбежно и само въпрос на време, хибридната война вече ползва ново оръжие за масово поразяване, наричаме го с общото - генеративен изкуствен интелект (AI). От OpenAI обявиха, че са спрели пет тайни операции за политическо влияние, които са използвали AI моделите на компанията с цел моделиране на общественото мнение в интернет, пише dariknews.bg. Тези операции, които OpenAI са „убили” между 2023 и 2024 г., са дошли от Русия, Китай, Иран и Израел. Целта им е била манипулация на общественото мнение и влияние върху политически резултати. А какво се случва с далеч по-малките и незначителни кампании в различните страни? Например в България, където обемите не са толкова много и е възможно да минат под радара на OpenAI? Докладът на OpenAI идва на фона на засилващите се опасения относно въздействието на генеративния AI върху многото политически избори по света (до урните тази година отиват около 4 млрд. човека в 65 държави), планирани за тази година, включително САЩ и Европейския съюз. В своите констатации OpenAI разкрива как мрежи от хора, ангажирани в операциите за влияние, са използвали генеративен AI за генериране на текст и изображения в много по-големи обеми от преди, и фалшиво ангажиране чрез използване на AI за генериране на фалшиви коментари в публикации в социални медии. От OpenAI казват, че руската операция, наречена „Doppelganger“, е използвала моделите на компанията за генериране на заглавия, „мутиране” на новинарски статии в публикации във Facebook и създаване на коментари на множество езици, за да подкопае подкрепата за Украйна. Друга руска група използва модели на OpenAI, за да декодира кода на бота на Telegram, който публикува кратки политически коментари на английски и руски, насочени към Украйна, Молдова, САЩ и балтийските държави. Китайската мрежа Spamouflage, известна с усилията си за влияние във Facebook и Instagram, използва моделите на OpenAI за изследване на активността на социалните медии и генериране на текстово съдържание на множество езици в различни платформи. Иранският „Международен съюз на виртуалните медии“ също използва AI за генериране на съдържание на множество езици. Докладът на OpenAI е подобен на тези, които други технологични компании правят от време на време. Миналата сряда, например, Meta публикува последния си доклад за координирано неавтентично поведение, в който се описва как израелска маркетингова фирма е използвала фалшиви акаунти във Facebook, за да проведе кампания за влияние в социалната мрежа, насочена към хора в САЩ и Канада.
Прочети цялата публикация



Арести в ОАЕ за споделяне на видеа от иранските удари
Статутът на Дубай като сигурно убежище на Близкия изток е разклатен
Журналист накара ChatGPT и AI на Google да разпространяват фалшиви новини само за 20 минути
Гръцки експериментален сайт генерира новини изцяло с изкуствен интелект
Изкуственият интелект влиза в битката с измамите с храните в ЕС
Позицията на Испания против войната в Близкия изток предизвика фурор сред турците
Какво се случи с Джим Кери: Клонинг или пластични операции? (СНИМКИ)
Божидар Божанов: Фейсбук се превръща в бойно поле на пропагандни наративи
Секс, отрова и насилия: аферите, които застрашават Орбан
Бившата шампионка по спортна гимнастика е новата спасителка на плажа
Найден Тодоров: Артистите са виновни за нивото на култура на българските граждани
Иран за атаката на САЩ по остров Харг: Врагът се опита да порази отбранителни съоръжения
Борисов: Турция ни прекара с "Боташ" плащаме по 600 хиляди евро на ден
САЩ нанесоха удари по ключовия за Иран остров Харг
Казахстан няма да открива избирателни секции в Близкия изток
Михаил Околийски за медицинските хеликоптери: Има риск да загубим 80 милиона евро по Плана за възстановяване
Защо остров Харг е толкова важен за Иран?
Детската болница в Бургас бе домакин на международен семинар по анестезиология и интензивно лечение