Fakti.bg | 05.06.2024 09:20:53 | 69

Фалшиви новини, генерирани от изкуствен интелект, формират общественото мнение

Беше неизбежно и само въпрос на време, хибридната война вече ползва ново оръжие за масово поразяване, наричаме го с общото - генеративен изкуствен интелект (AI). От OpenAI обявиха, че са спрели пет тайни операции за политическо влияние, които са използвали AI моделите на компанията с цел моделиране на общественото мнение в интернет, пише dariknews.bg. Тези операции, които OpenAI са „убили” между 2023 и 2024 г., са дошли от Русия, Китай, Иран и Израел. Целта им е била манипулация на общественото мнение и влияние върху политически резултати. А какво се случва с далеч по-малките и незначителни кампании в различните страни? Например в България, където обемите не са толкова много и е възможно да минат под радара на OpenAI? Докладът на OpenAI идва на фона на засилващите се опасения относно въздействието на генеративния AI върху многото политически избори по света (до урните тази година отиват около 4 млрд. човека в 65 държави), планирани за тази година, включително САЩ и Европейския съюз. В своите констатации OpenAI разкрива как мрежи от хора, ангажирани в операциите за влияние, са използвали генеративен AI за генериране на текст и изображения в много по-големи обеми от преди, и фалшиво ангажиране чрез използване на AI за генериране на фалшиви коментари в публикации в социални медии. От OpenAI казват, че руската операция, наречена „Doppelganger“, е използвала моделите на компанията за генериране на заглавия, „мутиране” на новинарски статии в публикации във Facebook и създаване на коментари на множество езици, за да подкопае подкрепата за Украйна. Друга руска група използва модели на OpenAI, за да декодира кода на бота на Telegram, който публикува кратки политически коментари на английски и руски, насочени към Украйна, Молдова, САЩ и балтийските държави. Китайската мрежа Spamouflage, известна с усилията си за влияние във Facebook и Instagram, използва моделите на OpenAI за изследване на активността на социалните медии и генериране на текстово съдържание на множество езици в различни платформи. Иранският „Международен съюз на виртуалните медии“ също използва AI за генериране на съдържание на множество езици. Докладът на OpenAI е подобен на тези, които други технологични компании правят от време на време. Миналата сряда, например, Meta публикува последния си доклад за координирано неавтентично поведение, в който се описва как израелска маркетингова фирма е използвала фалшиви акаунти във Facebook, за да проведе кампания за влияние в социалната мрежа, насочена към хора в САЩ и Канада.

Прочети цялата публикация