Фалшиви новини, генерирани от изкуствен интелект, формират общественото мнение
Беше неизбежно и само въпрос на време, хибридната война вече ползва ново оръжие за масово поразяване, наричаме го с общото - генеративен изкуствен интелект (AI). От OpenAI обявиха, че са спрели пет тайни операции за политическо влияние, които са използвали AI моделите на компанията с цел моделиране на общественото мнение в интернет, пише dariknews.bg. Тези операции, които OpenAI са „убили” между 2023 и 2024 г., са дошли от Русия, Китай, Иран и Израел. Целта им е била манипулация на общественото мнение и влияние върху политически резултати. А какво се случва с далеч по-малките и незначителни кампании в различните страни? Например в България, където обемите не са толкова много и е възможно да минат под радара на OpenAI? Докладът на OpenAI идва на фона на засилващите се опасения относно въздействието на генеративния AI върху многото политически избори по света (до урните тази година отиват около 4 млрд. човека в 65 държави), планирани за тази година, включително САЩ и Европейския съюз. В своите констатации OpenAI разкрива как мрежи от хора, ангажирани в операциите за влияние, са използвали генеративен AI за генериране на текст и изображения в много по-големи обеми от преди, и фалшиво ангажиране чрез използване на AI за генериране на фалшиви коментари в публикации в социални медии. От OpenAI казват, че руската операция, наречена „Doppelganger“, е използвала моделите на компанията за генериране на заглавия, „мутиране” на новинарски статии в публикации във Facebook и създаване на коментари на множество езици, за да подкопае подкрепата за Украйна. Друга руска група използва модели на OpenAI, за да декодира кода на бота на Telegram, който публикува кратки политически коментари на английски и руски, насочени към Украйна, Молдова, САЩ и балтийските държави. Китайската мрежа Spamouflage, известна с усилията си за влияние във Facebook и Instagram, използва моделите на OpenAI за изследване на активността на социалните медии и генериране на текстово съдържание на множество езици в различни платформи. Иранският „Международен съюз на виртуалните медии“ също използва AI за генериране на съдържание на множество езици. Докладът на OpenAI е подобен на тези, които други технологични компании правят от време на време. Миналата сряда, например, Meta публикува последния си доклад за координирано неавтентично поведение, в който се описва как израелска маркетингова фирма е използвала фалшиви акаунти във Facebook, за да проведе кампания за влияние в социалната мрежа, насочена към хора в САЩ и Канада.
Прочети цялата публикация



Журналист накара ChatGPT и AI на Google да разпространяват фалшиви новини само за 20 минути
Тръмп няма намерение да се извини за видеото, в което Барак и Мишел Обама са представени като маймуни
Франция идентифицира руска дезинформационна операция срещу Макрон
31 януари — годишнина от рождението на пророчицата Ванга
Испания ще разследва X, Меtа и TikTok за материали със сексуално малтретиране на деца, генерирани от изкуствен интелект
Секс, отрова и насилия: аферите, които застрашават Орбан
Шакира ще разтърси плажа Копакабана в Рио с безплатен концерт
Гергана Стоянова със саркастичен призив: Номинации за Оскар за видеата от "Петрохан" (СНИМКИ)
Когато чатботът стане приятел: Тревожната близост между младите хора и изкуствения интелект
Севернокорейските хакери използват ИИ за сложни дийпфейк атаки и фалшиви Zoom-разговори
Затворнически бунт в Куба
Мисията на Иран в ООН до Гутериш: Ще отговорим решително, ако бъдем атакувани
Проверяват дали има заровени тела на момичета до имението на Епстийн в Ню Мексико
Арестуваха млад мъж, блудствал с 12-годишна от дом във Варна
Радост за шофьорите: Минаваме ГТП и с глобите
РАЗВРЪЗКА: Откриха заседнал туриста, който издирваха в Стара Планина
САЩ детронира Канада - стана олимпийски шампион по хокей за жени
Хьогмо: Спечелихме заради силната воля на играчите
Microsoft започна да тества Windows 11 27H2 – в Windows Insider се появи нов канал за него