Группировки из России, Израиля, Ирана и Китая использовали искусственный интеллект для проведения кампаний по дезинформации в сети. Об этом пишет британская газета The Guardian.
За последние три месяца OpenAI, создатель ChatGPT, разоблачил пять тайных операций по воздействию на общественное мнение и политические процессы. Их проводили структуры из России, Китая, Ирана и Израиля с помощью технологий искусственного интеллекта, создавая таким образом большое количество контента. Среди затрагиваемых тем — российское вторжение в Украину, конфликт в секторе Газа, выборы в Индии, политика в Европе и США.
В России кампанию курировали две пропагандистские сети. Одна из них — это «Doppelgänger», участники которой использовали языковые модели от OpenAI для написания комментариев на английском, французском, немецком, итальянском и польском языках и их дальнейшей публикации в соцсетях.
С 2017 года Doppelgänger был связан с созданием поддельных сайтов, выдающих себя за реальные новостные организации в Европе и США. Американцы ввели санкции против двух россиян и их компаний за участие в операциях по кибервлиянию. Предполагается, что они являются частью сети Doppelgänger.
Другая российская операция получила название «Bad Grammar»: её участники пишут в основном короткие политические комментарии на русском и английском языках в Telegram, а контент нацелен на аудиторию из стран постсоветского пространства и США.