Политические дипфейки стали самым популярным способом злоупотребления ИИ
Анализ исследовательского подразделения американской компании Jigsaw показал распространённый вид мошенничества с целью злоупотребления искусственного интеллекта, передаёт «24KZ». Это 27% всех случаев использования ИИ.
Влиять на людей через интернет с каждым днём становится всё легче. Обманчивые аудиозаписи, фото или видео, созданные с помощью искусственного интеллекта, уже не новость. И с развитием ИИ-технологий делать такой контент стало легче, а вот выявлять – сложнее. Особой популярностью пользуется подделка фото и аудио известных личностей. Жертвами становятся как мировые селебрити, так и политики.
Кроме того, исследование подразделения Google DeepMind показало, что дипфейки с участием политиков и знаменитостей гораздо более распространены, чем попытки использовать искусственный интеллект в кибератаках. А точнее, создание реалистичных, но «ненастоящих» изображений, видео и аудио людей почти в два раза популярнее, чем другое нецелевое использование технологии.
Такие данные вызывают у экспертов серьёзные опасения по поводу влияния дипфейков на предстоящие во многих странах мира выборы. Так, в социальных сетях появились ложные фото и видео премьер-министра Великобритании Риши Сунака и других мировых лидеров. И несмотря на то, что платформы пытаются маркировать или удалять такой контент, иногда аудитория не способна распознать его как фейк, что потенциально влияет на решения избирателей, – считает Арди Джанджева, научный сотрудник Института Алана Тьюринга.
Арди Джанджева, научный сотрудник Института Алана Тьюринга:
– Загрязнение общедоступной информации контентом, созданным искусственным интеллектом, может исказить наше коллективное понимание социально-политической реальности. Сейчас мы не уверены в том, какое влияние дипфейки оказывают на поведение избирателей в краткосрочной перспективе, но они однозначно представляют долгосрочные риски для демократий.
КОМПАНИЮ ИЗ ТЕХАСА ОШТРАФОВАЛИ НА $1 МЛН ЗА РАСПРОСТРАНЕНИЕ ДИПФЕЙКОВ С БАЙДЕНОМ
Искусственный интеллект вовсю используется, в частности, в предвыборной гонке в США. На одном из сгенерированных изображений Дональд Трамп обнимает эксперта-инфекциониста Энтони Фаучи, а закадровый голос, похожий на голос Джо Байдена, призывает избирателей Нью-Гемпшира не голосовать на праймериз в этом году. При звонке у избирателей высвечивался номер руководительницы местной ячейки демократов. В результате Федеральная комиссия по связи США оштрафовала провайдера связи Lingo Telecom на миллион долларов. И здесь важен такой момент, как время, которое нарушители выбирают для распространения дипфейков. От этого тоже зависит немало, – считает эксперт медиа индустрии Элейн Камарк.
Элейн Камарк, эксперт Брукингского института:
– Дипфейки и дезинформация теперь появляются даже в последние 24 часа перед голосованием. С ними очень сложно бороться. На тех выборах, где гонка очень жёсткая, они способны повлиять на её исход.
ДОНАЛЬД ТРАМП ВЫЛОЖИЛ ФЕЙКОВЫЕ ФОТО ФАНАТОВ ТЕЙЛОР СВИФТ В СВОЮ ПОДДЕРЖКУ
Похожая ситуация недавно случилась и с Дональдом Трампом. Республиканец опубликовал сообщение, в котором поблагодарил за якобы поддержку его кандидатуры со стороны популярной певицы Тейлор Свифт, чего на самом деле последняя никак не высказывала. На своей странице в соцсети он поделился изображениями фанатов певицы с символикой в свою поддержку, а также мемы с ней, где она призывает проголосовать за политика. Любопытно, но на выборах в 2020-м певица официально поддержала Байдена, но в этом году пока не комментировала президентскую гонку. Так или иначе, а дипфейки пользуются как спросом, так и некой лояльностью аудитории, и, как отмечает гендиректор компании по выявлению дипфейков Риджул Гупта, их популярность не случайна. Она обусловлена низкой стоимостью и лёгкостью производства.
Риджул Гупта, генеральный директор Deepmedia:
– На создание дипфейка уходит около 15 минут. В интернете есть множество бесплатных сервисов. Если вы хотите купить что-то получше, то 30-секундный аудиоклип обойдётся вам всего в 2 цента.
ТЕХНОЛОГИЧЕСКИЕ КОМПАНИИ США СТАРАЮТСЯ РЕГУЛИРОВАТЬ ИСПОЛЬЗОВАНИЕ ИИ В ПОЛИТИКЕ
Основная проблема – отсутствие в тех же США каких-либо федеральных законов, регулирующих эту область применения новых технологий. Контролировать все эти ложные выбросы сложно и, по сути, некому. Однако крупнейшие американские технологические компании и социальные сети пообещали добровольно мониторить использование искусственного интеллекта в политических компаниях. Риджул Гупта говорит, что пользователям также надо быть начеку. Он рассказал о том, как узнать, что перед вами дипфейк.
Риджул Гупта, генеральный директор Deepmedia:
– Обращайте внимание на качество звука. Если аудио плохое, оно может быть продуктом искусственного интеллекта. Смотрите на косвенные признаки подделки. Этот совет может показаться тривиальным, однако он может помочь отфильтровать такой контент. Если у вас идет видеосозвон с кем-то, и у вас есть подозрение, что это «обманка», попросите его повернуться в кресле на 360 градусов. Если ваш собеседник не сможет этого сделать, перед вами, возможно, дипфейк.
В любом случае нынешние выборы в США уже запомнятся не только громкими заявлениями ее главных фигурантов, но и неоднократными фактами применения сторонами поддельных видео, аудио и фото контента. И, возможно, мы наблюдаем лишь начало эры грязных технологий в предвыборных кампаниях.