Фальшивая реклама и шантаж: мошенники обманывают казахстанцев с помощью нейросети

Мошенники обманывают казахстанцев с помощью нейросети, передаёт «24KZ». Инструменты искусственного интеллекта могут копировать лицо, голос и даже мимику человека. Дипфейки появляются в сети как с лицами медийных людей, так и с простыми казахстанцами. В одних случаях – как фальшивая реклама, в других – как способ шантажа.

На этом видео телеведущая «24KZ» Динара Саду рекламируют якобы финансовый проект одного их казахстанских блогеров. Конечно, ни о каком «легком заработке» наша коллега не информировала. Однозначно это фейк. Мошенники сгенерировали ее голос с помощью нейросети. По словам ведущей, подобной «рекламы» от ее лица достаточно.

Динара Саду, ведущая телеканала «24KZ»:

Настораживает то, что люди верят, пересылают это моим близким и спрашивают, что там Динара с Секой придумали.

Дипфейки сейчас буквально заполонили интернет-пространство. С помощью нейросети мошенники копируют лицо, голос и даже мимику человека. Технологию используют не только ради фальшивой рекламы. По словам эксперта в сфере кибербезопаности Медета Турина, мошенники создают поддельные видео сексуального характера.

Медет Турин, эксперт в сфере кибербезопасности:

В последние три месяца ко мне много девушек начали обращаться. Их размещают на сайтах услуг для взрослых и требуют с них выкуп. Берется очень много видео, фото одного человека, и берётся другое видео сексуального характера и с помощью нейросети генерируется контент. Получается, совместили два контента: взяли лицо и склеили с этим видео. Затем скидывают уже на WhatsApp жертве и говорят о том, что это видео попадет во все социальные сети.

Распознать дипфейки простым обывателем визуально можно. Один из простых признаков – несоответствие темпа речи с аудиодорожкой. Также неплавные движения человека на видео. Но, по словам специалиста Stopfake.kz  Татьяна Карамышевой, технологии с каждым годом совершенствуются.

Татьяна Карамышева, специалист портала Stopfake.kz:

– Технологии совершенствуются, и если сейчас на видео дипфейк можно найти, то уже через полгода таких заметных отклонений не будет. 

Сейчас требуется всё меньше ресурсов на создание все более качественных дипфейков. Не исключено, что через несколько лет такие подделки не распознает и опытный айтишник. Поэтому казахстанцам советуют соблюдать цифровую гигиену и не быть излишне доверчивыми.