Новости, видеоролики, фотографии, аудиоматериалы с помощью нейросетей, подменяя голоса и лица, мошенники вовлекают граждан в финансовые махинации. Всё ради наживы, передает «24KZ».
Нацбанк поможет жертвам мошенничества вернуть свои деньги. Ролики с таким содержанием стали распространяться через рекламу в соцсетях и видеохостингах. При этом авторы используют лица и голоса представителей банка и госорганов. Национальный банк призывает не верить таким видео, не переходить по ссылкам. Лучше сразу звонить по номеру call-центра – 1477.
Гульфар Артыкбаева, ведущий специалист департамента безопасности НБ РК:
– Неестественная мимика, искажение – признаки подделки. Чтобы не быть обманутыми злоумышленниками, нужно проверять информацию только через официальные источники. Не переходите по сомнительным ссылкам, не доверяйте аккаунтам в мессенджерах и социальных сетях. Злоумышленники создают специальные аккаунты, используя фото представителей госорганизаций. Напоминаем, что Национальный банк не звонит гражданам, не предлагает инвестиций, не проводит денежные расчёты с населением.
Часто создатели дипфейков используют лица известных людей. Одной из них стала телеведущая нашего канала Гульнара Жандагулова. Технологии настолько продвинулись, что с первого взгляда трудно понять, реальный это человек или дипфейк.
Гульнара Жандагулова, телеведущая 24KZ:
– Недавно появилось одно видео, которое распространилось в телеграм-каналах, и, я так понимаю, наверное, это в российских телеграм-каналах. Его прислали в новостной паблик – наш казахстанский, читатели с тем, что «вот, представляете, казахстанская телеведущая призывает граждан Казахстана участвовать в СВО». Для меня это было шоком. До этого были ролики, где я якобы призываю участвовать в каких-то финансовых пирамидах, вкладывать куда-то денежные средства. А теперь технологии пошли дальше, точнее мошенники. Теперь вот под таким соусом продвигаются такие видео.
Создатели проекта FactCheck учат, как отличить правду от фейка: приводят источники, объясняют методологию, публикуют отчёты о проверке фактов. По словам экспертов, отличительная черта липового видео – сенсационные заголовки, а в содержании упор больше на чувства и эмоции, чем на разум.
Думан Смаков, главный редактор FactCheck.kz:
– Технологию дипфейка определить, к сожалению, обычные люди обычным глазом не могут. Нам часто приходится использовать ИИ против ИИ. Имеется ресурс, к примеру, Deepware – туда можно загрузить видео и понять, что это видео создано с помощью Deepfake-технологий. Нужно отличать фейки, в основном у них есть эмоциональный окрас, призывают людей к чему-то – вложить пять тенге и получить доходы в 5 млн. Но в реалиях, в жизни, такого не бывает.
Дипфейки используют в разных целях. В первую очередь для финансовых махинаций: привлечения в сомнительные операции, кражи данных, оформления кредитов. В политике и СМИ создаются фейковые новости для дезинформации, пропаганды, подрыва доверия, манипулирования общественным мнением. А ещё с помощью синтетического видео или аудио создаётся развлекательный контент – здесь можно привести в пример спецэффекты в киноиндустрии.
Авторы: Ботагоз Базарбаева, Галымжан Абдылахат
Теги #фейк #мошенничество #24KZ #News Talk #избранноеPhone: +7 (7172) 757 485
E-Mail: 24kz@khabar.kz