Дипфейк: как мошенники подделывают голоса и внешность с помощью ИИ
Благодаря, так называемому, генеративному искусственному интеллекту, который помогает в точности копировать голос и накладывать лицо в видеороликах, этот эффект ещё называют дипфейк.
Мошенников теперь не остановить. Это абсолютно идентичная имитация реального голоса или внешности человека, которую создала нейросеть. Если предоставить искусственному интеллекту образец голоса, он сможет озвучить им любую фразу. Дипфейк практически неотличим от настоящего, считают эксперты. Особенно с учётом искажений, которые бывают, например, при телефонном разговоре.
Рич Франкель, экс-агент Федерального бюро расследований:
- Если вы оказались в такой ситуации, в первую очередь свяжитесь с человеком, чей голос услышали в трубке. Только так вы поймёте факт мошенничества. Далее, следует позвонить в полицию.
ИИ может свести «на нет» лучшие на сегодняшний день меры по предотвращению мошенничества. В их числе голосовая аутентификация или «живые проверки», когда изображение человека в реальном времени должно совпадать с тем, что хранится в системе.
Рик Сонг, генеральный директор антимошеннической фирмы:
- Мы заметили весьма значительный скачок в использовании высококачественных дипфейков для живых проверок. Скачок разный для разных индустрий, но в некоторых мы увидели десятикратный рост по сравнению с прошлым годом.