Posted 28 февраля, 20:30

Published 28 февраля, 20:30

Modified 28 февраля, 20:32

Updated 28 февраля, 20:32

Телефонные мошенники отличаются дьявольской изобретательностью.

Нейросети для телефонных мошенников

28 февраля 2024, 20:30
Фото: Изображение Midjourney
Телефонные мошенники отличаются дьявольской изобретательностью.
Искусственный интеллект, что бы ни говорили о его способности к саморазвитию и даже созданию личности, это пока всего лишь набор компьютерных программ, упрощающих жизнь или работу как для добропорядочных граждан, так и для преступников.

Начало 20-х годов этого века наверняка войдет в историю благодаря не столько чудовищно обострившейся геополитике и пандемии нового коронавируса, сколько массовому использованию нейросетей.

К 2024 году они прочно вошли в нашу жизнь, и сложно найти сферы, где их не пытаются применять. От изучения мертвых языков и поиска лекарств от неизлечимых болезней до использования в быту у миллионов людей — в умных девайсах. Но рано или поздно, как это всегда бывает с прорывными технологиями, нейросети должны были попасть в руки нехороших людей.

Телефонные разводки: от простого к сложному

Самый простой способ использования нейросетей мошенниками даже не требует их непосредственного использования. Многие читатели наверняка, отвечая на телефонный звонок, слышали в трубке: «Здравствуйте! Это голосовой помощник Сбербанка Афина. Ваша заявка на изменение номера подтверждена. Если вы не оставляли заявку — оставайтесь на линии». Все это произносится голосом робота, чтобы подтвердить достоверность сообщения.

Многие клиенты главного банка страны сталкивались с виртуальным ассистентом с искусственным интеллектом (ИИ) Афиной, он работает на умных устройствах и в мобильных приложениях компании. Для телефонных мошенников это удобная замена «папам», «мамам», «детям» и «начальникам», от имени которых обычно начинается развод. Потому что не требуется идентифицировать личность звонящего, практически сразу можно переходить к методам социальной инженерии и выкачиванию денег из доверчивых граждан.

Другой способ отъема сбережений с помощью телефона основан уже на использовании возможностей нейросети. Появился он благодаря популярному чат-боту ChatGPT и его ранним версиям. Фактически этот чат-бот — такой же виртуальный помощник, как «Алиса» или «Салют» из российских «умных колонок». Только те развлекают пользователя, находят для него информацию или совершают покупки, а ChatGPT способен написать по заданию определенный текст (статью, рекламное объявление, даже курсовую работу для студента или художественное произведение).

Этим и пользуются злоумышленники. Известно, что самый сложный момент разводки по телефону — убедить «лоха», что с ним разговаривает реальный родственник, сотрудник Центробанка, капитан полиции и т. д. У мошенников, как правило, есть первоначальная информация о жертве. Например, данные паспорта, номера банковских карт и телефона. Но каждый раз импровизировать сложно, и преступники просто закладывают эти данные в чат-бот и просят нейросеть написать сценарии разговора с жертвой на случай, если какие-то данные устарели и нужно по ходу беседы менять ее направление.

Дипфейки для «телефонного развода — 3.0»

Следующий уровень телефонного мошенничества — использование дипфейков. В России он еще не очень развит, но за рубежом уже активно применяется. А значит, что с каким-то временным лагом появится и у нас. Дипфейк — это подделанные голоса и фото- и видеоизображения людей.

Основные правила телефонной разводки — те же: вовлечение жертвы в тему разговора, убеждение ее в реальности проблемы, создание доверительных отношений со звонящим, ну, а далее — техническая часть отъема денег или имущества. Только здесь для убеждения жертвы подделываются голос и интонация, особенности речи звонящего, который должен быть ей хорошо известен.

Следующий уровень использования нейросети — видеокартинка. По сути, с помощью ИИ создается видеоролик-послание, который отправляется жертве. Правда, уровень создания таких дипфейков еще не очень высокий — уголки губ и мимика говорящего «родственника», «начальника» или «делового партнера» выдают подделку. Поэтому мошенники делают эти записи низкокачественными, с большой пикселизацией картинки. Но понятно, что достижение высокого уровня правдоподобности таких изображений — вопрос самого близкого будущего.

«Жертвами» дипфейков уже стали немало известных людей во всем мире, например, Дональд Трамп, Илон Маск и Олег Тиньков (внесен Минюстом РФ в реестр иноагентов). Например, бывший президент США на днях пожаловался на то, что конкуренты используют технологию дипфейка, чтобы в пабликах появлялись фото, на которых Трамп выглядит неестественно полным и нездоровым. Что перед президентскими выборами в США, как вы понимаете, можно расценивать как черный пиар. Фейковые видео с Илоном Маском и другими знаменитостями были использованы для рекламы криптовалютной платформы. Кстати, из других американских знаменитостей жертвами дипфейкеров стали конгрессмен Нэнси Пелоси, изображенная пьяной, и экс-президент Барак Обама, который в одном из роликов назвал Дональда Трампа «засранцем».

"