Posted 29 февраля, 08:30

Published 29 февраля, 08:30

Modified 29 февраля, 08:32

Updated 29 февраля, 08:32

Эксперты по ИИ назвали новые способы мошенничества с помощью нейросетей

Как защититься от мошенников, которые используют нейросети и искусственный интеллект?

29 февраля 2024, 08:30
Фото: Изображение Midjourney.

Эксперты по ИИ назвали новые способы мошенничества с помощью нейросетей

В последнее время в связи с популярностью нейросетей злоумышленники начали использовать их для создания поддельных изображений, видео и аудиофайлов. Так мошенники обманывают граждан и вымогают у них деньги. Эксперты по искусственному интеллекту рассказали TagilCity.ru о том, как защититься.

Нейросеть — это то, что изначально создавалось именно для созидания. Сама идея заключалась в разработке проекта, который наиболее близко смоделирует процессы работы человеческой нервной системы. На просторах интернета уже есть удачные нейросети, которые умеют обучаться и совершают те или иные действия, основываясь на уже пройденном своем или совершенно чужом опыте.

Самые распространенные способы мошенничества с использованием ИИ

После запуска первой нейросети стало понятно, что возможности по эксплуатации искусственного интеллекта просто уникальны. Создать картину за пару мгновений — пожалуйста, написать песню по ключевым словам — получите, распишитесь. Но сколько людей, столько и мнений. Конечно же, нашлись люди, которые усмотрели свою личную выгоду и придумали, как уникальные свойства нейросетей можно использовать для получения дохода нелегальным способом. Мошенники вышли на новый уровень.

Фейковые фотографии и документы

Один из новых способов мошенничества с помощью нейросетей — это создание поддельных фотографий. Мошенники используют нейронные сети для создания фото, которые в итоге выглядят как настоящие. Например, они могут сделать фотографию человека, который никогда не существовал, или изменить лицо на фотографии так, чтобы оно выглядело как лицо совершенно другого человека.

Еще один вид мошенничества с помощью нейросетей — это подделка документов. Целью подделки почти всегда является отмывание и кража денежных средств жертвы. Это не новая тенденция. Мошенники и ранее подделывали документы, используя другие инструменты. Например, Photoshop давал неплохие результаты. Но это долгая и кропотливая работа, требующая определенных навыков, — отмечает Андрей Наташкин, основатель СЕО Mirey Robotics, эксперт по искусственному интеллекту.

Число уголовных дел, где фигурирует подделка документов с использованием ИИ, растет. По некоторым данным, в 2023 году количество таких преступлений в стране превысило 1,5 тысячи. Дальше — больше. Разработанная недавно нейросеть, название которой лучше не упоминать и дальше станет понятно, почему, поражает своей скоростью, а также высоким качеством выполняемых работ. Технология предлагает незаконно изготовить паспорта 26 стран, включая Россию. Готовый файл крайне похож на реальную картинку. Стоимость одного запроса — порядка 15 долларов. В мошенническом мире это крайне небольшие деньги. И услуги дизайнера, работающего в графических программах, стоят дороже.

Мошенники могут использовать возможности такого сервиса для регистрации на различных сайтах, где необходима проверка личности. Некоторые сайты, в том числе банковские, могут запрашивать как минимум скан или фото документа. Правительства стран достаточно жестко регулируют эту сферу. Например, в ОАЭ за подделку документов может грозить тюремное заключение или штраф в размере от 150 тысяч до 750 тысяч дирхамов. В Китае могут лишить свободы на срок до 3-х лет, при отягчающих обстоятельствах — до 7 лет. В России предусмотрено наложение штрафов, а также ограничение свободы.

Поддельные видео и аудиофайлы

Еще один способ мошенничества с помощью нейросетей — это создание поддельных видео. Например, они могут создать видео, на котором человек говорит что-то, что он никогда не говорил, или изменить лицо на видео, как и в случае с фото, чтобы оно выглядело как лицо другого человека.

Один из примеров использования нейросетей для создания фейковых видео — это порнографические ролики с участием известных людей. Мошенники используют лица знаменитостей после чего шантажируют их, угрожая опубликовать эти видео, если они не заплатят.

Еще пример использования нейросетей это создание видео, которые выглядят как новостные репортажи. Мошенники используют лица известных журналистов или политиков, чтобы распространять дезинформацию или манипулировать общественным мнением.

Как, например, на прямой линии с президентом Владимиром Путиным. Во время пресс-конференции в 2023 году, во время одного из звонков на экране появился «Владимир Путин» и задал свой вопрос реальному Владимиру Путину, уточнив, есть ли у президента двойники и как он относится к развитию искусственного интеллекта? На видео нет ничего противозаконного, но это наглядный пример того, на что способны нейросети.

Нейросети привлекают мошенников своей способностью создавать крайне реалистичные поддельные материалы, которые могут обмануть даже опытного человека. Благодаря возможностям глубокого обучения нейросети могут быстро и эффективно адаптироваться к новым данным и создавать высококачественные фальсификации, — рассказывает TagilCity.ru Максим Грязев, эксперт сервиса аналитики и оценки цифровых угроз.

Также мошенники могут использовать нейронные сети для создания аудиофайлов, которые звучат как настоящие, но на самом деле являются подделками. Например, они могут создать аудиофайл, на котором человек говорит что-то, что он никогда не говорил, или изменить голос на аудиофайле, чтобы он звучал как голос другого человека.

Как защитить себя от мошенников использующих ИИ 

Нейросети — это мощный инструмент, который может быть использован как для благих, так и для опасных для общества целей. Чтобы не стать жертвой мошенников, использующих нейросети, следуйте этим советам:

  1. Будьте осторожны с электронной почтой: мошенники могут использовать нейросети для создания очень реалистичных писем, которые выглядят как настоящие. Не открывайте подозрительные письма и не нажимайте на ссылки в них.
  2. Проверяйте источники информации: если вы видите информацию, которая кажется слишком хорошей, чтобы быть правдой, проверьте ее в надежных источниках.
  3. Будьте осторожны с социальными сетями: мошенники могут использовать нейросети для создания поддельных профилей и общения с вами. Не доверяйте незнакомым людям и не делитесь личной информацией.
  4. Используйте надежные пароли: создавайте сложные пароли для своих аккаунтов и не используйте один и тот же пароль для разных сайтов.
  5. Будьте осторожны с онлайн-покупками: проверяйте репутацию продавца и не отправляйте деньги на незнакомые счета.
  6. Обучайтесь: узнайте больше о том, как работают нейросети и как мошенники могут использовать их для своих целей.
  7. Сообщайте о мошенничестве: если вы стали жертвой мошенничества, сообщите об этом в полицию или в службу поддержки сайта, на котором произошло мошенничество.

Следуя этим советам, вы можете защитить себя от мошенников, использующих нейросети.

Подпишитесь