Краткое руководство по 4 тенденциям мошенничества с использованием ИИ, которых следует избегать в 2024 году

Опубликовано: 2024-07-16

Эра искусственного интеллекта привела к множеству изменений в онлайн-мире. От контента, созданного искусственным интеллектом на каждой платформе социальных сетей, до чат-ботов с искусственным интеллектом в каждом компоненте бизнес-программного обеспечения — технология развивается с головокружительной скоростью.

Однако такая эволюция сопряжена с некоторыми серьезными рисками. Фактически, мошенники быстро освоили эту технологию в своих гнусных деяниях, что привело к появлению совершенно нового аспекта интернет-мошенничества, за которым нужно следить.

В этом руководстве вы узнаете о некоторых новейших мошеннических схемах, основанных на искусственном интеллекте, а также получите несколько советов о том, как избежать их в будущем.

Мошенничества с использованием искусственного интеллекта в 2024 году

В 2024 году число случаев мошенничества заметно возросло, а это означает, что понимание того, какие угрозы существуют, будет иметь жизненно важное значение для защиты себя в Интернете. Вот некоторые из мошенничеств с использованием ИИ, которых вам следует остерегаться в современную эпоху:

  • Дипфейки
  • Клонирование голоса
  • Фишинговое мошенничество
  • Листинг мошенничества

Логотип Surfshark 🔎 Хотите просматривать веб-страницы конфиденциально? 🌎 Или создаётся впечатление, будто ты в другой стране?
Получите огромную скидку 86 % на Surfshark с этим специальным предложением от tech.co. Посмотреть кнопку сделки

Дипфейковое мошенничество

Технология Deepfake существует уже давно. Он описывает видеоконтент, показывающий фальсифицированное изображение другого человека. Эти цифровые манипуляции использовались для самых разных целей: от мошенничества до дезинформации , но до недавнего времени большинство из них было довольно легко обнаружить.

К сожалению, в эпоху искусственного интеллекта это совсем не так. Технология дипфейков была радикально усовершенствована в результате ее развития, что привело к пугающе точному изображению людей в Интернете.

Хуже того, эти изображения используются для самых разных гнусных целей. От двойников знаменитостей, продающих поддельную продукцию, до личных друзей, просящих денег, мошенники используют технологию дипфейков не иначе как весьма экспансивно.

Примеры мошенничества с дипфейками

Одна из самых известных фейковых афер, от которых пострадали люди в этом году, касалась, возможно, самой большой звезды в мире на данный момент: Тейлор Свифт. Поп-звезда была замечена в Интернете, когда раздавала 3000 кухонных принадлежностей Le Creuset в видео, опубликованном в социальных сетях. Проблема? На самом деле это была не Тейлор Свифт, и не было никакой кухонной утвари Le Creuset, о которой можно было бы говорить.

Вместо этого видео представляло собой дипфейк с участием Тейлор Свифт , предназначенный для кражи личных данных и финансовой информации путем требования небольшой платы за доставку. Конечно, кухонная утварь никогда не появится, и ваши личные данные будут навсегда скомпрометированы.

Мошенничество с клонированием голоса

Как и дипфейковые видео, клонирование голоса — популярный и крайне тревожный способ выманить у людей деньги. Практика включает в себя воспроизведение голоса кого-то, кого вы знаете, обычно любимого человека, чей голос вы сразу узнаете. Затем они могут воспользоваться вашим очевидным доверием, попросив денег, личную информацию или почти все, что вы бы дали этому другу или члену семьи.

Самый большой риск этого мошенничества заключается в том, насколько точным ИИ осуществил процесс репликации голоса. Люди, ставшие жертвами мошенничества с клонированием голоса, впоследствии отмечали, что они «ни на секунду не сомневались», что разговаривают по телефону со своим близким человеком. А учитывая, что некоторые опросы показали, что очень немногие могут распознать разницу в мошенничестве с клонированием голоса , такого рода вещи всегда должны быть на вашем радаре.

Пример мошенничества с клонированием голоса

Очевидно, что мошенничество со звуками знаменитостей не будет таким же эффективным, как дипфейковые видео, но мошенничество с клонированием голоса обычно идет по другому пути.

Наиболее распространенным является семейный экстренный вариант, когда член семьи, обычно сын или дочь, звонит кому-то и сообщает, что у него проблемы. Либо автокатастрофа, либо арест, либо другой кризис, который потребует какого-то финансового решения. После того, как вы заплатите за устранение несуществующей чрезвычайной ситуации, у вас не будет ресурсов для ее возврата.

Фишинговое мошенничество

Фишинговые атаки уже давно стали распространенной проблемой в Интернете. Хакеры и мошенники, пытающиеся заставить вас предоставить личную информацию или финансовые данные с помощью поддельных электронных писем, выдавая себя за уважаемые компании, на данный момент являются старой, как мир, практикой.

Однако теперь ИИ значительно облегчает выполнение работы. В большинстве случаев эти фишинговые электронные письма и текстовые сообщения изобилуют орфографическими ошибками и другими ключевыми признаками. Однако эти фишинговые мошенничества становится все труднее обнаружить, поскольку ИИ предоставляет немного больше возможностей для создания более законного контента.

Хуже того, платформы генеративного искусственного интеллекта упрощают создание все большего количества фишинговых писем. Конечно, у многих из этих чат-ботов есть средства защиты, предотвращающие подобные вещи, но мы обнаружили, что несколько простых команд создают лазейку, которая позволяет легко и эффективно генерировать фишинговый контент .

Пример фишинга

Одним из наиболее распространенных фишинговых мошенничеств, распространенных сейчас, является текстовое сообщение, в котором говорится, что ваша посылка от UPS задерживается, и вам необходимо подтвердить свои данные, чтобы получить доступ. Когда вы нажимаете на предоставленную ссылку, вы попадаете на поразительно реалистичный веб-сайт UPS, на котором вам нужно заполнить форму, чтобы получить доступ к вашей посылке. Конечно, ваша посылка не потеряна, но ваши финансовые данные и личная информация потеряны.

ИИ не изменил коренным образом фишинговые мошенничества, но сделал их более распространенными и трудными для обнаружения. Генераторы контента делают его более точным и простым в создании, поэтому, если вы увидите значительный рост в ближайшие годы, будьте осторожны с вводом информации.

Листинг мошенничества

Как и некоторые другие виды мошенничества, которые мы здесь рассмотрели, в мошенничестве с листингами нет ничего нового, но ИИ дал мошенникам возможность производить их с такой скоростью и в таких масштабах, которых мы никогда раньше не видели. Как и большинство мошенничеств, это игра чисел, и достаточно одного человека, чтобы отреагировать, чтобы это окупилось.

Мошенничество с листингами охватывает все, что продается, от электронных товаров до автомобилей и домов. Создавать фальшивые списки теперь стало проще благодаря тому, насколько убедительными могут быть текстовые сводки ИИ. Некоторые мошенники даже заходят так далеко, что создают искусственные изображения рассматриваемых продуктов, создавая «уникальное изображение», то есть оно не будет отображаться в поиске изображений Google как украденное откуда-либо (ранее это был довольно хороший способ идентифицировать обман). Как только мошенник получит ваши деньги, вы никогда не увидите товар и даже можете открыть себя для дальнейшего мошенничества со стороны «продавца».

Не только товары могут стать объектом мошенничества. В прошлом году наблюдался огромный рост числа мошенничеств со списками вакансий, причем в их растущей распространенности винят ИИ. Эти мошенники обещают работу, которая слишком хороша, чтобы быть правдой, прежде чем требовать отправки денег для закрепления должности или в целях обучения. ИИ помогает создавать реалистичные веб-сайты компаний, фотографии сотрудников и даже может использоваться для фальшивых интервью. Прочтите наше руководство, как избежать мошенничества с WFH .

Примеры мошенничества с листингом

Одним из наиболее распространенных мошенничеств с листингом AI является продажа или аренда недвижимости. Мошенники создают реалистичные объявления о недвижимости, обычно в желаемых районах, по конкурентоспособным ценам. Затем они попросят внести предоплату, например, залог или арендную плату за несколько месяцев. Это прибыльное мошенничество, поскольку часто они разговаривают с несколькими жертвами одновременно.

Что особенно гнусно в этом мошенничестве, так это то, что ИИ позволяет мошеннику генерировать достаточно реалистичные документы на недвижимость, которые могут убедить жертву в законности сделки. Они также могут запросить личную информацию и деньги, в результате чего ваши данные будут скомпрометированы.

Как избежать мошенничества с использованием ИИ

Вы уже сделали первый шаг к тому, чтобы избежать мошенничества с использованием ИИ , и поняли, какие виды мошенничества существуют на самом деле. Правильно, просто открыв и прочитав эту статью, вы уже на пути к более безопасному существованию в Интернете. Вот еще несколько советов, как избежать мошенничества с использованием ИИ:

  • Всегда подтверждайте – будь то дипфейк или мошенничество с клонированием голоса, найдите способ подтвердить источник информации. Простой поиск в Google или звонок близкому человеку могут избавить вас от многих ссор.
  • Будьте осторожны с тем, что вы публикуете . Многие мошенники используют данные из социальных сетей, чтобы атаковать уязвимых людей или обучать модели вашему голосу.
  • Сообщите о мошенничестве . Возможно, это не поможет вам избежать этого, но, сообщив о мошенничестве в соответствующие органы, вы можете быть уверены, что будущие попытки потерпят неудачу, независимо от того, сколько ИИ они используют.

Кроме того, важно проявлять немного скептицизма, когда речь идет о предоставлении финансовой информации или личных данных онлайн или по телефону. ИИ делает эти мошенничества намного более убедительными, поэтому немного здорового скептицизма при подходе к этим транзакциям может во многом обеспечить вашу безопасность.