Мошенники научились подделывать голоса людей: теперь вам может позвонить фальшивый сын или дочь и попросить денег
Выдавать себя за кого-то, чтобы украсть деньги, не является чем-то новым. По данным Федеральной торговой комиссии, эти схемы, известные как мошенничество с самозванцами, — наиболее распространенный тип мошенничества в США. Как показало исследование, люди потеряли $2,6 млрд из-за мошеннических действий в 2022 году, что больше, чем $2,4 млрд годом ранее. Но с приходом новых технологий этот вид мошенничества эволюционировал. Что происходит сегодня, рассказало издание Business Insider.
Новые технологии делают мошенничество еще более пагубным. В марте Федеральная торговая комиссия заявила, что мошенники начинают использовать искусственный интеллект для усиления «семейно-экстренных» схем, в которых мошенники убеждают людей в том, что член их семьи находится в бедственном положении, чтобы получить наличные деньги или личную информацию.
В ходе апрельского опроса взрослых, проведенного в семи странах глобальной компанией McAfee, занимающейся разработкой программного обеспечения для предоставления безопасности, четверть респондентов сообщили о том, что столкнулись с каким-либо мошенничеством с использованием голосового ИИ.
Всего за небольшую плату и несколько минут при помощи подключения к интернету злоумышленники могут использовать ИИ в качестве оружия для своей личной выгоды. Отчет McAfee показал, что в некоторых случаях все, что нужно мошеннику, — это три секунды аудио, чтобы клонировать голос человека. А в социальных сетях легко найти фрагмент чьего-то голоса, который затем можно использовать в качестве оружия.
Эдди Камбербэтч сидел в своей квартире в Чикаго в апреле, когда ему позвонил отец. Как только он услышал его голос, 19-летний тиктокeр, понял, что что-то не так. Папа спросил, дома ли Эдди и все ли в порядке.
По теме: Мошенники крадут деньги и личные данные претворяясь работодателями: как распознать обман
«Это очень странный способ начать разговор», —заметил сын.
Когда Эдди сказал, что дома и в безопасности, его отец спросил, не попал ли он в автомобильную аварию. Эдди был сбит с толку — он не только не попал в аварию, но и не садился за руль шесть месяцев. Отец почувствовал облегчение, а Эдди не мог понять, почему отец решил, что он попал в автомобильную аварию?
Отец объяснил, что кто-то позвонил на его домашний телефон с иностранного номера. Когда трубку взял дедушка, это звучало так, будто внук разговаривает по телефону. Этот «Эдди» сказал, что попал в автомобильную аварию и ему срочно нужны деньги. К счастью для семьи, отец Эдди сразу заподозрил что-то неладное.
Он позвонил сыну, чтобы проверить историю, поскольку знал, что просить денег не в его характере, к тому же у Эдди даже не было машины. Звонок подтвердил, что речь идет не о сыне.
Хотя Эдди и его семья смогли избежать мошенничества, многим жертвам этих аферистов с искусственным интеллектом повезло меньше. И, по мере того, как технология ИИ становится мейнстримом, такое жульничество будет становиться все более изощренными.
Продвинутое мошенничество
Мошенничество с самозванцами бывает разных форм, но обычно работает одинаково: жулик притворяется кем-то, кому вы доверяете, чтобы убедить вас отправить ему деньги. Согласно FTC, есть случаи, когда мошенники-самозванцы выдавали себя за партнеров, сотрудников Налоговой службы США (IRS), опекунов, компьютерных техников и членов семьи.
Большинство мошеннических действий происходит по телефону, но они могут случаться и в социальных сетях (через текстовые сообщения или по электронной почте). Например, Ричарду Мендельштейну, инженеру-программисту Google, позвонила его дочь Стелла и попросила о помощи. Он снял $4000 наличными в качестве выкупа. И только после того как отправил деньги, он понял, что его обманули, и дочь все это время была в безопасности в школе.
Предыдущие итерации мошенничества с виртуальным похищением людей, жертвой которого стала семья Мендельштейна, использовали общие голосовые постановки, которые смутно соответствовали возрасту и полу ребенка. Мошенники рассчитывали на то, что родители запаникуют при звуке испуганного ребенка, даже если голос на самом деле не соответствует голосу их ребенка. Но с ИИ голос на другом конце телефона теперь может звучать как настоящий. В марте газета Washington Post сообщила, что канадскую пару обманули на $21 000 после того, как она услышала сгенерированный искусственным интеллектом голос, похожий на голос их сына. В другом случае мошенники подделали голос 15-летней девочки и выдавали себя за похитителей, чтобы получить выкуп в размере $1 млн.
Как онлайн-создатель с более чем 100 000 подписчиков в TikTok, Эдди знал, что неизбежно появятся поддельные аккаунты, имитирующие его. За день до мошеннического звонка в Instagram появился поддельный аккаунт Эдди, и он начал отправлять сообщения его семье и друзьям. Но ИИ выводит схемы на новый уровень.
«Загружать посты в Instagram — это одно, — сказал Эдди. — Но пытаться клонировать мой голос действительно странно, и это меня пугает».
Тиктокер позвонил остальным членам своей семьи, чтобы предупредить их о мошенничестве, и снял видео в TikTok о своем опыте, чтобы повысить осведомленность.
Большинство из нас, вероятно, думают, что узнают голос любимого человека в мгновение ока. Но McAfee обнаружила, что около 70% опрошенных взрослых не уверены в том, как отличить клонированный голос от настоящего. Исследование 2019 года показало, что мозг не регистрирует существенной разницы между реальными и компьютерными голосами. Субъекты исследования неправильно идентифицировали трансформированные (измененные программным обеспечением) записи как настоящие в 58% случаев оставляя мошенникам достаточно возможностей для использования. Кроме того, все больше людей предоставляют аферистам свой настоящий голос: McAfee сообщила, что 53% взрослых еженедельно делились своими голосовыми данными в интернете.
Будь то похищение, ограбление, автомобильная авария или просто застревание где-то без денег, чтобы добраться домой, 45% респондентов опроса McAfee заявили, что они ответят на голосовую почту или голосовую заметку, которая звучит как их друг или любимый человек, особенно если сообщение исходит от их партнера, родителя или ребенка. McAfee обнаружил, что более трети жертв потеряли свыше $1000 в результате мошенничества с искусственным интеллектом, а 7% — более $5000. FTC сообщила, что жертвы мошенничества с самозванцами потеряли в среднем $748 в первом квартале 2023 года.
Поддельные голоса
Хотя технология искусственного интеллекта, которая делает эти аферы возможными, не нова, она совершенствуется, становится дешевле и доступнее.
«Главное в развитии ИИ — это сделать технологию доступной для большого количества людей. Но это, вместе с тем, увеличивает количество кибермошенников, — подчеркнул главный технический директор McAfee Стив Гробман. — Киберпреступники могут использовать генеративный ИИ для подделки голосов и дипфейков способами, которые раньше требовали гораздо большей сложности».
Он заметил, что киберпреступники похожи на бизнесменов — они ищут наиболее эффективные способы заработка.
«В прошлом эти мошенничества с самозванцами были очень прибыльными, потому что жертвы часто расплачивались довольно значительными суммами денег, — сказал Гробман. — Теперь нет надобности обманывать кого-то три месяца в романтической афере, чтобы получить $10 000, ведь можно сделать поддельную звуковую аферу, которая выполняется за 10 минут, и получить тот же результат. Это будет гораздо более прибыльным».
Предыдущие махинации с самозванцами по телефону полагались на актерские навыки мошенника или уровень доверчивости со стороны жертвы, но теперь ИИ выполняет большую часть работы. Популярные аудиоплатформы с искусственным интеллектом, такие как Murf, Resemble и ElevenLabs, позволяют пользователям создавать реалистичные голоса с помощью технологии преобразования текста в речь.
Большинство провайдеров предлагают бесплатные пробные версии, и эти инструменты не требуют компьютерной степени, чтобы разобраться, и это делает их привлекательными для мошенников. Жулик загружает аудиофайл с чьим-то голосом на один из этих сайтов, и сайт строит модель голоса ИИ. С помощью небольшого фрагмента аудио мошенники могут добиться совпадения голоса на 95%. Затем аферист может просто напечатать все что он хочет, и голос ИИ будет говорить то, что набрано, в режиме реального времени.
После совершения преступления голосовых мошенников трудно поймать. Жертвы часто имеют ограниченную информацию для полиции, а поскольку голосовые мошенники действуют со всего мира, перед правоохранительными органами возникает множество материально-технических и юрисдикционных проблем. При минимальной информации и ограниченных ресурсах полиции большинство дел остаются нераскрытыми. В Великобритании только один из 1000 случаев мошенничества заканчивается обвинением.
Тем не менее, Гробман считает, что если вы знаете о существовании мошенников, вам не нужно особенно беспокоиться. Если вы получите один из таких звонков, вам нужно одно — это возможность сделать шаг назад и задать несколько вопросов, на которые только предполагаемый человек на другом конце провода знает ответ. Или, как советует FTC, если родной человек говорит вам, что ему нужны деньги, отложите этот звонок и попытайтесь перезвонить ему сами, чтобы проверить историю — так же, как это сделал отец Эдди.
Даже если подозрительный звонок поступает с номера члена семьи, его тоже могут подделать. Другим контрольным признаком является то, что звонящий просит деньги через сомнительные каналы, которые трудно отследить, такие как криптовалюта или подарочные карты. Эксперты по безопасности рекомендуют установить для связи с близкими безопасное слово, которое можно использовать, чтобы отличить настоящую чрезвычайную ситуацию от мошенничества.
Риски ИИ
По мере того как ИИ становится повсеместным, такого рода мошенничества ставят под угрозу нашу способность доверять даже самым близким членам семьи. К счастью, правительство США пытается ограничить способы использования ИИ.
Судья Верховного суда Нил Горсуч в феврале подчеркнул ограниченность средств правовой защиты, которые защищают социальные сети от судебных исков, когда речь идет о контенте, созданном с помощью ИИ.
Вам может быть интересно: главные новости Нью-Йорка, истории наших иммигрантов и полезные советы о жизни в Большом Яблоке — читайте все это на ForumDaily New York
А вице-президент Камала Харрис в мае заявила генеральным директорам ведущих технологических компаний, что они несут «моральную» ответственность за защиту общества от опасностей ИИ. Точно так же FTC заявила компаниям в феврале: «Вы должны знать о разумно предсказуемых рисках и влиянии вашего продукта ИИ, прежде чем выводить его на рынок».
Элли Армесон, исполнительный директор программы Cybercrime Support Network (некоммерческая организация, оказывающая помощь предприятиям и людям в борьбе с киберпреступностью) согласилась с необходимостью определенного регулирования.
«Генеративный ИИ развивается очень быстро, — сказала она. — Как и любую технологию, генеративный ИИ можно использовать не по назначению или даже во вредных целях, поэтому, безусловно, потребуется регулирование, поскольку эти инструменты генеративного ИИ продолжают развиваться».
Но хотя в настоящее время внедряется ряд решений для кибербезопасности ИИ, Армесон считает, что на данный момент лучшее, что может сделать каждый, — это не упускать их из виду и продолжать обсуждение: «Пока все потребители не получат доступ к решениям безопасности, на нас как на отдельных лицах лежит ответственность за понимание нового масштаба киберугроз и защиту самих себя».
Читайте также на ForumDaily:
Визовое спонсорство: как получить американскую визу при помощи поручителя
Мошенники крадут деньги и личные данные притворяясь работодателями: как распознать обман
Как сварить идеальный кофе: 12 ошибок, которые могут испортить напиток
В какой день лучше ходить в магазин, чтобы хорошенько сэкономить
В отпуск на трейлере: как выбрать и арендовать дом на колесах в Америке
Подписывайтесь на ForumDaily в Google NewsХотите больше важных и интересных новостей о жизни в США и иммиграции в Америку? — Поддержите нас донатом! А еще подписывайтесь на нашу страницу в Facebook. Выбирайте опцию «Приоритет в показе» — и читайте нас первыми. Кроме того, не забудьте оформить подписку на наш канал в Telegram и в Instagram— там много интересного. И присоединяйтесь к тысячам читателей ForumDaily New York — там вас ждет масса интересной и позитивной информации о жизни в мегаполисе.