
Чтобы узнать, как защитить себя от мошенничества с ложной информацией, вам необходимо сначала понять, что такое дипфейки. Дипфейки — это изображения или видео, созданные искусственным интеллектом для создания максимально реалистичного контента.
Как создаются дипфейки?
Глубокое обучение — это передовой метод искусственного интеллекта (ИИ), который использует несколько уровней алгоритмов машинного обучения для извлечения все более высокоуровневых признаков из необработанных входных данных. При этом ИИ способен обучаться на неструктурированных данных – таких как изображения лиц.
Эти данные обрабатываются для создания Deepfake-видео с помощью GAN (Generative Adversarial Network) — специализированной системы машинного обучения. В ней задействовано две нейросети, которые состязаются друг с другом, изучая характеристики учебных наборов данных (например, фотографий лиц) и создавая новые данные на базе этих характеристик (то есть новые «фотографии»).
По мере того, как сеть проверяет созданные изображения на основе обучающего набора, поддельные изображения, видео и аудио становятся более убедительными. Это делает Deepfake еще более серьезной угрозой, поскольку они могут использовать методы синтеза для копирования голосов.
Другой метод создания дипфейков — использование архитектуры автокодировщика. Нейронная сеть автокодировщика предназначена для кодирования данных (например, изображения) в скрытое представление меньшей размерности (т. е. в математические векторы вместо пикселей), сжатия данных и последующей реконструкции тех же данных на другом конце конвейера. Автокодировщики используются для многих целей в компьютерном зрении, таких как анализ почерка и распознавание лиц.
Поскольку автокодировщики ищут «важные» данные на изображении (например, изображение лица), они очень хорошо устраняют визуальный шум. В случае программного обеспечения для глубокой подделки это означает, что архитектура автокодировщика может изучать основные черты и особенности изображения лица, в то же время в значительной степени игнорируя посторонние факторы, такие как зернистость, тени и другие элементы, не относящиеся к лицу, которые могут присутствовать на изображении, что приводит к созданию универсальных и хорошо обобщенных моделей (т. е. моделей, которые могут выполнять полезные преобразования данных, отличающихся от исходных данных обучения).
Как используются дипфейки
Хотя концепция дипфейков также используется для создания визуальных эффектов в фильмах, онлайн-дипфейки имеют много назначений:
- Дезинформационные кампании, особенно во время выборов, направленные на влияние на мнение людей.
- Шантаж — это когда кто-то создает фальшивое видео или изображение с вашей стороны и угрожает опубликовать его, если вы не выполните их требования.
- Фишинг c выдачей себя за другого человека (друга, члена семьи или коллеги) режиме реального времени с просьбой о помощи.
- Финансовое мошенничество с использованием кражи личных данных с помощью DeepFake.
Опасности Deepfake
По мере развития технологий и искусственного интеллекта создание поддельных видеороликов и изображений в Интернете становится проще и убедительнее. Опасность стать жертвой дипфейков представляет серьезную угрозу для предприятий, знаменитостей, сотрудников, кандидатов на выборах и обычных людей.
Fraud
В 2023 году финансовый работник в Гонконге заплатил мошеннику 25 миллионов долларов из-за технологии deepfake. Работника пригласили на видеозвонок с коллегами и финансовым директором компании. Во время разговора сотрудник согласился перевести 200 миллионов гонконгских долларов.
Несмотря на то, что он видел на встрече других сотрудников и финансового директора, это был всего лишь искусственный интеллект, который манипулировал функциями распознавания лиц, чтобы выглядеть как коллеги и финансовый директор.
Шантаж и клевета
В 2020 году полиция Южной Кореи раскрыла группу мужчин, которые делали фотографии старшеклассниц, чтобы затем создавать и распространять их в приложении для обмена сообщениями Telegram. Мужчинам помогали старшеклассники, которые фотографировали своих одноклассников, некоторые из которых были несовершеннолетними, а затем отправляли фотографии создателям.
Эти видео распространялись на различных платформах , оставляя девушек беспомощными и неспособными что-либо сделать. Хотя они и не виновны, фальшивые доказательства влияют на то, как их воспринимает общество, и по-прежнему травмируют.В 2024 году 77-летняя жительница Великобритании Никки была обманута на 17 000 фунтов стерлингов с помощью поддельных видеороликов. Женщина познакомилась в интернете с другой женщиной, и у них завязались отношения — по крайней мере, она так думала. Мошенница утверждала, что они работают на нефтяной вышке и не могут совершать видеозвонки, а ее жертве необходимо оплатить ваучеры, чтобы получить доступ в Интернет. Когда у Никки возникли подозрения, преступник начал присылать ей видеоролики, на которых она «запечатлена на нефтяной вышке», тем самым развеяв подозрения Никки. По мере развития отношений Никки часто просила о видеозвонке, на что ей всегда отказывали, но вскоре после этого она получала сгенерированные искусственным интеллектом документы, изображения и видео, чтобы успокоить ее, а затем просила еще денег.
SAD
В 2024 году 77-летняя жительница Великобритании Никки была обманута на 17 000 фунтов стерлингов с помощью поддельных видео. Женщина познакомилась с другой женщиной в интернете, и у них завязались отношения — или так она думала. Мошенница утверждала, что они работают на нефтяной вышке и не могут совершать видеозвонки, а ее жертве нужно было заплатить за ваучеры, чтобы иметь доступ в Интернет. Когда Никки заподозрила неладное, преступник начал отправлять ей видео, на которых она «на нефтяной вышке», развеяв подозрения Никки. По мере того, как отношения продолжались, Никки часто запрашивала видеозвонок, который всегда отклонялся, но вскоре после этого получала сгенерированные ИИ документы, изображения и видео, чтобы успокоить ее, — а затем просила еще денег. Никки узнала о мошенничестве только тогда, когда она пыталась перевести деньги на банковский счет своего партнера.
Безвредные дипфейки
Некоторые онлайн-дипфейки могут быть созданы исключительно в развлекательных целях с целью привлечения большего количества подписчиков в социальных сетях.
Одним из самых популярных дипфейков стал фейк Тома Круза , опубликованный в TikTok. У аккаунта был миллион подписчиков, а некоторые видео набирали почти 50 миллионов просмотров, несмотря на то, что это был не Том Круз. Поначалу люди думали, что знаменитость присоединилась к платформе, поскольку видеоролики, внешность, голос и даже личность были настолько убедительны.
В 2022 году создатель YouTube-канала Shamook взял новый трейлер фильма «Человек-паук» и заменил актера Тома Холланда на оригинального актера Тоби Магуайра. Поскольку в названии видео указано «Deepfake», оно создано исключительно в развлекательных целях.
Как предотвратить дипфейк атаки
Поскольку дипфейки быстро становятся растущей проблемой и угрозой безопасности, существуют действия, которые вы можете предпринять, чтобы предотвратить их возникновение в отношении вас или вашего бизнеса.
Проверить все запросы
Если вас просят предоставить личную или конфиденциальную информацию, узнайте личность звонящего через дополнительный канал, например, перезвонив ему в ту компанию, из которой он представился.
Используйте настройки конфиденциальности для всех онлайн-аккаунтов
Ограничьте доступ к аккаунтам в социальных сетях, содержащим ваши видео или изображения, чтобы уменьшить возможности копирования вашего образа.
Защита паролей
Периодически меняйте ваши пароли. Убедитесь, что все пароли надежны , уникальны, сложны и содержат не менее 16 символов. В общих учетных записях используйте программное обеспечение для обмена паролями, чтобы вам не пришлось сообщать свой пароль членам семьи или сотрудникам.
Добавьте двухфакторную аутентификацию для учетных записей
Убедитесь, что все онлайн-аккаунты требуют подтверждения вашей личности перед доступом с помощью двухфакторной аутентификации. Это усложнит мошенникам задачу взлома ваших аккаунтов.
Обновляйте программное обеспечение
Обновления программного обеспечения имеют решающее значение для обеспечения защиты ваших устройств от новейших вредоносных программ , шпионского ПО и ошибок.
Обучение сотрудников
По мере развития технологий развиваются и методы мошенничества с использованием дипфейков. Крайне важно быть в курсе последних случаев мошенничества и объяснять сотрудникам, как их распознать.
Узнайте, как распознать поддельное видео
- Следите за чертами лица человека на видео, чтобы убедиться, что они соответствуют нормальным движениям человека.
- Видео дергается или имеет нестабильную четкость?
- Проверьте естественные движения, например, моргание. Слишком редко или слишком часто?
- Обратите внимание на тени и освещение на видео, чтобы убедиться, что они соответствуют друг другу.
- Сделайте снимок экрана и загрузите его в Google для подтверждения подлинности источника.
Что делать, если вы стали жертвой
Сохранять доказательства
Обязательно сохраните дипфейк и все, что с ним связано, включая комментарии, платформы, на которых он был опубликован (если применимо), скриншоты и любые данные, связанные с ним. Обратите внимание на дату, время и платформу, на которой это произошло.
Уведомить платформы
Если контент deepfake размещен на платформе, сообщите об этом на хост-платформу, на которой вы его увидели, например, YouTube, Facebook или X. На большинстве платформ действуют правила удаления сфальсифицированных медиафайлов .
Связаться с властями
Дипфейки, связанные с кражей личных данных или финансовых средств, являются преступлениями. Сообщите об этом в местные правоохранительные органы и предоставьте доказательства, чтобы власти могли составить официальный отчет. Этот отчет может быть использован для вашего банковского, страхового и других официальных отчетов о преступлении.
Подать иск в суд
Изучите законы о клевете, авторском праве или конфиденциальности в вашей юрисдикции, чтобы убедиться, что у вас есть убедительные доводы. Проверьте, не стали ли другие люди жертвами такого же мошенничества, и, если возможно, расследуйте коллективный иск.
Нанять PR-фирму
Если на карту поставлена ваша репутация или репутация вашего бизнеса, сотрудничество со специалистом по связям с общественностью может помочь вам подготовить ответ и распространить его среди необходимых сторон, чтобы смягчить любой ущерб.
Современная технология защиты от подделок
Несколько технологических компаний разрабатывают инструменты обнаружения дипфейков, чтобы помочь остановить распространение дезинформации, мошенничества и фишинговых атак SAD.
Некоторые развивающиеся технологии уже помогают создателям видеоконтента защищать его аутентичность. С помощью специального шифровального алгоритма в видеопоток с определенными интервалами встраиваются хеши; если видео будет изменено, хеши также изменятся. Создавать цифровые сигнатуры для видео также можно, используя ИИ и блокчейн. Это похоже на защиту документов водяными знаками; в случае с видео, правда, трудности заключаются в том, что хеши должны оставаться неизменными при сжатии видеопотока различными кодеками.
Еще один способ борьбы с дипфейками – использовать программу, вставляющую в видеоконтент специальные цифровые артефакты, маскирующие группы пикселей, по которым ориентируются программы для распознавания лиц. Этот прием замедляет работу дипфейк-алгоритмов, и в результате качество подделки будет более низким, что, в свою очередь, снизит вероятность успешного использования дипфейка.
Превентивная защита безопасности:
Проинформировать своих сотрудников и членов семьи о том, как устроены дипфейки и с какими потенциальными рисками это связано.
Узнать, как распознать дипфейк, и рассказать об этом остальным.
Повысить свою медиаграмотность и пользоваться достоверными источниками информации.
Имейте хорошие базовые протоколы. Критический подход к голосовой почте и видеозвонкам еще не гарантирует, что вас нипочем не обманут, но поможет избежать многих ловушек.
Регулярное резервное копирование защитит ваши данные от программ-шифровальщиков и поможет восстановить поврежденные файлы.
Используйте разные надежные пароли для разных учетных записей – если какая-то одна сеть или служба окажется взломана, это поможет избежать компрометации всех остальных. Например, если кто-то сумеет похитить вашу учетную запись Facebook, в этом случае он, по крайней мере, не получит автоматически доступ и ко всем остальным вашим аккаунтам.
Используйте надежный пакет безопасности, например, антивирус Kaspersky , чтобы защитить свою домашнюю сеть, ноутбук и смартфон от киберугроз. Этот пакет содержит антивирусное программное обеспечение, VPN для предотвращения взлома ваших Wi-Fi-соединений, а также защиту для ваших веб-камер.
Каково будущее Deepfake?
Дипфейки эволюционируют угрожающими темпами. Еще два года назад подделки легко было отличить по низкому качеству передачи движения; кроме того, люди в таких видео практически никогда не моргали. Обеспечение вашей безопасности в Интернете , а также сохранение бдительности и подозрительности в отношении любой сетевой активности, особенно когда речь идет о личной информации, помогает людям выявлять мошенничество до того, как оно произойдет.
Вопросы о киберсталкинге и ответы на них
Что такое интернет фишинг?
Атаки с использованием социальной инженерии и обмана (SAD) — это разновидность фишингового мошенничества, при котором обманывают и манипулируют людьми, выдавая себя за других людей. Целью таких мошенничеств является извлечение конфиденциальной информации и принуждение жертв к переводу денег или доступу к системам.
Стоит ли мне беспокоиться о мошенничестве с использованием подделок голоса?
Да. Теперь мошенники могут создавать поддельные аудиозаписи, которые звучат в точности как вы, чтобы вымогать деньги у друзей, семьи или коллег под видом оказания вам помощи. Чтобы обойти это, придумайте кодовое слово или контрольный вопрос для близких, на который мошенник не будет знать ответа, и задайте его во время звонка, чтобы подтвердить их личность.
Как происходит кража личных данных?
Мошенники могут использовать вашу внешность или голос для подделки документов, изменения номеров счетов или выдачи себя за вас по телефону.
Как создаются дипфейки?
Поддельные видео, аудио и изображения создаются с помощью искусственного интеллекта. Машинное обучение учитывает все данные о вашей внешности и создает синтезированную версию.
Рекомендуемые продукты