
Безопасен ли искусственный интеллект? Возможно, сейчас это самая популярная тема в мире технологий, и она вызывает серьезные споры.
На глобальном саммите в Париже в феврале 2025 года мировые лидеры разошлись во взглядах на безопасность искусственного интеллекта. Например, президент Франции Эммануэль Макрон призвал к дальнейшему регулированию, чтобы помочь ИИ двигаться вперед, а вице-президент США Дж. Д. Вэнс сказал, что «политика в области ИИ для роста» должна иметь приоритет над соображениями безопасности.
В то время как законные предприятия, органы власти и люди изучают способы ответственного и безопасного использования ИИ, существует еще одна угроза: использование ИИ киберпреступниками для того, чтобы сделать свои злонамеренные действия еще более мощными и успешными.
Киберпреступность с искусственным интеллектом кардинально меняет правила безопасности в цифровом мире, и очень важно, чтобы все знали о рисках и действиях, необходимых для обеспечения безопасности. В этом руководстве рассматриваются различные типы кибератак ИИ, их значение с точки зрения безопасности и то, что вы можете сделать сейчас, чтобы укрепить свою защиту.
Примеры успешного взлома с искусственным интеллектом
Риск создания вредоносного ПО и другой преступной деятельности гораздо больше, чем теоретический - эти атаки уже происходят и требуют жертв по всему миру. Вот только три из огромного количества примеров:
Выдача себя за другое лицо: Гвидо Крозетто
В начале 2025 года мошенники использовали голосовые технологии, созданные искусственным интеллектом, чтобы выдать себя за министра обороны Италии Гвидо Крозетто. Затем они связались с богатыми итальянскими предпринимателями с вымышленной просьбой о финансовой поддержке, которая предположительно будет использована для оказания помощи итальянским журналистам, похищенным на Ближнем Востоке. По крайней мере, одного бизнесмена обманом отправили на счет, который оказался мошенническим.
Вредоносное ПО: мошенничество DeepSeek ClickFix
Одна киберпреступная организация создала веб-страницу проверки, которая имитирует китайский искусственный интеллект DeepSeek. Пользователи, которые выполняют то, что, по их мнению, является проверкой Captcha , запускают установку Vidar Stealer и Lumma Stealer, вредоносных программ, которые могут использоваться для кражи конфиденциальной информации, включая логины и банковские реквизиты, что в конечном итоге приводит к мошенничеству в онлайн-банке .
Ошибка пользователя: утечка ChatGPT от Samsung
Этот громкий инцидент не является вирусом искусственного интеллекта или вредоносным ПО как таковым, но продемонстрировал, как может быть непреднамеренно открыта дверь для атак искусственного интеллекта. Весной 2023 года сотрудники корейского технологического гиганта Samsung использовали ChatGPT для проверки части исходного кода, не понимая, что данные будут сохранены для дальнейшего обучения модели искусственного интеллекта. Это фактически сделало некоторые особо важные объекты интеллектуальной собственности Samsung доступными для всех.
Типы кибератак с использованием ИИ
Уже существует несколько различных способов использования ИИ для злонамеренных действий, как напрямую, так и для поддержки других преступных предприятий:
Социальная инженерия
Атака социальной инженерии - это попытка преступников повлиять на поведение людей и заставить пользователей добровольно отдать им информацию или активы. Это может быть что угодно, от конфиденциальных личных данных , информации о банковском счете, денег или криптовалюты или доступа к определенным устройствам и базам данных. Искусственный интеллект оказывается очень полезным в такого рода атаках, помогая киберпреступникам выявлять цели, создавать убедительные образы и сообщения, а также создавать аудио- и видеозаписи, которые добавляют правдоподобности мошенничеству.
Фишинговые атаки
Фишинговые атаки основаны на том, что пользователи думают, что полученные сообщения, ссылки и вложения электронной почты являются настоящими, и нажимают на то, что оказывается вредоносным. Хорошее образование пользователей помогало снизить успешность этих атак в прошлом, но теперь ИИ используется, чтобы сделать попытки фишинга более убедительными, чем когда-либо. Его можно использовать в сообщениях в режиме реального времени, таких как сообщения WhatsApp или социальные сети, и даже для имитации чат-ботов службы поддержки клиентов, когда клиенты думают, что они делятся данными своей учетной записи с реальными сотрудниками.
Программы-вымогатели AI
ИИ значительно расширил технические возможности атак программ-вымогателей . Это включает в себя целевые исследования, такие как оценка систем на предмет наиболее многообещающих уязвимостей для использования, а также возможность адаптации файлов программ-вымогателей, чтобы они по-прежнему могли уклоняться от обнаружения решений кибербезопасности.
Состязательный ИИ и вредоносные GPT
Многие киберпреступники искажают вывод, генерируемый ИИ, скармливая им неточные данные или изменяя параметры модели ИИ. Введенные неточности могут привести к созданию опасных предубеждений или инструкций, соответствующих целям хакера. Наряду с этим наблюдается рост использования вредоносных инструментов искусственного интеллекта, которые не содержат никаких средств защиты от предвзятости и неправомерного использования; GhostGPT - недавний пример чат-бота без цензуры, который можно использовать для создания вредоносного ПО.
Дипфейки
Вы можете подумать, что дипфейки - это проблема только для публичных лиц, чьи лица и голоса выставлены на фиктивные, компрометирующие позиции, но угроза для всех реальна. Технология Deepfake может использоваться для выдачи себя за кого-либо с помощью видео, голоса или их комбинации. Они потенциально могут быть использованы для получения доступа к конфиденциальной информации или даже к банковским счетам путем обмана процедур безопасности и проверки.
Тушение пожара с помощью огня: как ИИ-киберпреступность меняет кибербезопасность?
Лучший инструмент для борьбы с киберугрозами со стороны ИИ - это сам искусственный интеллект. Это не означает, что стандартные решения безопасности бессильны противодействовать атакам, поддерживаемым искусственным интеллектом: они по-прежнему смогут защитить себя от многих видов вредоносных программ и взломов. Однако включение ИИ в систему безопасности может добавить дополнительное измерение к нескольким методам безопасности, таким как:
Реагирование на инциденты
ИИ можно использовать для автоматизации действий по реагированию на инциденты. Например, Kaspersky Incident Response может блокировать вредоносную активность, а уязвимые системы могут быть изолированы намного быстрее, чем человек, ответивший на системное предупреждение. Резкое сокращение времени отклика и разрешения может свести к минимуму влияние любой атаки, что в конечном итоге ограничит масштаб сбоев, расходов и потерь данных.
Обнаружение угроз и упреждающий поиск угроз
При таком большом количестве угроз сотрудникам службы безопасности может быть сложно следить за всем, что происходит, и исследовать каждое предупреждение. Здесь может помочь искусственный интеллект, детально анализируя поведение пользователей и сетевой трафик, быстрее обнаруживая потенциальные угрозы и отфильтровывая ложные срабатывания, отнимающие драгоценное время служб безопасности. ИИ также может сделать обнаружение угроз упреждающим, выслеживая кибератаки еще до того, как они начнутся.
Анализ вредоносных программ
Информация, которую может генерировать ИИ, может дать специалистам по безопасности более глубокое понимание того, как различные типы вредоносных программ работают на практике. Возможность автоматизации этого анализа означает, что группы безопасности могут намного быстрее получать доступ к этой информации и принимать более обоснованные решения о том, где и как разрабатываются и развертываются их средства защиты.
Проверка на уязвимости
Инструменты искусственного интеллекта могут оценивать системы и инфраструктуру, чтобы определить, где находятся самые большие уязвимости, чтобы группы безопасности могли лучше расставить приоритеты для своего времени и ресурсов при закрытии этих уязвимостей. Эта информация жизненно важна для лучшего управления исправлениями и обновлениями, гарантируя, что в первую очередь будут установлены самые неотложные обновления.
Управление идентификацией и доступом (IAM)
Сила управления идентификацией и доступом была существенно усилена ИИ благодаря его способности обнаруживать необычные модели активности пользователей из разных мест для попыток доступа к скорости набора текста и движения мыши. Эти аномалии могут быть отмечены в режиме реального времени, чтобы заблокировать любой потенциальный несанкционированный доступ и / или создать дополнительные уровни проверки для подтверждения законного использования.
Этический взлом
Этический взлом и тестирование на проникновение являются важными инструментами в обнаружении уязвимостей и их упреждающем закрытии. Однако это может быть медленное и трудоемкое предприятие только из-за размера задействованной рабочей нагрузки. Однако ИИ может облегчить административную нагрузку на эти задачи двумя важными способами: автоматизировать более простые и повторяющиеся задачи, которые замедляют работу команд, и проанализировать их результаты, чтобы получить полезную информацию.
Оценка рисков
Те же преимущества ИИ для этического взлома могут быть применены для разработки оценок рисков и определения приоритетов угроз в соответствии с уровнем опасности. Это также может быть рутинной и трудоемкой задачей (какой бы важной она ни была), поэтому использование искусственного интеллекта для ускорения процесса, выполнения повторяющихся заданий и получения более подробной информации может быть чрезвычайно полезным.
Как защитить себя от кибератак ИИ
Помимо описанных выше возможностей безопасности на основе ИИ, существует множество способов минимизировать шансы на успех взлома ИИ. С нашей точки зрения, лучший способ продвижения вперед объединяет людей, планирование и технологии:
Создание плана реагирования на инцидент
Чем быстрее вы сможете отреагировать на инцидент, тем быстрее вы сможете смягчить любое воздействие и гарантировать, что ущерб не распространяется слишком широко . Как и в случае с пожарными учениями, вы должны точно знать, что делать в случае нарушения безопасности. Ваш план должен включать подготовку (то есть предотвращение и меры реагирования), обнаружение и анализ (подтверждение характера и серьезности атаки), сдерживание и искоренение атаки (изоляция системы, исправление и установка исправлений) и тактики восстановления, которые предотвращают атаку. инцидент от повторения.
Узнайте больше о том, как построить эффективную стратегию с помощью решений Kaspersky Incident Response .
Используйте самые надежные доступные платформы безопасности
Убедитесь, что у вас есть наиболее полный набор средств защиты от существующих угроз и новых атак, основанных на киберпреступности искусственного интеллекта. Kaspersky Premium , например, обеспечивает антивирусную защиту в режиме реального времени, которая немедленно принимает меры для предотвращения атаки; он также включает защиту личных данных, которая обеспечивает дополнительную защиту конфиденциальных личных данных.
Регулярно оценивайте состояние безопасности
Поскольку ИИ, и киберпреступность развиваются быстрыми темпами, меры безопасности, которые вы применяете сегодня, могут оказаться недостаточными через 12 месяцев (или, возможно, даже раньше). Это означает, что безопасность следует регулярно проверять и проверять; ИИ может поддерживать это посредством анализа активности пользователей в режиме реального времени и выявления любых аномальных действий по сравнению с предыдущим периодом аудита.
Обеспечение осведомленности пользователей и сотрудников о безопасности
Продолжительный успех фишинговых атак - независимо от того, были ли они разработаны с использованием ИИ - подчеркивает тот факт, что хорошая безопасность начинается с пользователей. Пришло время сообщить пользователям об опасности взлома ИИ и связанных с ним атак, особенно о том, насколько убедительными могут быть текст, аудио и видео, созданные с помощью ИИ. Это может помочь напомнить пользователям о необходимости сохранять бдительность и не выполнять никаких действий, если они не уверены на 100%, что это безопасно. Узнайте, как программа "Кибербезопасность" от "Лаборатории Касперского" может помочь вашей команде сохранять бдительность в отношении атак, связанных с искусственным интеллектом.
Статьи по теме:
- Социальные сети и искусственный интеллект: это безопасно?
- Насколько безопасно использовать ChatGPT? и что вам нужно о нем знать
- Как предотвратить кибератаки
Рекомендуемые продукты:
