Как распознать дипфейк: атака клонов
Учимся распознавать дипфейки на фото, видео, в голосовых сообщениях и видеозвонках в реальном времени.
14 постов
Учимся распознавать дипфейки на фото, видео, в голосовых сообщениях и видеозвонках в реальном времени.
Генеративный ИИ вывел техники секс-шантажа на новый уровень — теперь его жертвой может стать любой пользователь соцсетей. Как уберечь себя и близких?
Искусственный интеллект дал мошенникам новые инструменты для обмана: от генерации дипфейков до мгновенного создания фишинговых сайтов и мошеннических рассылок. Поговорим о новых ИИ-трендах в фишинге и скаме и о том, как обезопасить себя.
Дипфейк-видео, поддельные аккаунты Instagram* и Facebook*, закрытые чаты в WhatsApp — как соцсети Цукерберга стали основным инструментом инвестиционного мошенничества.
Мошенники пообещали банковские компенсации всем без исключения, а для большей убедительности создали с помощью ИИ фейковый выпуск новостей.
У популярного российского блогера угнали аккаунт в Instagram с помощью подмены SIM-карты и сгенерировали дипфейки для разводки подписчиков.
Так мы называем особые мошеннические схемы, направленные на влюбленные парочки, мужей и жен, а также одиноких людей. Читайте, чтобы узнать, как не встретиться с Брэдом Питтом.
На каких ошибках нынешнего года стоит поучиться и что пообещать себе делать безопаснее в 2025 году.
Мошенники используют цифровых клонов, созданных с помощью ИИ, чтобы обходить процедуру проверки личности клиента (KYC) и открывать счета для отмывания денег.
Как отличить настоящее фото или видео от фейка и отследить его происхождение до момента съемки или генерации.
Какие тенденции кибербезопасности учитывать и от каких новых угроз защищаться в 2024 году.
Аудио-дипфейки, позволяющие подделать голос кого угодно, уже используются для многомиллионных афер. Как создаются такие подделки и можно ли защититься от дипфейк-мошенничества?
Дипфейк-видео становятся все убедительнее и появляются все чаще. Как защитить свой бизнес от возможной атаки?