Как ИИ помогает специалистам по кибербезопасности бороться с мошенниками
Новости о новых схемах кибермошенничества с использованием ИИ регулярно появляются в СМИ. Так, 19 октября эксперты по кибербезопасности предупредили россиян о случаях мошенничества с дипфейками знаменитостей. Злоумышленники создают реалистичные видео для распространения ложной информации, например о предстоящих концертах зарубежных звёзд. Одним из примеров стал Канье Уэст.
Впрочем, есть и те, что в целом оптимистично смотрят на развитие новой технологии: 22% опрошенных видят в развитии ИИ как минусы, так и плюсы, а 16% спокойно воспринимают искусственный интеллект.
Так, руководитель департамента информационно-аналитических исследований компании T.Hunter Игорь Бедеров в беседе с RT назвал основными угрозами, исходящими от ИИ, совершенствованный фишинг и социальную инженерию, дипфейки, автоматизацию вредоносного ПО и новые возможности для адаптации кибератак. Однако, по словам эксперта, этот же инструмент уже активно используют в разработке современных решений по обеспечению кибербезопасности.
«Российские компании и государственные структуры активно развивают и внедряют системы кибербезопасности на основе искусственного интеллекта для парирования новых угроз. В их числе выявление утечек данных и анализ поведения в DLP-системах, системы защиты от фишинга и мошенничества, обнаружения кибератак и противодействия дипфейкам», — говорит эксперт.
Несмотря на то что большая часть современных антифрод-инструментов ориентирована именно на корпоративных клиентов, эксперты не исключают, что в скором будущем похожие решения на основе ИИ будут предлагаться и обычным пользователям. Впрочем, здесь пока есть некоторые сложности.
Ранее также стало известно, что ущерб от генеративного ИИ превысит 1 трлн руб. к 2030 году.
Читать статью в полной версии «RT»