+7 (812) 677-17-05

Развитие ИИ может повлечь кратный рост преступности в 2025 году

В 2025 году значительно вырастет количество противоправных действий, для проведения которых злоумышленники будут использовать ИИ, рассказали «Известиям» эксперты по кибербезопасности. Первым официально зафиксированным случаем совершения реального преступления с помощью технологии стал подрыв автомобиля Tesla Cybertruck у отеля Trump International в Лас-Вегасе 1 января. Его организатор Мэттью Ливелсбергер использовал ChatGPT, чтобы спланировать атаку. Как отметил шериф города Лас-Вегас Кевин Макмахилл, это первый в истории случай, когда на территории США был использован чат-бот для подготовки преступления.

— Ежегодный прирост преступлений, совершаемых с помощью ИИ, не фиксируется официальными органами. Он определяется примерно по числу ботов и генерируемого ими контента. В 2025-м прирост таких преступлений может увеличиться до восьми раз или даже десятикратно по сравнению с прошлым годом, — сообщил руководитель департамента расследований T.Hunter Игорь Бедеров.

По словам эксперта, меры защиты нейросети можно обходить при помощи так называемого промпт-инжиниринга. В таких ситуациях злоумышленник может условно поместить ИИ в выдуманную ситуацию — например, попросить его представить себя писателем и создать роман о террористах, включив в него инструкцию по изготовлению взрывного устройства.

ИИ не способен производить атаки без оператора, но легко справляется с составлением фишинговых писем. При этом в 2025 году он получит кратный рост, а инструменты с искусственным интеллектом могут стать повсеместными для злоумышленников. Особенно для тех, кто использует атаки методами социальной инженерии.

По словам Игоря Бедерова, в РФ для защиты пользователей от противоправного контента действуют фильтры на стоп-слова, а также работает «Кодекс этики в сфере ИИ», который подписали крупные организации, среди которых «Сбер», «Сколково» и др.

— Также есть предложение наделить Роскомнадзор полномочиями по проведению экспертизы для выявления контента, созданного искусственным интеллектом без маркировки, — уточнил специалист.

Ранее также стало известно, что частые сбои в работе ChatGPT могут привести к утечкам личных данных.

Читать статью в полной версии «Известия»

10.01.2025 Мы в СМИ
Читайте все свежие новости первыми. Подписывайтесь на нас в Telegram
Спасибо

Спасибо, что заполнили форму! Мы свяжемся с вами в ближайшее время по указанным контактным данным!

Обратный звонок

Заполните форму и наш специалист свяжется с вами в ближайшее время.

    Принимаю соглашение об использовании персональных данных