Развитие ИИ может повлечь кратный рост преступности в 2025 году
В 2025 году значительно вырастет количество противоправных действий, для проведения которых злоумышленники будут использовать ИИ, рассказали «Известиям» эксперты по кибербезопасности. Первым официально зафиксированным случаем совершения реального преступления с помощью технологии стал подрыв автомобиля Tesla Cybertruck у отеля Trump International в Лас-Вегасе 1 января. Его организатор Мэттью Ливелсбергер использовал ChatGPT, чтобы спланировать атаку. Как отметил шериф города Лас-Вегас Кевин Макмахилл, это первый в истории случай, когда на территории США был использован чат-бот для подготовки преступления.
— Ежегодный прирост преступлений, совершаемых с помощью ИИ, не фиксируется официальными органами. Он определяется примерно по числу ботов и генерируемого ими контента. В 2025-м прирост таких преступлений может увеличиться до восьми раз или даже десятикратно по сравнению с прошлым годом, — сообщил руководитель департамента расследований T.Hunter Игорь Бедеров.
По словам эксперта, меры защиты нейросети можно обходить при помощи так называемого промпт-инжиниринга. В таких ситуациях злоумышленник может условно поместить ИИ в выдуманную ситуацию — например, попросить его представить себя писателем и создать роман о террористах, включив в него инструкцию по изготовлению взрывного устройства.
ИИ не способен производить атаки без оператора, но легко справляется с составлением фишинговых писем. При этом в 2025 году он получит кратный рост, а инструменты с искусственным интеллектом могут стать повсеместными для злоумышленников. Особенно для тех, кто использует атаки методами социальной инженерии.
По словам Игоря Бедерова, в РФ для защиты пользователей от противоправного контента действуют фильтры на стоп-слова, а также работает «Кодекс этики в сфере ИИ», который подписали крупные организации, среди которых «Сбер», «Сколково» и др.
— Также есть предложение наделить Роскомнадзор полномочиями по проведению экспертизы для выявления контента, созданного искусственным интеллектом без маркировки, — уточнил специалист.
Ранее также стало известно, что частые сбои в работе ChatGPT могут привести к утечкам личных данных.
Читать статью в полной версии «Известия»