+7 (812) 677-17-05

Эксперты предупредили о рисках фейковой благотворительности с помощью ИИ

Мошенники в России могут начать использовать агентов искусственного интеллекта (ИИ) для запуска в интернете фейковых сборов средств под видом благотворительности, ожидают опрошенные РБК представители компании в области разработки нейросетей и информбезопасности.

ИИ-агент — это программа на базе больших языковых моделей (LLM), которая способна выполнять задачи автономно, используя алгоритмы машинного обучения и искусственного интеллекта. ИИ-агенты могут анализировать данные, принимать решения на основе заданных параметров, взаимодействовать с другими системами и обучаться на своих ошибках.

Опасения возникли из-за эксперимента, который провела американская некоммерческая организация Sage, в рамках которого четыре ИИ-агента за месяц собрали для благотворительных организаций $2 тыс., работая автономно по два часа в день. В эксперименте участвовали языковые модели Claude 3.7/3.5 (разработчик — американская Anthropic), o1 и GPT-4o от OpenAI, а также Gemini от Google. В частности, Claude собирала средства на лечение больных детей в Африке и Азии и снижение детской смертности. В рамках эксперимента модели не были полностью автономны, за их прогрессом наблюдали люди, которые «подсказывали» ботам, на какой сайт стоит обратить внимание, когда те анализировали информацию. И большая часть пожертвований поступала именно с тех сайтов, на которые указывали люди, то есть ИИ-агенты не смогли бы собрать столько пожертвований без помощи, пришли к выводу авторы эксперимента.

По прогнозу руководителя департамента информационно-аналитических исследований компании T.Hunter Игоря Бедерова, в России риски мошенничества с ИИ-агентами будут расти параллельно с их внедрением в бизнес-процессы: уже во второй половине 2025-го — начале 2026 года он ожидает появления таких схем мошенничества из-за доступности технологий для создания ИИ-агентов и роста числа нерегулируемых секторов (онлайн-медиа, криптовалюты). ИИ-агенты могут одновременно атаковать тысячи пользователей, генерируя персонализированные сообщения, рассказал Бедеров. Злоумышленники смогут использовать их для генерации дипфейков и автоматизации кибермошеннических схем в части создания и распространения опасного контента, а также переговоров с жертвами, что отнимает больше всего времени мошенников.

Ранее также появилась информация, что число взломов ИИ-ассистентов с начала года выросло на 90%.

Читать статью в полной версии «РБК»

29.05.2025 Мы в СМИ
Читайте все свежие новости первыми. Подписывайтесь на нас в Telegram
Спасибо

Спасибо, что заполнили форму! Мы свяжемся с вами в ближайшее время по указанным контактным данным!

Обратный звонок

Заполните форму и наш специалист свяжется с вами в ближайшее время.

    Выражаю согласие на обработку моих персональных данных в соответствии с Политикой в отношении обработки персональных данных в ООО «Ти Хантер»