Эксперты предупредили о рисках фейковой благотворительности с помощью ИИ
Мошенники в России могут начать использовать агентов искусственного интеллекта (ИИ) для запуска в интернете фейковых сборов средств под видом благотворительности, ожидают опрошенные РБК представители компании в области разработки нейросетей и информбезопасности.
ИИ-агент — это программа на базе больших языковых моделей (LLM), которая способна выполнять задачи автономно, используя алгоритмы машинного обучения и искусственного интеллекта. ИИ-агенты могут анализировать данные, принимать решения на основе заданных параметров, взаимодействовать с другими системами и обучаться на своих ошибках.
Опасения возникли из-за эксперимента, который провела американская некоммерческая организация Sage, в рамках которого четыре ИИ-агента за месяц собрали для благотворительных организаций $2 тыс., работая автономно по два часа в день. В эксперименте участвовали языковые модели Claude 3.7/3.5 (разработчик — американская Anthropic), o1 и GPT-4o от OpenAI, а также Gemini от Google. В частности, Claude собирала средства на лечение больных детей в Африке и Азии и снижение детской смертности. В рамках эксперимента модели не были полностью автономны, за их прогрессом наблюдали люди, которые «подсказывали» ботам, на какой сайт стоит обратить внимание, когда те анализировали информацию. И большая часть пожертвований поступала именно с тех сайтов, на которые указывали люди, то есть ИИ-агенты не смогли бы собрать столько пожертвований без помощи, пришли к выводу авторы эксперимента.
По прогнозу руководителя департамента информационно-аналитических исследований компании T.Hunter Игоря Бедерова, в России риски мошенничества с ИИ-агентами будут расти параллельно с их внедрением в бизнес-процессы: уже во второй половине 2025-го — начале 2026 года он ожидает появления таких схем мошенничества из-за доступности технологий для создания ИИ-агентов и роста числа нерегулируемых секторов (онлайн-медиа, криптовалюты). ИИ-агенты могут одновременно атаковать тысячи пользователей, генерируя персонализированные сообщения, рассказал Бедеров. Злоумышленники смогут использовать их для генерации дипфейков и автоматизации кибермошеннических схем в части создания и распространения опасного контента, а также переговоров с жертвами, что отнимает больше всего времени мошенников.
Ранее также появилась информация, что число взломов ИИ-ассистентов с начала года выросло на 90%.
Читать статью в полной версии «РБК»