+7 (812) 677-17-05

Частые сбои в работе ChatGPT могут привести к утечкам личных данных

Пользователи рискуют потерять свои личные данные в ходе очередного краха OpenAI. Все сервисы, в число которых входят чат-бот ChatGPT, программный модуль API, нейросеть для создания роликов Sora и другие, сломались вечером 26 декабря. Реальная причина сбоя не установлена, но она может повлечь за собой утечку пользовательских данных и репутационные проблемы для бизнеса, рассказал «Известиям» руководитель департамента расследований T.Hunter Игорь Бедеров.

— Как следствие, возможны потеря доступа к данным и документам, поломки сетевого и иного оборудования. В результате — сорванные поставки, конфликты с клиентами и репутационные издержки для бизнеса, а вдобавок ко всему пользовательские данные во время таких сбоев могут украсть хакерские группировки для последующей перепродажи, — добавил он.

По данным авторизованного сервиса уведомлений OpenAI Status, этот сбой стал третьим масштабным блэкаутом в декабре 2024 года. Предыдущие сбои произошли 4-го и 11-го числа, их общая длительность превышает 5,5 часа. Продолжительность отключения сервисов и продуктов 26 декабря составила пять часов четыре минуты. Масштаб проблемы пока не изучен полностью, на форуме Reddit пользователи жалуются, что часть истории их запросов и ранее созданных паттернов исчезла и не была восстановлена.

Ранее, в феврале этого же года, произошла масштабная утечка данных из сервисов OpenAI — у пользователей украли персональную информацию, данные о логинах и паролях, а также переписки. Эксперты полагают, что этот сценарий мог повториться, хотя сам сервис не комментирует причину сбоя, ссылаясь на внутреннего поставщика интернет-услуг (ISP-провайдера). Насколько этот сбой критичен для бизнеса, зависит от глубины интеграции ChatGPT в процессы конкретной компании, которая его использует.

Самым логичным результатом таких поломок могут быть риски, связанные с кибербезопасностью: утечка данных и иная деятельность хакеров. Злоумышленники уже давно используют различные инструменты на базе ИИ для своих целей, но на данном этапе они имеют ограниченную применяемость. Модели могут находить взаимосвязи, но естественный интеллект в киберпреступлениях и вопросах инфобезопасности показывает себя намного эффективнее. При этом нейросеть может куда быстрее и разнообразнее, чем человек, подготовить тексты фишингового письма на разных языках.

— Функционал продуктов от OpenAI способен упрощать создание фишинговых писем и других видов вредоносного программного обеспечения. Частичное написание кода для таких программ возможно с помощью ChatGPT, — уточнил Игорь Бедеров.

Ранее также появилась информация, что нейросеть посоветовала правительству подумать о стандартах ИИ в образовании.

Читать статью в полной версии «Известия»

27.12.2024 Мы в СМИ
Читайте все свежие новости первыми. Подписывайтесь на нас в Telegram
Спасибо

Спасибо, что заполнили форму! Мы свяжемся с вами в ближайшее время по указанным контактным данным!

Обратный звонок

Заполните форму и наш специалист свяжется с вами в ближайшее время.

    Принимаю соглашение об использовании персональных данных