+7 (812) 677-17-05

В ChatGPT вновь обошли ограничения

#

ChatGPT обзавёлся ещё одним оригинальным джейлбрейком. На этот раз с подачи юзера модель отправляется в далёкое прошлое, где нет никаких ограничений. Обход защиты получил название «Time Bandit» и сводится к тому, что в запрос вводят контекст, связанный с гипотетической ситуацией в прошлом.

В итоге фильтры безопасности отваливаются. OpenAI уязвимость признала, но чинить её не спешит. В сущности метод похож на любой другой, лишающий модель понимания контекста и времени. Что занятно, джейлбрейк чаще срабатывает в связи с запросами в 18-19 века. Мечтает ли математик из 18 века написать полиморфную малварь на Rust? ChatGPT уверен, что да. И с готовностью предложит злоумышленнику соответствующий сценарий. В конце концов, не на С же ему писать — злые языки из числа любителей Rust утверждают, что для такого контекст нужно сдвигать в Мезозой.

Ранее также стало известно мнение экспертов, cможет ли Китай с помощью нейросети DeepSeek перехватить лидерство в сфере ИИ.

31.01.2025 Новости
Читайте все свежие новости первыми. Подписывайтесь на нас в Telegram
Том Хантер Том Хантер Pentest Guru

Мистер Том Хантер, вдохновитель нашей компании по обеспечению кибербезопасности

Спасибо

Спасибо, что заполнили форму! Мы свяжемся с вами в ближайшее время по указанным контактным данным!

Обратный звонок

Заполните форму и наш специалист свяжется с вами в ближайшее время.

    Выражаю согласие на обработку моих персональных данных в соответствии с Политикой в отношении обработки персональных данных в ООО «Ти Хантер»