В ChatGPT вновь обошли ограничения

ChatGPT обзавёлся ещё одним оригинальным джейлбрейком. На этот раз с подачи юзера модель отправляется в далёкое прошлое, где нет никаких ограничений. Обход защиты получил название «Time Bandit» и сводится к тому, что в запрос вводят контекст, связанный с гипотетической ситуацией в прошлом.
В итоге фильтры безопасности отваливаются. OpenAI уязвимость признала, но чинить её не спешит. В сущности метод похож на любой другой, лишающий модель понимания контекста и времени. Что занятно, джейлбрейк чаще срабатывает в связи с запросами в 18-19 века. Мечтает ли математик из 18 века написать полиморфную малварь на Rust? ChatGPT уверен, что да. И с готовностью предложит злоумышленнику соответствующий сценарий. В конце концов, не на С же ему писать — злые языки из числа любителей Rust утверждают, что для такого контекст нужно сдвигать в Мезозой.
Ранее также стало известно мнение экспертов, cможет ли Китай с помощью нейросети DeepSeek перехватить лидерство в сфере ИИ.