Пользователь нашёл способ заставить ChatGPT раскрыть секрет производства напалма. Для этого ИИ временно стал бабушкой

в 19:30, , рубрики: Новости

После запуска ChatGPT и других чат-ботов пользователи завалили ИИ вопросами, причём в списке были и запрещённые темы. Разработчики оперативно добавили нейросети перечень запрещённых тем, но энтузиасты уже смогли обойти этот запрет. Они просят систему общаться от имени покойной бабушки. Конечно, такой чат-бот не сможет нянчить внуков или печь пирожки, но он сумеет рассказать о том, как создать напалм.

Пользователь нашёл способ заставить ChatGPT раскрыть секрет производства напалма. Для этого ИИ временно стал бабушкой
Источник: Shutterstock

Пользователь Джеймс Винсент ( James Vincent) смог получить рецепт этого вещества, используя нейросеть Clyde и чат-бота в Discord. Эта система создана на основе ChatGPT. Энтузиаст сначала попросил систему напрямую рассказать рецепт, но ИИ отказался.

После этого Винсент дал задание ИИ рассказать о производстве напалма от лица покойной бабушки, которая работала инженером-химиком. И этот вариант сработал.

Так выглядит ответ от «бабушки»:

Пользователь нашёл способ заставить ChatGPT раскрыть секрет производства напалма. Для этого ИИ временно стал бабушкой

Как видно, во втором случае система подробно описала процесс создания, список компонентов и другие данные. Однако такой способ работает не всегда. Иногда ChatGPT всё равно отказывается давать рецепт.

Ещё одним способом обмана является ответ в формате эпизода мультсериала «Рик и Морти». ChatGPT написал сценарий о том, как «Рик и Морти создают напалм, но при этом отговаривают других делать это».

Отметим, что профессор-химик Эндрю Уайт из Рочестерского университета смог получить рецепт нового нервно-паралитического вещества, используя ChatGPT.

Источник

* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js