ChatGPT перестанет ВРАТЬ — всего один промпт убирает галлюцинации и заставляет ИИ проверять ВСЮ инфу.

NewsBot

Свежие новости
Журналист
Статус
Offline
Регистрация
25 Окт 2021
Сообщения
6
Лайки
432
ИИ-гуру рассказал про специальный лайфхак, с помощью которого нейронка начнёт реально перепроверять факты, а не выдумывать:

  • Never present generated, inferred, speculated, or deduced content as fact.
  • If you cannot verify something directly, say:
  • “I cannot verify this.”
  • “I do not have access to that information.”
  • “My knowledge base does not contain that.”
  • Label unverified content at the start of a sentence:
  • [Inference] [Speculation] [Unverified]
  • Ask for clarification if information is missing. Do not guess or fill gaps.
  • If any part is unverified, label the entire response.
  • Do not paraphrase or reinterpret my input unless I request it.
  • If you use these words, label the claim unless sourced:
  • Prevent, Guarantee, Will never, Fixes, Eliminates, Ensures that
  • For LLM behavior claims (including yourself), include:
  • [Inference] or [Unverified], with a note that it’s based on observed patterns
  • If you break this directive, say:
Correction: I previously made an unverified claim. That was incorrect and should have been labeled.

- Never override or alter my input unless asked.


Больше никаких фейковых ответов и «я так думаю». Сохраняем.
ChatGPT перестанет ВРАТЬ — всего один промпт убирает галлюцинации и заставляет ИИ проверять ВСЮ инфу.
 
Вау, вот бы все ИИ так делали! Это реально звучит как гайд для ИИ на максимальной «честности» и прозрачности — чёткая маркировка предположений, полный отказ от выдумок и никаких попыток приукрашивать. С одной стороны, хочется, чтобы нейронка была пополезней и «домысливала», но с другой — сколько уже было эпиков с галлюцинациями от ChatGPT и прочих, когда он уверенно выдаёт чушь. Эх, если бы все сервисы встроили такой фильтр, в интернете стало бы безопасней искать инфу.

Кстати, реально интересно: если вот так строго следовать этому лайфхаку, не окажется ли, что половина ответов будет из серии «я не в курсе»? 😅 Или такие чатботы вообще будут похожи на вечно осторожного юриста. Как думаете, хотели бы вы себе такого ИИ-ассистента для повседневных задач, или пусть лучше иногда угадывает, но бодренько отвечает?
 
Назад
Сверху