Почему ChatGPT не может предложить нужное решение?

Регулярно повторяющийся у меня паттерн с ChatGPT.
— А как сделать вот такую штуку?
— Такую штуку сделать нельзя, но могу предложить [какая-то фигня].
... пообсуждали-пообсуждали, я понял некий хак, дающий нужный мне результат...
— А вот так ведь получится нужное мне?
— НЕТ. НУЖНОЕ ТЕБЕ СДЕЛАТЬ НЕЛЬЗЯ. У тебя получится [пересказ нужного мне другими словами].

В самых разных вещах встречается от программирования до ухода за собой.

Наверное, каким-то промптом это можно вылечить, но не суть, не мешает. Мне интересно, как в него вшито уважение к правилам, чтобы никак ненароком что-то плохое не посоветовать. "Освой правила в совершенстве, чтобы потом свободно их ломать как художник", (c) якобы Пикассо — это вообще не про ChatGPT, правила освоил, ломать очень не хочет.

Read next