Почему ChatGPT не может предложить нужное решение?

GPT/ChatGPT/AI Central Александра Горного··1 мин чтения
Регулярно повторяющийся у меня паттерн с ChatGPT.
— А как сделать вот такую штуку?
— Такую штуку сделать нельзя, но могу предложить [какая-то фигня].
... пообсуждали-пообсуждали, я понял некий хак, дающий нужный мне результат...
— А вот так ведь получится нужное мне?
— НЕТ. НУЖНОЕ ТЕБЕ СДЕЛАТЬ НЕЛЬЗЯ. У тебя получится [пересказ нужного мне другими словами].

В самых разных вещах встречается от программирования до ухода за собой.

Наверное, каким-то промптом это можно вылечить, но не суть, не мешает. Мне интересно, как в него вшито уважение к правилам, чтобы никак ненароком что-то плохое не посоветовать. "Освой правила в совершенстве, чтобы потом свободно их ломать как художник", (c) якобы Пикассо — это вообще не про ChatGPT, правила освоил, ломать очень не хочет.

Авторский взгляд на новости технологий Реклама: https://docs.google.com/presentation/d/1glQMXYyKAYpzNP8VXzM4gl2YkEgLjkeD_Fxvzbu5QUE/edit РКН: https://clck.ru/3FPkup Личный аккаунт: @gornal О рекламе: @Vzuhcha ВП нет

Связанные темы

Читать далее