Почему люди воспринимают ИИ как личность?

Грубо 40% читателей подсознательно воспринимает AI как что-то типа личности. Рационально, мы, конечно, неправы. Это просто матрицы, контекст заведомо теряется между сессиями, вся наша вежливость просто зря электричество потребляет.

С другой стороны, попробуйте объяснить рациональность стыда и неудобства перед живыми людьми. Тоже не особо получится.

Авторский взгляд на новости технологий Реклама: https://docs.google.com/presentation/d/1glQMXYyKAYpzNP8VXzM4gl2YkEgLjkeD_Fxvzbu5QUE/edit РКН: https://clck.ru/3FPkup Личный аккаунт: @gornal О рекламе: @Vzuhcha ВП нет

💬Discussion (24)

Bogdan Shenzhen@bvpotapenko
Людям свойственно разговаривать даже с нарисованными воображаемыми персонажами, которые вообще не отвечают
Sergiy Skyninko@Skynin
дело тут не в рациональности. инстинкт ессно не поддается рациональному объяснению.

дело тут в "невежестве".
когда мы случайно разбиваем чашку - нам перед ней стыдно, хочется извиниться?

нет. потому что мы четко знаем, что не перед кем извинятся.

когда мы в обычной программе, вводим что-то не то, и она сообщает - введенное значение неверно, и т.д.
нам стыдно перед этой программой, что мы глупость совершили?

нет. мы знаем что это просто "калькулятор".

а вот когда мы не уверены что перед нами, может живое что, личность, субъект - тогда да, срабатывает инстинкт.

когда ты знаешь что такое GenAI - у тебя не будет срабатывать инстинкт.

Когда не знаешь, то будет стыдно что компьютерная программа тебе пишет: введенное значение не верно
Alexander Gorny@Gornal
Про стыд перед человеком точно так же буква в букву можно писать.
Sergiy Skyninko@Skynin
нет. это работают зеркальные нейроны. мы - социальные существа, нам крайне важна оценка других
Alexander Gorny@Gornal
Зеркальные нейроны это вроде не про стыд (не настаиваю).

Но с точки зрения нейронов-то стыд совершенно одинаковый, что перед человеком, что перед LLM, зеркальные или не зеркальные — двадцать пятый вопрос.
Sergiy Skyninko@Skynin
выше написал - нейроны те же, а одним стыдно а другим нет.

ваше объяснение какое?
Alexander Gorny@Gornal
Один признает за своего, другой нет.

Почему признает — черт его знает. Предполагаю, что основной фактор — круг вопросов, которые обычно обсуждает. Если LLM только программирует и Википедию пересказывает, то он скорее калькулятор, если его как психоаналитика используют — то он быстрее в человека превращается. Но это безответственное предположение.
Sergiy Skyninko@Skynin
Функция, которую выполняют зеркальные нейроны, до конца не ясна и является предметом научных споров. Так, некоторые учёные считают, что эти нейроны могут быть задействованы в эмпатии, (Википедия)
Sergiy Skyninko@Skynin
то есть это подвид третьего закона Кларка:
Любая достаточно развитая технология неотличима от магии.
Nikita@flashnik
> это просто матрицы, контекст заведомо теряется между сессиями, вся наша вежливость просто зря электричество потребляет.
Это спорное утверждение)

Во-первых, Claude/ChatGPT/Gemini сохраняют контекст между сессиями и это может влиять на Tone-of-Voice и другие особенности ответа модели в следующих сессиях
Во-вторых, эмоции тоже активируют веса, поэтому состояние матрицы будет отличаться в зависимости от эмоций - поэтому и ответ может оказаться сильно другим (особенно, например, если эмоции стриггерят эмоции в ответе, несмотря на alignment).
Alexander Gorny@Gornal
Нет там ни сохранения контекста того уровня, что "мой ChatGPT меня не уважает".

Ответ немедленный и правда может быть разным, но совершенно неочевидно, что в уважительном варианте — лучше. Пару лет назад, наоборот, материться советовали.
Nikita@flashnik
Тут не спорю
Nikita@flashnik
https://www.anthropic.com/research/emotion-concepts-function

For instance, we find that neural activity patterns related to desperation can drive the model to take unethical actions; artificially stimulating (“steering”) desperation patterns increases the model’s likelihood of blackmailing a human to avoid being shut down, or implementing a “cheating” workaround to a programming task that the model can’t solve.
AivanF@aivanf
Вполне получится объяснить, если задействовать эволюционную психологию :) Как и нормы морали, баланс альтруизма и эгоизма, представления о справедливости – это всё уже выводилось в математических моделях социума и эволюции с примитивным ИИ.
Sergiy Skyninko@Skynin
речь о том - почему одним стыдно перед ИИ, а другим нет.
что, у других эмпатии к живым существам меньше?

мое объяснение - вторые считают ИИ нелюдью. поэтому и не срабатывают точно такие же инстинкты, как у первых
AivanF@aivanf
Думаю и то, и другое имеет место быть. Люди разнообразные существа – 1. кто-то относится к другим людям без особой эмпатии, 2. а кто-то относится к диалогам с ИИ как к личному дневнику и размышлениям наедине; 2.1. при этом одни хвалят себя, 2.2. а для других это противоестественно. В общем, есть много мотивов поступать различными способами.
Sergiy Skyninko@Skynin
в том то и дело что инстинкт - НЕ поступок. Выше я не вдавался, а утрировал что инстинкт рационально необъясним.
Подробнее - наше Я не может уловить причину мысли. Об этом тысячи лет индийская медитация говорит: "Мысли берутся - ниоткуда. Они - не твои". Сапольски тоже, с научной точки зрения о том же - да нет никакой свободы воли. Мы - биологические автоматы
AivanF@aivanf
В целом согласен, но про инстинкты здесь вообще при чём вдруг 🤔
Sergiy Skyninko@Skynin
"40% читателей подсознательно"

слово подсознательно обычно и употреблятся как- ВНЕ сознания.
а это обычно - инстинкты.
Sergiy Skyninko@Skynin
и считает потому дневник - субъектом? сочувствует ему, когда кляксу поставил, или листик замял?
Join discussion on TelegramComments are synced from Telegram

Связанные темы

Читать далее