Как правильно использовать ИИ в бизнесе?
НЕ ПРОЕЦИРУЙТЕ, или как строить ИИ решения
Главная проблема в ИИ в том, что люди далекие от ML постоянно проецируют свои ожидания и заблуждения на ИИ.
Из-за того что машина научилась выплевывать буквы, она не стала человеком. Но многие (без каких-либо на то оснований) ожидают от агентов поведения как от человека — чтобы все воспринимал, все помнил, всему учился. Эти три качества у ИИ отсутствуют и я не вижу технического способа их решить у LLM.
Нельзя ожидать, что ИИ‑агенты будут вести себя как люди, потому что у нас принципиально разная архитектура мозга и обучения. Человек за счёт эволюции и биологии обладает sample‑efficient generalization: ему достаточно нескольких примеров, чтобы навсегда встроить новое правило, привычку или интуитивный паттерн. Современные нейросети, наоборот, требуют гигантских объёмов данных и вычислений, обучаются на миллиардах токенов, синтетических датасетов, и всё равно не приближаются к человеческой пластичности в реальном времени.
Из этого вытекает несовпадение ожиданий. Мы проецируем на модель человеческие свойства (интуицию, устойчивую память, понимание важного/неважного, умение быстро переучиваться по одному случаю), а у неё этих свойств просто нет на уровне архитектуры. Она не "подумала и решила", она лишь прокручивает вероятностный процесс генерации токенов по зафиксированным весам.
Отсюда правильная стратегия в AI‑продуктах:
- Не пытаться "очеловечить" модель, а проектировать вокруг неё системы, которые компенсируют её ограничения.
- Думать не в терминах "цифровой человек", а в терминах тулзы, у которой есть чётко описанные сильные и слабые стороны.
- Строить систему из агентов, памяти, графов, правил, интерфейсов к данным, принимая как данность, что сама по себе LLM не научится "мыслить как человек".
- Фокусироваться на организационном и продуктовом дизайне: куда именно в процессы встраивается модель, какие решения ей можно делегировать, а какие нет, как мы контролируем качество, ошибки, забывание и обновление контекста.
Вместо попытки вырастить из LLM "мозг в банке" нужно строить вокруг неё архитектуру и бизнес‑процессы, которые используют её как мощный, но очень специфический вычислитель, а не как замену человеческому мышлению.
Главная проблема в ИИ в том, что люди далекие от ML постоянно проецируют свои ожидания и заблуждения на ИИ.
Из-за того что машина научилась выплевывать буквы, она не стала человеком. Но многие (без каких-либо на то оснований) ожидают от агентов поведения как от человека — чтобы все воспринимал, все помнил, всему учился. Эти три качества у ИИ отсутствуют и я не вижу технического способа их решить у LLM.
Нельзя ожидать, что ИИ‑агенты будут вести себя как люди, потому что у нас принципиально разная архитектура мозга и обучения. Человек за счёт эволюции и биологии обладает sample‑efficient generalization: ему достаточно нескольких примеров, чтобы навсегда встроить новое правило, привычку или интуитивный паттерн. Современные нейросети, наоборот, требуют гигантских объёмов данных и вычислений, обучаются на миллиардах токенов, синтетических датасетов, и всё равно не приближаются к человеческой пластичности в реальном времени.
Из этого вытекает несовпадение ожиданий. Мы проецируем на модель человеческие свойства (интуицию, устойчивую память, понимание важного/неважного, умение быстро переучиваться по одному случаю), а у неё этих свойств просто нет на уровне архитектуры. Она не "подумала и решила", она лишь прокручивает вероятностный процесс генерации токенов по зафиксированным весам.
Отсюда правильная стратегия в AI‑продуктах:
- Не пытаться "очеловечить" модель, а проектировать вокруг неё системы, которые компенсируют её ограничения.
- Думать не в терминах "цифровой человек", а в терминах тулзы, у которой есть чётко описанные сильные и слабые стороны.
- Строить систему из агентов, памяти, графов, правил, интерфейсов к данным, принимая как данность, что сама по себе LLM не научится "мыслить как человек".
- Фокусироваться на организационном и продуктовом дизайне: куда именно в процессы встраивается модель, какие решения ей можно делегировать, а какие нет, как мы контролируем качество, ошибки, забывание и обновление контекста.
Вместо попытки вырастить из LLM "мозг в банке" нужно строить вокруг неё архитектуру и бизнес‑процессы, которые используют её как мощный, но очень специфический вычислитель, а не как замену человеческому мышлению.