Может ли AI заменить врача в назначении лечения?
Написал в соседнем канале, что трудно человеку против AI. Получил возражение — дескать, назначать лечение, конечно, робот будет, прогресс не остановить, но чтобы правильно его просить и все детали учесть, понадобится специальный человек-специалист. Сам я никогда хороший промпт не напишу.
И, действительно, давайте посмотрим на тот же Netflix или ivi. Выбираем и смотрим кино мы и правда через интернет. Но чтобы оплатить подписку — всё равно приходится в кассу ножками ездить, наличные отдавать. Не обошлось без офлайна.
Ой, что, не так устроено? В интернете и деньги передавать можно, не только кино? Так наверное и система, которая лучше врача лечит, научится и лучше врача опросы пациентов проводить? Сама все детали выяснит и сама сообразит, когда их недостаточно, чтобы решение об операции принимать?
И, действительно, давайте посмотрим на тот же Netflix или ivi. Выбираем и смотрим кино мы и правда через интернет. Но чтобы оплатить подписку — всё равно приходится в кассу ножками ездить, наличные отдавать. Не обошлось без офлайна.
Ой, что, не так устроено? В интернете и деньги передавать можно, не только кино? Так наверное и система, которая лучше врача лечит, научится и лучше врача опросы пациентов проводить? Сама все детали выяснит и сама сообразит, когда их недостаточно, чтобы решение об операции принимать?
Read next
Как технологии заменяют людей в разных профессиях?
GPT/ChatGPT/AI Central Александра Горного•
Как работает функция напоминания авторизации в Manus?
GPT/ChatGPT/AI Central Александра Горного•
Маск признан виновным в том, что ввёл инвесторов Twitter в заблуждение своими постами в Twitter
GPT/ChatGPT/AI Central Александра Горного•
💬Discussion (35)
В общем случае ни пациент, ни его родственники понятия не имеют о риска операции.
Даже если ии оценивает "риск внутригоспитальной смертности" для конкретного пациента как 15% - это много или мало? Как пациент или родственники оценят?
Спойлер: это очень высоко, врач обычно откладывает операцию.
Они не могут и не смогут взять ответственность за результат.
Врач ошибется — на него подадут в суд.
А с AI-врачом за смерть/осложнение к кому в суд идти?
Может быть придумают как сделать ответственными разработчика софта.
Но блин, за смерть от AI-врача developer виноват будет?
Обычно это регрессии, деревья решений, бустинги.
А того, кто, в конечном итоге, отвечает за принятое решение и его последствия.
И для того, чтоб отвечающий за принятие решения мог как-то понимать и доверять ИИ, этот ии должен быть "объяснимым" - это отдельное направление, так и называетс eXplainable AI (XAI).
С практической же точки зркния, если модель непонятная, часто не совпадает в своем мнении с врачем, то врачи её просто игнорировать будут, и это трата времени для них.
Они от слов переходят к смыслам предложений, абзацев и тд.