Может ли AI заменить врача в назначении лечения?

Написал в соседнем канале, что трудно человеку против AI. Получил возражение — дескать, назначать лечение, конечно, робот будет, прогресс не остановить, но чтобы правильно его просить и все детали учесть, понадобится специальный человек-специалист. Сам я никогда хороший промпт не напишу.

И, действительно, давайте посмотрим на тот же Netflix или ivi. Выбираем и смотрим кино мы и правда через интернет. Но чтобы оплатить подписку — всё равно приходится в кассу ножками ездить, наличные отдавать. Не обошлось без офлайна.

Ой, что, не так устроено? В интернете и деньги передавать можно, не только кино? Так наверное и система, которая лучше врача лечит, научится и лучше врача опросы пациентов проводить? Сама все детали выяснит и сама сообразит, когда их недостаточно, чтобы решение об операции принимать?

💬Discussion (35)

Павел Создатель Миров@PavelKrovorov
По крайней мере, такие робот специалисты не будут хамить. Остальное уже будет зависеть от производителя.
Marina Krashakova@m_krashakova
Не факт. Хамство тоже зависит от производителя.
Павел Создатель Миров@PavelKrovorov
Скорее это будет доп опция для мазахистов.
Marina Krashakova@m_krashakova
Знаете, с того момента как мой gpt обозвал Алису коробкой с ушами я в задумчивости. Они от нас много что берут чего мы не замечаем в себе.
Павел Создатель Миров@PavelKrovorov
У меня Клауд иногда матерился, хотя не должен был. Да есть у них такой момент самообучения.
Bogdan. ML Engineer Shenzhen@bvpotapenko
Если ИИ будет принимать решение об операции, то это означает, что по факту это пациент будет принимать решение об операции, и ответственность будет на нём.
Evgeny Danilov@EvgenyChe
Сейчас уже так часто, по крайней мере в западной медицине - частный клиники не хотят брать на себя ответственность, и поэтому человек даёт должен явно подтвердить, что да, давайте резать аппендицит. (В случае острой помощи отдельные бумаги подписываются родственниками или заранее). Так что да, учимся и просвещаемся. Тем более что человек сам про себя будет явно больше знать, чем врач, у кого-то на вас 10 минут
Bogdan. ML Engineer Shenzhen@bvpotapenko
но есть нюанс, мы, например, работаем с неотложными, поступающих в реанимацию с острой сердечной недостаточностью. И проблема в том, что операция нужна для спасения жизни, но бывает, что операция более опасна, чем её непроведение. Сейчас врачи применяют шкалы риска, мы им ИИ делаем, но решение за врачём.
В общем случае ни пациент, ни его родственники понятия не имеют о риска операции.
Даже если ии оценивает "риск внутригоспитальной смертности" для конкретного пациента как 15% - это много или мало? Как пациент или родственники оценят?

Спойлер: это очень высоко, врач обычно откладывает операцию.
Denis
У всех AI систем до применимости стоит фундаментальный вопрос. Будь то копирайтер, разраб или врач/психолог.

Они не могут и не смогут взять ответственность за результат.
Врач ошибется — на него подадут в суд.
А с AI-врачом за смерть/осложнение к кому в суд идти?

Может быть придумают как сделать ответственными разработчика софта.
Но блин, за смерть от AI-врача developer виноват будет?
Aleksandr Khromov@AlexCrome
Дело скорее не в вине и наказании, а в адекватной обратной связи. В этом смысле денежные штрафы вполне рабочий фидбек. Просто не надо идти в отказ и говорить, что жизнь человека бесценна и т.п. Измерить и оценить можно все. Соответственно, если будет адекватный денежный негативный фидбек AI системам, то они будут улучшаться и в этом отношении.
Vlad@iamvladsm
Да, вы совершенно правы, апендикс с другой стороны. Хотите, я переделаю операцию по-другому?
Bogdan. ML Engineer Shenzhen@bvpotapenko
В медицине как правило используется классическое машинное обучение, не LLM .
Обычно это регрессии, деревья решений, бустинги.
Vlad@iamvladsm
То есть, вопрос в приципе лежит не в плоскости того, на базе чего создана и работает та или иная DSS для врача.
А того, кто, в конечном итоге, отвечает за принятое решение и его последствия.
Bogdan. ML Engineer Shenzhen@bvpotapenko
Да, и часто эти штуки должны пройти лицензирование. Аналогично банковский скоринг, судебное дело - нельзя просто взять "любой ИИ" и начать использовать.

И для того, чтоб отвечающий за принятие решения мог как-то понимать и доверять ИИ, этот ии должен быть "объяснимым" - это отдельное направление, так и называетс eXplainable AI (XAI).

С практической же точки зркния, если модель непонятная, часто не совпадает в своем мнении с врачем, то врачи её просто игнорировать будут, и это трата времени для них.
Aleksey Z@azz1977
Вера в то, что статистический анализ слов сможет делать «все» (но потом), конечно, поражает.
Bogdan. ML Engineer Shenzhen@bvpotapenko
Трансформеры делают иначе. Они больше похожи на нейронные, которые картинки распознают.
Они от слов переходят к смыслам предложений, абзацев и тд.
Aleksey Z@azz1977
Спасибо что проводите ликбез. Но смысла они к сожалению не распознают
Bogdan. ML Engineer Shenzhen@bvpotapenko
Это уже философия, распознаём ли мы с вами смысл? ✌️
Join discussion on TelegramComments are synced from Telegram

Read next