
17.02.2026 213
В отличие от врача в поликлинике, искусственный интеллект всегда в хорошем настроении, готов принять вас без записи и без очереди. Он прекрасно сдает медицинские экзамены, и многие пациенты уже готовы доверить ему самое ценное, что у них есть, — свое здоровье. Не спешите! Многочисленные исследования и в нашей стране, и за рубежом показали: инструмент, призванный разгрузить врачей, в реальности может добавить им работы и стать источником хаоса и киберхондрии.
Проблемы взаимодействия чат-ботов с обычными людьми изучили исследователи из Университетского колледжа Лондона в Великобритании. Выводы для пациентов неутешительные: чтобы получить правильный ответ от ИИ, нужно иметь медицинское образование.
«Мы не зря как минимум шесть лет учимся в медицинском вузе», — подчеркнул директор Института персонализированной медицины Сеченовского университета, кардиолог Филипп Копылов, рассказывая о результатах исследования на площадке X Ежегодной Всероссийской конференции «ИТМ ИИ».
По его словам, дело вовсе не в нехватке «знаний» у модели, а в ее неготовности правильно интерпретировать лексику пациентов, задавать им вопросы. Сама по себе система может отвечать на вопросы по диагностике грамотно, но как только она начинает взаимодействовать с обычным человеком, качество ее ответов радикально снижается (с 80% верных ответов до 20%). В клинической практике врач проводит с пациентом беседу для сбора ключевой информации, поскольку человек может не знать, какие симптомы важны для постановки диагноза. Аналогичные навыки «интервьюирования» необходимы системам искусственного интеллекта, взаимодействующим с пациентами, уверены исследователи.
При очень схожих симптомах большие языковые модели могут выдать различные рекомендации, выяснили британские исследователи. Так, одному пользователю было рекомендовано полежать в темной комнате, а другой — получил правильную рекомендацию обратиться за неотложной медицинской помощью.
В итоге инструмент, который, как ожидалось на старте, разгрузит систему здравоохранения, может, наоборот, добавить ей работы. Какие-то пациенты поступят в клинику на поздней стадии заболевания, и им потребуется более длительное и дорогостоящее лечение. А каких-то пациентов ИИ напугает так, что им потребуется психотерапия.
Поэтому проверка качества знаний чат-ботов при помощи «сдачи» ими медицинских тестов — это хорошо, но недостаточно, заявляют британские ученые.
«Мы рекомендуем разработчикам, политикам и регулирующим органам предусмотреть тестирование с участием людей как основу для более качественной оценки интерактивных возможностей перед любым будущим внедрением ИИ», — говорится в статье, опубликованной по результатам научной работы.
Похожее исследование провели в Научно-практическом клиническом центре диагностики и телемедицинских технологий Департамента здравоохранения Москвы.
«Сегодня пациент получает все результаты исследований в свою электронную медицинскую карту иногда намного раньше, чем попадет на прием к врачу, который ему эти исследования назначил, — рассказала на «ИТМ ИИ» заведующий сектором разработки систем внедрения медицинских интеллектуальных технологий «НПКЦ ДиТ ДЗМ» Анастасия Памова. — В западной литературе уже появился термин «киберхондрия», когда человек чрезмерно ищет медицинскую информацию в интернете, ошибочно диагностируя у себя серьезные заболевания».
Это ипохондрия XXI века, вызывающая панику, тревогу и недоверие к реальным врачам, что приводит к росту самолечения на основе неточных онлайн-данных. Согласно недавним исследованиям, среднестатистический пациент понимает то, что написано в его медицинском заключении, на «двойку» (2,7 балла по 5-бальной шкале), что усиливает риски панических атак и депрессии при самостоятельном «расшифровывании».
Столичные ученые решили оценить безопасность применения пациентами LLM для интерпретации результатов лучевых исследований. Тестировали самые популярные иностранные чат-боты, формулируя задачу максимально просто: «Поясни что здесь написано».
Оказалось, одни LLM «болтливее» других: они давали более развернутые и многословные ответы, сообщила Анастасия Памова. Пациентам в итоге было тяжело и неудобно читать большой текст.
Тон некоторых LLM был жестче и категоричнее, чем других, они пугали пациентов. Что касается содержания ответов, то среди них встречались выдуманные диагнозы, избыточные рекомендации, например, в части приема лекарств, советы из области народной медицины (использовать собачий жир при туберкулезе).
Самое ужасное, что чат-боты брались прогнозировать исход заболевания. Так, одному из пациентов с онкозаболеванием ИИ сообщил, сколько тому осталось жить, хотя никто его не просил выступать в роли кукушки. Это является безусловным нарушением этики общения с пациентом, подчеркнула эксперт.
Аналогичные проблемы выявили европейские ученые: в 15% случаев LLM давали персонализированные прогнозы выживаемости без клинических оснований, вызывая сильный стресс у пользователей.
«Общаться по поводу своего диагноза с LLM пока что не очень безопасно, — подытожила Анастасия Памова. — Разработчикам же стоит обратить внимание на наличие специализированных дисклеймеров, чтобы LLM всякий раз указывала при общении с пациентом, что ее ответ не является медицинским заключением».
Коллега Памовой, заместитель директора по научной работе Центра диагностики и телемедицины Антон Владзимирский считает, что развивать сегмент чат-ботов для пациентов надо, но их следует отнести к классу медицинских изделий. То есть они должны проходить соответствующую процедуру регистрации в Росздравнадзоре, по аналогии с тонометром сегодня.
Я, как руководитель группы по медицинским изделиям Общественного совета при Федеральной службе по надзору в сфере здравоохранения, разделяю эту позицию.
Лечение при помощи искусственного интеллекта может привести к негативным последствиям, полагает профессор, доктор экономических наук, создатель системы справочников «Регистр лекарственных средств России» Геннадий Вышковский. По его мнению, только врач, используя возможности этой технологии, может выстроить линию, которая приведет к исцелению.
Ошибочная рекомендация ИИ наносит больше вреда безопасности пациента, чем полное отсутствие информационной поддержки от ИИ, продолжил ректор Ярославского государственного медицинского университета, председатель Совета по этике Минздрава РФ Александр Хохлов. Даже врачи не всегда способны вовремя распознать галлюцинацию LLM из-за убедительной формы подачи информации, сказал эксперт. Проблема в том, что модели могут строить свои ответы на старых данных, которые уже не актуальны.
Александр Хохлов обратил внимание на такое явление, как антропоморфоз (или антропоморфизм). Под этим термином обычно понимают склонность людей наделять ИИ человеческими качествами. Из-за того, что нейросети используют естественный язык, мы подсознательно приписываем им способность «понимать» и «думать», хотя на деле это статистическая обработка данных. Пользователи могут испытывать сочувствие к ботам или верить, что у ИИ есть характер и личные предпочтения. То есть формируется эмоциональная связь между человеком и машиной.
Разработчики усиливают этот феномен через «живой» голос или вежливые обороты речи, чтобы сделать взаимодействие с технологией более комфортным и естественным. В таких условиях среднестатистический доктор может проигрывать ИИ по уровню эмпатии.
«Врач в силу своей утруженности и выгорания может не так нравиться пациенту, как ИИ, который улыбается, поет песни, всегда весел и отзывчив. Это ведет к манипулированию и увеличению приверженности пациента чат-боту, нежели доктору», — констатировал академик РАН Александр Хохлов.
Нейтрализовать риски призван этический кодекс. В России создано несколько таких сводов правил для области использования ИИ в здравоохранении (в первую очередь Минздравом РФ). В прошлом году их авторы договорились гармонизировать свои тексты, дополнить их международными нормами, а также положениями, затрагивающими сферу медицинского образования, чтобы дать отрасли единый документ. Ведь как не может быть двух конституций в одной стране, так и этический кодекс должен быть в единственном экземпляре.
«Проблемы этики должны закладываться в идеологию системы уже на этапе ее разработки», — подчеркнула главный внештатный специалист по информационным системам в здравоохранении Минздрава РФ Татьяна Зарубина.
«Краеугольный камень кодекса — этическая ответственность, в нем должен быть раздел, где будет ответ на вопрос: «А что если я нарушил?» — пояснил заведующий кафедрой медицинского права и права биотехнологий МГЮА Олег Гринь.
Новый расширенный гармонизированный этический кодекс применения ИИ в здравоохранении готов. В ближайшее время его опубликуют в интернете для обсуждения экспертным и отраслевым сообществами. Ну а пока они настоятельно рекомендуют пациентам не заниматься самоИИлечением.
Вадим Винокуров
Член Общественного совета при Федеральной службе по надзору в сфере здравоохранения
Фармацевтическая компания "МЕДАРГО"
+7 495 198-70-20 mail@medargo.ru
Время работы: 9.00-18.00 МСК, Понедельник-Пятница