
Ученые Оксфордского университета обнаружили серьезный разрыв в коммуникации между пользователями и медицинскими чат-ботами. Исследование с участием 1300 британцев показало, что люди, использующие ИИ для диагностики, принимают не более обоснованные решения, чем те, кто полагается на обычный поиск в интернете или собственную интуицию.
Участники эксперимента работали с различными моделями искусственного интеллекта, включая GPT-4o и Llama 3. Результаты оказались тревожными: пользователи чат-ботов реже выявляли потенциальные заболевания и чаще недооценивали их серьезность.

«Обратная связь от чат-ботов часто смешивала разумные советы с сомнительными рекомендациями», — отметил Адам Махди, соавтор исследования и директор по исследованиям в Оксфордском интернет-институте.
Проблема кроется в двух аспектах: пользователи не знают, какую информацию нужно предоставить ИИ, а сами чат-боты выдают ответы, которые трудно интерпретировать. Это создает опасный цикл неэффективного взаимодействия, который может привести к неправильным медицинским решениям.
Несмотря на риски, рынок медицинских чат-ботов стремительно растет. В 2024 году его объем оценивается в 269,38 миллиона долларов, а к 2025 году достигнет 315,12 миллиона. Прогнозы указывают на дальнейший рост до почти миллиарда долларов к 2032 году.
Медицинское сообщество призывает к осторожности и рекомендует врачам воздерживаться от использования чат-ботов для принятия клинических решений. Даже крупные компании, разрабатывающие ИИ, предупреждают о рисках самодиагностики на основе ответов чат-ботов.

Эксперты указывают на несколько ключевых проблем: конфиденциальность данных пациентов, предвзятость алгоритмов и отсутствие четкой ответственности за ошибки. «Кто будет отвечать в случае ошибки: лечащий врач, больница, поставщик оборудования или компания-разработчик алгоритма?» — задаются вопросом исследователи.
Тим Лоулесс, глобальный руководитель здравоохранения в Publicis Sapient, подчеркивает: «Хотя ИИ может быстро обрабатывать и анализировать большие объемы данных, их интерпретация все еще требует человеческого контроля для обеспечения точности».
Махди из Оксфордского университета предлагает решение: «Системы чат-ботов должны проходить тестирование в реальных условиях перед внедрением, аналогично клиническим испытаниям новых лекарств». Только так можно будет гарантировать безопасность и эффективность ИИ в здравоохранении.
Но несмотря на результаты исследования, все больше медицинских организаций предпочитают внедрять ИИ в свою работу. Например, в Китае открылась первая в мире больница с виртуальными врачами, рассказали об этом в статье.