Исследование оценивает возможности ChatGPT-4o в предоставлении образовательного контента по диабету. Эксперты-эндокринологи подтвердили высокую точность и качество ответов, однако отметили чрезмерную сложность языка, которая может затруднить понимание пациентами с низким уровнем грамотности.
Национальное поперечное исследование 587 итальянских врачей оценило их знания, отношение и клиническое согласие с диагностическими рекомендациями, сгенерированными ИИ (ChatGPT). Исследование использовало валидированный онлайн-опросник для оценки самоотчётных знаний об ИИ, предыдущего опыта, отношения и готовности внедрять ИИ в медицину. Вторая часть оценки измеряла клиническое согласие между предложениями врачей и ChatGPT по клиническим случаям. Результаты показали, что 64,8% участников сообщили о базовых знаниях об ИИ, но только 18,4% имели опыт обучения ИИ. Лишь 21,6% использовали ИИ в клинической практике, при этом наиболее знакомым применением была диагностическая визуализация (35,4% пользователей ИИ, 7,7% общей выборки). Основными воспринимаемыми барьерами стали отсутствие обучения (76,7%) и сопротивление изменениям (50,9%). В универсальном клиническом сценарии врачи показали наивысшее согласие с правильным диагнозом ChatGPT (среднее = 4,07) по сравнению с неправильными альтернативами (2,57 и 1,82, p < 0,001). Для правильного диагноза уровень согласия составил 89% [86%-91%].
Статья анализирует запуск ChatGPT Health от OpenAI как важный момент для индустрии здравоохранения, смещая фокус с технологических ограничений на вопросы юридической ответственности, управления данными и клинической подотчётности. OpenAI позиционирует инструмент как вспомогательный слой для помощи людям в понимании медицинских записей и подготовке к разговорам с врачами, а не как замену медицинской помощи — инструмент явно не предназначен для диагностики или лечения. Автор подчёркивает, что сотни миллионов людей уже задают ИИ-системам вопросы о здоровье и загружают медицинские записи, содержащие высокочувствительную информацию. Ключевой тезис статьи: когда персональные медицинские данные начинают поступать в общие ИИ-системы, профиль рисков кардинально меняется, так как здравоохранение — это регулируемая экосистема, где некорректная обработка информации может причинить реальный вред. Статья поднимает критические вопросы: кто несёт ответственность, если модель выдаст неверную интерпретацию? Где хранятся данные и кто имеет к ним доступ? Что произойдёт при утечке или misuse чувствительной информации? Автор утверждает, что в регулируемых средах любая система, обрабатывающая данные пациентов, становится частью клинической поверхности риска независимо от первоначального намерения. В заключение отмечается, что основным ограничением здравоохранения является не недостаток интеллекта, а отсутствие согласованной инфраструктуры.