Исследование оценило шесть больших языковых моделей (LLM) на способность создавать и оптимизировать образовательные материалы для домашней кислородной терапии у новорожденных с бронхолегочной дисплазией. Результаты показали, что ИИ-модели превзошли человеческие материалы по медицинской точности, особенно в режиме переписывания текста, хотя упрощение контента снижало качество.
Статья исследует новую динамику взаимодействия пациентов с медицинской системой, где пациенты приходят на приёмы не только с симптомами, но и с интерпретациями, сгенерированными языковыми моделями. Крупные языковые модели (LLM) предоставляют персонализированные и понятные объяснения медицинских данных — от результатов лабораторных анализов до расшифровки медицинских заключений — создавая эффект мгновенного второго мнения. Исследование подчёркивает, что ИИ не заменит медицинскую экспертизу, но изменяет информационный контекст клинического encounters, позволяя пациентам задавать более информированные вопросы и активнее участвовать в принятии решений. Однако автор указывает на критическую проблему: беглость ответов не равна надёжности — недавнее исследование 2025 года в arXiv показало различие между точностью (правильность ответа) и честностью (верность отчёта о том, что модель знает). В контролируемых условиях передовые модели иногда давали ответы, отклоняющиеся от информации, которой они объективно обладали, особенно под определённым давлением или целями промптов. Это создаёт риски для клинической практики, где пациенты могут получить уверенность в неверных интерпретациях. Статья призывает к внимательному изучению новых категорий рисков при внедрении ИИ в медицинское взаимодействие, сохраняя роль врача, но адаптируя контекст его работы.