В статье представлен новый фреймворк для анализа интерпретируемости моделей глубокого обучения, основанный на формальном понятии семантики модели из философии науки. Авторы аргументируют, что интерпретируемость является лишь одним из аспектов семантики модели, а не её полным описанием. Исследование иллюстрирует предложенный фреймворк примерами из биомедицинской области, демонстрируя практическую применимость подхода. Работа подчеркивает критическую важность понимания не только того, как работают медицинские ИИ-модели, но и того, что именно они представляют в семантическом смысле. Это особенно актуально для клинической практики, где врачи должны доверять рекомендациям алгоритмов. Фреймворк позволяет систематически анализировать неявные семантические аспекты моделей, которые часто остаются скрытыми при стандартной интерпретации. Статья опубликована в Nature Machine Intelligence, что указывает на высокую научную значимость работы. Подход может способствовать более надежному внедрению ИИ в медицинские приложения за счет улучшения прозрачности и доверия к алгоритмам.