Исследование представляет SELFormerMM — новую мультимодальную архитектуру глубокого обучения для вычислительного открытия лекарств. В отличие от существующих моделей, использующих только одномерные представления (последовательности или графы), SELFormerMM объединяет четыре источника данных: SELFIES-нотации молекул, структурные графы, текстовые описания и биологические взаимодействия из графов знаний. Авторы демонстрируют, что согласование этих гетерогенных представлений позволяет модели улавливать комплементарные сигналы, которые одномерные подходы упускают. Оценка производительности показала превосходство SELFormerMM над структура-, последовательность- и knowledge-based моделями на множестве задач предсказания свойств молекул. Аблиционные эксперименты подтвердили, что эффективная кросс-модальная выравнивание и покрытие модальностей критически важны для извлечения дополнительной информации из данных. Доступность инструмента через GitHub с датасетами, предобученными моделями и вычисленными эмбеддингами делает метод практически применимым для исследовательских групп. Разработанный подход обеспечивает более богатые представления молекул и открывает перспективы для гипотезно-ориентированного открытия новых лекарственных соединений.