Исследование, опубликованное в Nature Machine Intelligence, предлагает новый подход к повышению надежности нейронных сетей путем предварительного обучения на случайном шуме. Авторы обнаружили, что современные модели склонны к чрезмерной самоуверенности (overconfidence) до того, как они сталкиваются с реальными данными. Методология заключается в кратковременном этапе обучения на случайных шумовых паттернах, что позволяет модели «научиться» распознавать неопределенность. Результаты показывают значительное улучшение калибровки предсказаний и более эффективную идентификацию данных, выходящих за пределы распределения (out-of-distribution). Это критически важно для медицинских приложений, где ошибка в оценке уверенности модели может привести к неверной диагностике. Внедрение данного метода позволяет сделать ИИ-системы более предсказуемыми и безопасными при работе в условиях клинической неопределенности.