Исследование, опубликованное в Nature Machine Intelligence, предлагает новый метод решения проблемы чрезмерной уверенности (overconfidence) глубоких нейронных сетей. Авторы Cheon и Paik доказывают, что избыточная самоуверенность моделей обусловлена стандартными практиками инициализации весов. Для решения этой проблемы предлагается метод кратковременного «warm-up» обучения с использованием случайного шума, имитирующий биологические процессы в мозге. Данный подход значительно улучшает калибровку неопределенности и способность моделей к метакогнитивному распознаванию неизвестных входных данных. Внедрение этого метода позволяет нейросетям более точно оценивать степень своей уверенности в правильности ответа, что критически важно для медицинских систем принятия решений. Применение подобных алгоритмов может снизить риски диагностических ошибок, вызванных ложной уверенностью ИИ при столкновении с атипичными клиническими случаями.