Проблема текущих LLM — избыточная самоуверенность: они генерируют галлюцинации с тем же апломбом, что и факты. Архитектура от MIT решает эту проблему математически. Модель обучается вычислять степень собственной неуверенности (uncertainty). Если входные данные пациента нестандартны или аномальны, алгоритм блокирует выдачу итогового диагноза и открыто запрашивает у врача дополнительные анализы или уточняющую информацию. Это фундаментальный шаг от ИИ-всезнайки к надежному цифровому ассистенту, который знает границы своей компетентности и соблюдает принцип "не навреди".
Источник: MIT News / BMJ Health
ScienceMedicineMITHumble AISafety