El problema con los LLM actuales es el exceso de confianza: generan alucinaciones con el mismo aplomo que los hechos. La arquitectura del MIT resuelve este problema matemáticamente. El modelo está entrenado para calcular su propio grado de incertidumbre. Si los datos de entrada del paciente no son estándar o son anómalos, el algoritmo bloquea la emisión de un diagnóstico final y pide abiertamente al médico pruebas adicionales o información aclaratoria. Este es un paso fundamental de una IA sabelotodo a un asistente digital confiable que conoce los límites de su competencia y observa el principio de "no hacer daño".
Fuente: MIT News / BMJ Health
CienciaMedicinaMITIA HumildeSeguridad