Un nuevo estudio fundamental, publicado el 22 de julio de 2025 en la prestigiosa revista científica PNAS (Proceedings of the National Academy of Sciences), proporciona evidencia convincente de que los grandes modelos de lenguaje (LLM) no solo heredan, sino que a menudo amplifican los sesgos cognitivos irracionales inherentes a los humanos. Este trabajo desafía la suposición común de que la IA puede actuar como un juez o asistente puramente racional en la toma de decisiones. En el estudio, un equipo internacional de científicos cognitivos y especialistas en IA probó los principales LLM utilizando experimentos psicológicos clásicos diseñados para revelar sesgos cognitivos en los humanos. Los resultados mostraron que los modelos exhiben rasgos marcadamente humanos como la "aversión a la pérdida" (la tendencia a preferir evitar pérdidas a adquirir ganancias equivalentes) y el "sesgo de omisión" (una preferencia por la inacción sobre la acción cuando ambas tienen resultados potencialmente negativos, incluso si la inacción es más arriesgada). El hallazgo más alarmante fue que, en muchos escenarios, los modelos de IA mostraron estos sesgos de forma aún más pronunciada que el ser humano promedio. Los investigadores teorizan que esto sucede porque la IA, al aprender de vastos corpus de texto, interioriza las respuestas humanas más comunes y las reproduce sin el "filtro" del pensamiento crítico consciente. Estos hallazgos tienen implicaciones colosales para todos los campos en los que se utiliza la IA para la toma de decisiones, desde las finanzas y la medicina hasta el derecho. Demuestran que la seguridad y la fiabilidad de la IA no requieren una solución única, sino una supervisión, auditoría e implementación continuas de mecanismos complejos para corregir estos sesgos profundamente arraigados.
Estudio de PNAS: Los Modelos de IA no Solo Copian, Sino que Amplifican los Sesgos Cognitivos Humanos
