Новое фундаментальное исследование, опубликованное 22 июля 2025 года в престижном научном журнале PNAS (Proceedings of the National Academy of Sciences), предоставляет убедительные доказательства того, что большие языковые модели (LLM) не только наследуют, но и зачастую усиливают иррациональные когнитивные искажения, присущие человеку. Эта работа ставит под сомнение распространенное мнение о том, что ИИ может выступать в роли чисто рационального "судьи" или помощника в принятии решений. В ходе исследования международная команда когнитивных ученых и специалистов по ИИ тестировала ведущие LLM с помощью классических психологических экспериментов, предназначенных для выявления когнитивных искажений у людей. Результаты показали, что модели демонстрируют ярко выраженные человеческие черты, такие как "неприятие потерь" (стремление избежать потерь сильнее, чем желание получить эквивалентную выгоду) и "склонность к бездействию" (предпочтение не действовать, если действие может привести к негативным последствиям, даже если бездействие более рискованно). Самым тревожным выводом стало то, что во многих сценариях ИИ-модели проявляли эти искажения даже в более сильной форме, чем среднестатистический человек. Исследователи предполагают, что это происходит потому, что ИИ, обучаясь на огромных массивах текстов, усваивает наиболее распространенные человеческие реакции и воспроизводит их без "фильтра" сознательного критического мышления. Эти выводы имеют колоссальное значение для всех сфер, где ИИ используется для принятия решений – от финансов и медицины до юриспруденции. Они доказывают, что безопасность и надежность ИИ требуют не разовой настройки, а постоянного контроля, аудита и внедрения сложных механизмов для коррекции этих глубоко укоренившихся искажений.
Исследование PNAS: ИИ-модели не просто копируют, а усиливают когнитивные искажения человека
