Это важнейшая веха в области AI Governance. Модели теперь будут проходить процедуру предрелизного аудита (pre-deployment evaluation) со стороны государственных экспертов. Цель — выявление рисков в области кибербезопасности, создания биологического оружия и системной дестабилизации до того, как алгоритмы станут доступны широкой публике. Индустрия окончательно перешла из фазы свободного стартап-творчества в фазу жесткого государственного контроля, где мощные LLM приравниваются к технологиям двойного назначения.
Источник: Reuters / Department of Commerce
National SecurityAI GovernanceUSARegulationCybersecurity