OpenAI y Anthropic Despliegan IA para la Seguridad de Adolescentes y Verificación de Edad

OpenAI y Anthropic Despliegan IA para la Seguridad de Adolescentes y Verificación de Edad
El 19 de diciembre de 2025, OpenAI y Anthropic anunciaron el lanzamiento de nuevos mecanismos para proteger a los usuarios menores de edad. La herramienta principal es un modelo de predicción de edad por IA que analiza los patrones de comunicación del usuario y activa automáticamente un "modo de seguridad para adolescentes" si surgen dudas. En este modo, la IA limita el acceso a temas delicados, refuerza el filtrado de contenido y proporciona sugerencias educativas. Anthropic también confirmó la integración de mecanismos de salvaguardia similares en su modelo Claude.

Este movimiento responde a la creciente presión de los reguladores y el público que exigen un control más estricto sobre el uso de la IA generativa por parte de los niños. La tecnología de predicción de edad evita el requisito estricto de proporcionar identificaciones, manteniendo la privacidad y garantizando al mismo tiempo los niveles de seguridad necesarios. OpenAI señaló que el modo de seguridad para adolescentes se mejorará continuamente en función de los comentarios de educadores y psicólogos. Los expertos creen que estas medidas se convertirán en el estándar de la industria para todos los principales proveedores de servicios de IA en el futuro cercano.

Fuente: The Verge
Seguridad AdolescenteOpenAIAnthropicPredicción de EdadRegulación
« Volver a la Lista de Noticias
Chat