Según un informe de WIRED del 10 y 11 de enero de 2026, OpenAI ha comenzado a pedir a sus contratistas (entrenadores de IA) que carguen "muestras de trabajo reales" de sus empleos anteriores. Estos datos son necesarios para entrenar agentes autónomos para realizar tareas de oficina complejas. Sin embargo, el requisito ha desatado una tormenta de críticas: efectivamente, se está empujando a los empleados a violar acuerdos de confidencialidad y transferir propiedad intelectual de terceros.
Los abogados advierten que el uso de tales datos para el entrenamiento de modelos podría dar lugar a demandas por secretos comerciales. Si un agente de OpenAI aprende a compilar informes financieros basados en datos patentados de una corporación real, crea una bomba de tiempo legal. La situación destaca la escasez de datos de alta calidad para entrenar modelos de razonamiento complejos.
Fuente: WIREDPrivacidadOpenAILegalÉtica de DatosEntrenamiento de IA