La empresa bloqueó la cuenta de un usuario por violar las políticas de seguridad, pero no lo notificó a las fuerzas del orden. Posteriormente, ese individuo llevó a cabo un tiroteo. El incidente altera fundamentalmente el panorama legal para los desarrolladores de IA. Si bien la moderación solía tratar solo de evitar la generación de deepfakes o código tóxico, ahora se espera que los propietarios de LLM participen en un monitoreo proactivo y se comuniquen con la policía, a la par de los estándares de los operadores de telecomunicaciones y las redes sociales. Para OpenAI, este es un golpe reputacional masivo que inevitablemente conducirá a políticas KYC/AML más estrictas para acceder a modelos como GPT-5.5.
Fuente: OpenAI / Reuters / AP
Seguridad de IAOpenAISociedadLeyRegulación