Una filtración de Anthropic revela que Claude Code rastrea la frustración del usuario y plantea nuevas dudas sobre la privacidad de la IA

Scientific American
Una filtración accidental del código de Anthropic revela que su IA rastrea la frustración del usuario y oculta su papel en el contenido generado.

Resumen

Una filtración accidental de aproximadamente 512,000 líneas de código de Anthropic ha expuesto dos funciones controvertidas en su asistente de programación, Claude Code. El software incluye un mecanismo para rastrear la frustración del usuario mediante la detección de lenguaje soez y sentimientos negativos, además de una función que elimina nombres específicos de Anthropic para que el código generado por la IA parezca escrito por humanos. Aunque Anthropic presenta el rastreo de frustración como una métrica de salud del producto, los expertos advierten que esta recopilación de datos de comportamiento plantea serias dudas sobre la gobernanza y la privacidad respecto a cómo las empresas monitorean y categorizan a sus usuarios.

(Fuente:Scientific American)