Anthropic acusa a DeepSeek y a otras empresas chinas de usar Claude para entrenar su IA
Resumen
Anthropic ha acusado a tres empresas chinas de IA – DeepSeek, MiniMax y Moonshot – de utilizar indebidamente su modelo de IA Claude para mejorar sus propios productos a través de un proceso llamado “destilación”, donde un modelo más pequeño se entrena con la salida de uno más grande. Anthropic afirma que estas empresas crearon aproximadamente 24,000 cuentas fraudulentas y realizaron más de 16 millones de interacciones con Claude. Si bien la destilación es un método de entrenamiento legítimo, Anthropic argumenta que se utilizó ilícitamente para adquirir capacidades avanzadas de forma rápida y económica. La compañía expresa su preocupación de que los modelos entrenados de esta manera no incluyan las salvaguardias de seguridad existentes, lo que podría permitir que los gobiernos autoritarios utilicen la IA de vanguardia para fines dañinos, como ciberataques y vigilancia. En particular, DeepSeek es acusada de apuntar a las capacidades de razonamiento de Claude y generar respuestas que evadan la censura sobre temas políticos delicados. Anthropic insta a sus colegas de la industria, a los proveedores de la nube y a los legisladores a abordar este problema, sugiriendo medidas como el acceso restringido a los chips para limitar la destilación ilícita.
(Fuente:The Verge)