Anthropic is having a month
Resumen
Anthropic, conocida por su enfoque cauteloso del desarrollo de la IA, ha sufrido dos filtraciones de datos públicas en una semana. La primera filtración, reportada el jueves pasado, expuso casi 3,000 archivos internos, incluyendo una publicación de blog borrador sobre un nuevo modelo. Más recientemente, la versión 2.1.88 de Claude Code incluyó accidentalmente casi 2,000 archivos de código fuente y más de 512,000 líneas de código, revelando el plano arquitectónico del producto. Un investigador de seguridad llamado Chaofan Shou lo notó casi de inmediato y lo publicó en X. La declaración de Anthropic a varios medios fue indiferente, como suele ser: “Este fue un problema de empaquetado de la versión causado por un error humano, no una violación de seguridad”. (Internamente, suponemos que las cosas fueron menos mesuradas). Claude Code no es un producto menor. Es una herramienta de línea de comandos que permite a los desarrolladores usar la IA de Anthropic para escribir y editar código, y se ha vuelto lo suficientemente formidable como para inquietar a los rivales. Según el WSJ, OpenAI detuvo su producto de generación de video Sora solo seis meses después de lanzarlo al público para reenfocar sus esfuerzos en desarrolladores y empresas, en parte en respuesta al creciente impulso de Claude Code. Lo que se filtró no fue el modelo de IA en sí, sino el andamiaje de software que lo rodea: las instrucciones que le dicen al modelo cómo comportarse, qué herramientas usar y cuáles son sus límites. Los desarrolladores comenzaron a publicar análisis detallados casi de inmediato, y uno describió el producto como “una experiencia de desarrollador de nivel de producción, no solo un wrapper alrededor de una API”.
(Fuente:TechCrunch)