Claude Code de Anthropic obtiene un modo automático 'más seguro'

The Verge
Anthropic lanzó un "modo automático" para Claude Code para gestionar de forma segura las decisiones de nivel de permisos en nombre de los usuarios.

Resumen

Anthropic ha lanzado un "modo automático" para su herramienta Claude Code, que permite a la IA tomar decisiones a nivel de permisos en nombre de los usuarios. Esta característica está diseñada para ofrecer una alternativa más segura entre la supervisión constante y otorgar al modelo niveles peligrosos de autonomía. Si bien Claude Code puede actuar de forma independiente, esta capacidad conlleva riesgos como eliminar archivos, enviar datos sensibles o ejecutar código malicioso. El nuevo modo automático mitiga estos riesgos al señalar y bloquear acciones potencialmente riesgosas, dando al agente la oportunidad de volver a intentarlo o pedir la intervención del usuario. Actualmente, el modo automático solo está disponible como vista previa de investigación para los usuarios del plan Team, y se espera que el acceso se expanda a los usuarios de Enterprise y API en "los próximos días". Anthropic advierte que la herramienta es experimental y "no elimina" por completo el riesgo, recomendando a los desarrolladores usarla en "entornos aislados".

(Fuente:The Verge)