Anthropic ha lanzado una nueva funcionalidad llamada “auto mode” para su asistente de inteligencia artificial Claude, diseñada para permitir que el sistema tome decisiones autónomas sobre qué acciones ejecutar sin requerir aprobación humana constante. Según la compañía, esta actualización busca equilibrar la eficiencia del desarrollo con la seguridad, eliminando la necesidad de que los programadores supervisen cada paso o arriesguen dejar que el modelo opere sin control alguno.
La nueva característica se encuentra actualmente en fase de vista previa de investigación, lo que significa que está disponible para pruebas pero aún no es un producto finalizado. El modo automático de Claude representa el último intento de Anthropic por resolver uno de los dilemas centrales en el desarrollo con inteligencia artificial: la tensión entre velocidad y supervisión.
Cómo funciona el modo automático de Claude
El auto mode utiliza salvaguardas de inteligencia artificial que revisan cada acción antes de ejecutarla, verificando comportamientos riesgosos que el usuario no solicitó y buscando señales de inyección de prompts. Este tipo de ataque ocurre cuando instrucciones maliciosas se ocultan en el contenido que la IA está procesando, provocando acciones no deseadas.
Las acciones consideradas seguras proceden automáticamente, mientras que aquellas identificadas como riesgosas son bloqueadas. En esencia, la función es una extensión del comando existente “dangerously-skip-permissions” de Claude Code, que delega toda la toma de decisiones a la inteligencia artificial, pero con una capa adicional de seguridad incorporada.
Sin embargo, Anthropic no ha detallado los criterios específicos que su capa de seguridad utiliza para distinguir acciones seguras de las riesgosas. Este aspecto representa una información que los desarrolladores probablemente necesitarán comprender mejor antes de adoptar la funcionalidad de manera generalizada.
Contexto en la industria del desarrollo con IA
Esta actualización refleja una tendencia más amplia en la industria, donde las herramientas de inteligencia artificial se diseñan cada vez más para actuar sin esperar aprobación humana. La característica se construye sobre una ola de herramientas de codificación autónoma de compañías como GitHub y OpenAI, que pueden ejecutar tareas en nombre del desarrollador.
No obstante, el modo automático de Claude va un paso más allá al trasladar la decisión de cuándo solicitar permiso del usuario a la propia inteligencia artificial. Este cambio marca una evolución significativa en cómo los sistemas de IA interactúan con los flujos de trabajo de desarrollo de software.
Lanzamientos recientes de Anthropic
El auto mode llega después del lanzamiento de Claude Code Review por parte de Anthropic, un revisor automático de código diseñado para detectar errores antes de que lleguen al código base. Adicionalmente, la compañía introdujo Dispatch for Cowork, que permite a los usuarios enviar tareas a agentes de IA para que las manejen en su nombre.
Estos desarrollos demuestran el compromiso de Anthropic con la automatización progresiva de tareas de desarrollo, manteniendo simultáneamente mecanismos de control y seguridad.
Implementación y recomendaciones de seguridad
El modo automático se implementará para usuarios Enterprise y API en los próximos días, según anunció la compañía. Actualmente, la funcionalidad solo es compatible con Claude Sonnet 4.6 y Opus 4.6, las versiones más recientes del modelo.
Anthropic recomienda utilizar la nueva característica en “entornos aislados”, configuraciones sandbox que se mantienen separadas de los sistemas de producción. Esta precaución limita el daño potencial en caso de que algo salga mal durante la ejecución autónoma de tareas.
A medida que el auto mode avance desde su fase de vista previa hacia una implementación más amplia, será crucial observar cómo los desarrolladores responden a esta autonomía aumentada. La aceptación de la funcionalidad dependerá en gran medida de la transparencia sobre los criterios de seguridad y del rendimiento del sistema en escenarios reales de desarrollo. Los próximos meses revelarán si este enfoque de automatización selectiva establece un nuevo estándar en la industria o si los desarrolladores prefieren mantener mayor control directo sobre las decisiones de sus herramientas de IA.

