Un grupo no autorizado ha logrado acceder a Mythos, la herramienta de ciberseguridad recientemente anunciada por Anthropic, según reportes publicados esta semana. El acceso no autorizado a Mythos plantea serias preocupaciones sobre la seguridad de este modelo de inteligencia artificial diseñado específicamente para proteger sistemas empresariales, pero que en manos equivocadas podría convertirse en una potente herramienta de hackeo.

Bloomberg informó que miembros de un “foro privado en línea” obtuvieron acceso a la herramienta a través de un proveedor externo de Anthropic. La identidad de los miembros del grupo no ha sido revelada públicamente. El incidente ocurrió el mismo día en que Mythos fue anunciado oficialmente por la compañía.

Investigación en curso sobre el acceso no autorizado a Mythos

Un portavoz de Anthropic confirmó a TechCrunch que la empresa está investigando el reporte sobre acceso no autorizado a Claude Mythos Preview. Según la declaración oficial, hasta el momento no se ha encontrado evidencia de que esta actividad no autorizada haya impactado los sistemas de Anthropic de ninguna manera.

El grupo utilizó múltiples estrategias para obtener acceso al modelo de inteligencia artificial. Según Bloomberg, aprovecharon el acceso que tenía una persona empleada actualmente por un contratista externo que trabaja para Anthropic. Esta persona fue entrevistada por el medio y proporcionó información sobre cómo el grupo logró penetrar las medidas de seguridad.

Detalles del método de acceso y uso del sistema

Los miembros del grupo forman parte de un canal de Discord dedicado a buscar información sobre modelos de IA no lanzados, reportó el medio. El grupo ha estado utilizando Mythos regularmente desde que obtuvo acceso, y proporcionó evidencia a Bloomberg mediante capturas de pantalla y una demostración en vivo del software.

Bloomberg indica que el grupo “hizo una suposición educada sobre la ubicación en línea del modelo basándose en el conocimiento del formato que Anthropic ha utilizado para otros modelos”. Sin embargo, la fuente consultada afirmó al medio que el grupo está “interesado en experimentar con nuevos modelos, no en causar estragos con ellos”.

Contexto del lanzamiento limitado de Mythos

Mythos fue lanzado a un número selecto de proveedores, incluyendo empresas importantes como Apple, como parte de una iniciativa llamada Project Glasswing. El lanzamiento limitado del modelo fue diseñado precisamente para prevenir su uso por actores maliciosos, dado que la herramienta podría ser utilizada contra la seguridad corporativa en lugar de reforzarla, según advirtió Anthropic.

La herramienta de ciberseguridad ha generado considerable atención por su poder y capacidades. No obstante, estas mismas características que la hacen efectiva para proteger sistemas empresariales también la convierten en un objetivo atractivo para quienes buscan explotar vulnerabilidades de seguridad.

Implicaciones para Anthropic y la seguridad empresarial

De confirmarse el acceso no autorizado, el incidente podría representar un problema significativo para Anthropic. La compañía proporcionó el lanzamiento exclusivo precisamente para calmar las preocupaciones sobre seguridad empresarial y demostrar un enfoque responsable en el despliegue de herramientas de inteligencia artificial potencialmente peligrosas.

El caso subraya los desafíos que enfrentan las empresas de tecnología al equilibrar la innovación en inteligencia artificial con la necesidad de mantener controles de acceso rigurosos. Additionally, plantea interrogantes sobre la efectividad de los lanzamientos limitados cuando terceros proveedores están involucrados en la cadena de distribución.

La investigación de Anthropic continúa en curso mientras la compañía evalúa el alcance del acceso no autorizado y revisa sus protocolos de seguridad con proveedores externos. Se espera que la empresa publique actualizaciones sobre sus hallazgos en los próximos días, aunque aún no se ha establecido un cronograma específico. El incidente probablemente llevará a un escrutinio más estricto de las prácticas de seguridad en lanzamientos futuros de herramientas sensibles de inteligencia artificial.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta