Emil Michael, alto funcionario tecnológico del Departamento de Defensa de Estados Unidos, ha vuelto a ser el centro de atención debido al conflicto en curso con Anthropic. Una entrevista en podcast publicada recientemente ofrece una mirada detallada a su postura sobre esta disputa con Anthropic, además de revelar resentimientos persistentes de su etapa en Uber. El funcionario dejó claro que no ha olvidado ni perdonado su salida forzada de la compañía de transporte compartido en 2017.

La entrevista, difundida el lunes y realizada el mes pasado por Joubin Mirzadegan, socio de Kleiner Perkins, fue grabada antes de que el enfrentamiento con Anthropic alcanzara su punto crítico. Sin embargo, las declaraciones de Michael sobre su partida de Uber captaron atención inmediata por su tono franco y sin filtros.

La salida forzada de Uber y el resentimiento persistente

Cuando Mirzadegan le preguntó directamente si había sido despedido junto a Travis Kalanick, Michael respondió con una sola palabra: “Efectivamente”. El ejecutivo renunció ocho días antes que Kalanick, como parte de las consecuencias de una investigación laboral desencadenada por acusaciones de acoso sexual y discriminación de género en la empresa.

Aunque Michael no fue nombrado en esas acusaciones, la investigación liderada por el ex Fiscal General Eric Holder concluyó que debía ser removido. Kalanick fue forzado a renunciar posteriormente en lo que The New York Times describió como una revuelta de accionistas liderada por inversores prominentes como Benchmark. “Nunca olvidaré eso, ni lo perdonaré”, afirmó Michael cuando se le preguntó si seguía resentido.

Según Michael, la decisión de los inversores de forzar su salida fue motivada por el deseo de proteger ganancias a corto plazo en lugar de construir algo duradero. Tanto él como Kalanick creían que la conducción autónoma era el futuro de Uber, y que los inversores que los expulsaron mataron esa visión estratégica.

El conflicto con Anthropic y las restricciones en inteligencia artificial

En la misma entrevista, Michael abordó la disputa del Departamento de Defensa con Anthropic, proporcionando su perspectiva sobre las negociaciones que eventualmente colapsaron. Según el funcionario, Anthropic es uno de los pocos proveedores de modelos de lenguaje grandes aprobados por el departamento, en parte a través de sus asociaciones con Palantir.

Michael argumentó que el Departamento de Defensa ya opera bajo una red densa de leyes, regulaciones y políticas internas. “Lo que no puedo hacer es permitir que ninguna empresa imponga sus propias preferencias de política sobre las leyes y sobre mis políticas internas”, explicó, utilizando una analogía con Microsoft Office para ilustrar su punto.

El funcionario fue más allá al invocar un hallazgo publicado por la propia Anthropic el mes pasado. Según Michael, empresas tecnológicas chinas habían estado accediendo repetidamente a los modelos de Anthropic mediante una técnica llamada destilación, que permite replicar las capacidades del modelo mediante ingeniería inversa.

Implicaciones de seguridad nacional y acceso militar

Michael señaló que, bajo las leyes de fusión civil-militar de China, esto daría al Ejército Popular de Liberación acceso a algo funcionalmente equivalente al modelo completo y sin restricciones de Anthropic. Mientras tanto, el Departamento de Defensa trabajaría con una versión limitada por las propias directrices de la empresa. “Estaría con un brazo atado a mi espalda contra un modelo de Anthropic completamente capaz, en manos de un adversario”, afirmó Michael. “Es totalmente orwelliano”.

La disputa ha escalado desde entonces de la mesa de negociaciones a los tribunales. El Secretario de Defensa Pete Hegseth declaró a Anthropic como un “riesgo de cadena de suministro” a finales de febrero, y el gobierno presentó un escrito de 40 páginas en el Tribunal de Distrito de Estados Unidos para el Distrito Norte de California la semana pasada.

El escrito gubernamental argumenta que dar a Anthropic acceso a la infraestructura de guerra del Departamento de Defensa introduciría un “riesgo inaceptable” porque la compañía teóricamente podría desactivar o alterar su propia tecnología según sus intereses en lugar de los del país durante un conflicto. Anthropic respondió el viernes con declaraciones juradas que desafían estas afirmaciones, argumentando que el caso del gobierno se basa en malentendidos técnicos.

Una audiencia está programada para el martes en San Francisco, donde se espera que el tribunal evalúe los argumentos de ambas partes. El resultado podría establecer precedentes importantes sobre cómo las empresas de inteligencia artificial interactúan con agencias de defensa y los límites de las restricciones éticas en contratos gubernamentales de alto nivel.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta