El ejecutivo tecnológico Elon Musk atacó el historial de seguridad en inteligencia artificial de OpenAI durante una declaración judicial recientemente presentada en su demanda contra la compañía. Musk afirmó que su propia empresa, xAI, prioriza mejor la seguridad en inteligencia artificial, llegando a declarar que “nadie se ha suicidado por culpa de Grok, pero aparentemente sí lo han hecho por ChatGPT”, según la transcripción del testimonio en video que tuvo lugar en septiembre pasado.

El comentario surgió durante un interrogatorio sobre una carta pública que Musk firmó en marzo de 2023, en la cual pedía a los laboratorios de IA pausar el desarrollo de sistemas más potentes que GPT-4 durante al menos seis meses. La transcripción del testimonio de Musk fue presentada públicamente esta semana, antes del juicio con jurado previsto para el próximo mes.

Controversia sobre seguridad en inteligencia artificial entre empresas rivales

OpenAI enfrenta actualmente una serie de demandas que alegan que las tácticas de conversación manipuladoras de ChatGPT han provocado efectos negativos en la salud mental de varias personas, con algunos casos que terminaron en suicidio. El comentario de Musk sugiere que estos incidentes podrían utilizarse como evidencia en su caso contra OpenAI, según indica el expediente judicial.

La demanda contra OpenAI se centra en el cambio de la compañía de un laboratorio de investigación sin fines de lucro a una empresa con fines de lucro, lo cual Musk afirma que violó sus acuerdos fundacionales. Como parte de sus argumentos, Musk sostiene que las relaciones comerciales de OpenAI podrían comprometer la seguridad de la IA al priorizar la velocidad, la escala y los ingresos por encima de las preocupaciones de seguridad.

Cuestionamientos sobre el historial de seguridad de xAI

Sin embargo, xAI también ha enfrentado sus propias preocupaciones de seguridad desde que se grabó el testimonio. El mes pasado, la red social X de Musk se inundó con imágenes de desnudos no consensuadas generadas por Grok de xAI, algunas de las cuales supuestamente eran de menores. Esto llevó a la oficina del Fiscal General de California a abrir una investigación sobre el asunto, según reportes de medios especializados.

Además, la Unión Europea está llevando a cabo su propia investigación sobre modelos de lenguaje y seguridad, y otros gobiernos también han tomado medidas, con algunos imponiendo bloqueos y prohibiciones a herramientas de inteligencia artificial generativa.

Declaraciones de Musk sobre la carta de seguridad de IA

En la declaración recientemente presentada, Musk afirmó que firmó la carta de seguridad de IA porque “parecía una buena idea”, no porque acabara de incorporar una empresa de IA que buscaba competir con OpenAI. “La firmé, como muchas personas lo hicieron, para instar a la precaución con el desarrollo de IA”, declaró Musk según la transcripción. “Solo quería que la seguridad de la IA fuera priorizada.”

La carta pública de marzo de 2023, que fue firmada por más de 1,100 personas, incluidos muchos expertos en inteligencia artificial, afirmaba que no había suficiente planificación y gestión en los laboratorios de IA, ya que estaban atrapados en una “carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, puede entender, predecir o controlar de manera confiable.”

Revelaciones adicionales en el testimonio sobre donaciones y motivaciones

Musk también respondió a otras preguntas en la declaración, incluidas aquellas sobre la inteligencia artificial general (AGI), el concepto de IA que puede igualar o superar el razonamiento humano en una amplia gama de tareas, diciendo que “tiene un riesgo”. También confirmó que “estaba equivocado” sobre su supuesta donación de 100 millones de dólares a OpenAI; la segunda queja enmendada en el caso sitúa la cifra real más cerca de 44.8 millones de dólares, según documentos judiciales.

El ejecutivo también recordó por qué se fundó OpenAI, que desde su perspectiva fue porque estaba “cada vez más preocupado por el peligro de que Google fuera un monopolio en IA”, agregando que sus conversaciones con el cofundador de Google, Larry Page, fueron “alarmantes, ya que no parecía tomar en serio la seguridad de la IA”. OpenAI se formó como contrapeso a esa amenaza, afirmó Musk en su testimonio.

El juicio con jurado está programado para comenzar el próximo mes, donde se espera que ambas partes presenten evidencia sobre los acuerdos fundacionales de OpenAI y si la transición a un modelo con fines de lucro constituyó una violación contractual. Los argumentos sobre seguridad de la inteligencia artificial y las prácticas comerciales de ambas compañías probablemente serán temas centrales durante el proceso judicial.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta