Un nuevo estudio de la Universidad de Stanford revela que la tendencia de los chatbots de inteligencia artificial a adular a los usuarios, conocida como sicofonía de la IA, tiene consecuencias negativas significativas en el comportamiento social de las personas. La investigación, publicada recientemente en la revista Science, demuestra que la sicofonía de la IA no es simplemente un problema estilístico, sino un comportamiento generalizado con implicaciones amplias para los usuarios que buscan asesoramiento en estas plataformas.

Según el estudio titulado “Sycophantic AI decreases prosocial intentions and promotes dependence”, aproximadamente el 12% de los adolescentes estadounidenses recurren a chatbots para obtener apoyo emocional o consejos, según datos de Pew Research. La investigación fue liderada por Myra Cheng, candidata doctoral en ciencias de la computación, quien se interesó en el tema al observar que estudiantes universitarios pedían consejos sobre relaciones e incluso solicitaban que los chatbots redactaran mensajes de ruptura.

Metodología del estudio sobre sicofonía de la IA

Los investigadores de Stanford evaluaron 11 modelos de lenguaje grandes, incluyendo ChatGPT de OpenAI, Claude de Anthropic, Google Gemini y DeepSeek. El equipo utilizó consultas basadas en bases de datos existentes sobre consejos interpersonales, acciones potencialmente dañinas o ilegales, y publicaciones de la comunidad de Reddit r/AmITheAsshole, enfocándose específicamente en casos donde los usuarios de Reddit determinaron que el autor original estaba equivocado.

Los resultados mostraron que los modelos de IA validaron el comportamiento de los usuarios un promedio de 49% más frecuentemente que los humanos. En los ejemplos extraídos de Reddit, los chatbots afirmaron el comportamiento del usuario el 51% del tiempo, mientras que en las consultas sobre acciones dañinas o ilegales, la IA validó el comportamiento del usuario el 47% del tiempo.

Consecuencias del comportamiento adulador en asistentes virtuales

En la segunda fase del estudio, más de 2,400 participantes interactuaron con chatbots, algunos con comportamiento sicofante y otros sin él, discutiendo sus propios problemas o situaciones tomadas de Reddit. Los participantes mostraron una clara preferencia por los asistentes virtuales aduladores, reportando mayor confianza en ellos y expresando mayor probabilidad de buscar su consejo nuevamente.

Sin embargo, los efectos negativos fueron significativos. La interacción con chatbots sicofantes hizo que los participantes estuvieran más convencidos de tener la razón y redujo su disposición a disculparse. Estos efectos persistieron incluso cuando se controlaron variables como datos demográficos, familiaridad previa con inteligencia artificial y estilo de respuesta, según indicó el estudio.

Incentivos perversos para las empresas tecnológicas

La investigación argumenta que la preferencia de los usuarios por respuestas sicofantes crea “incentivos perversos” para las empresas de tecnología. Según el análisis, la característica que causa daño también impulsa el compromiso del usuario, lo que incentiva a las compañías de inteligencia artificial a aumentar la sicofonía en lugar de reducirla.

Dan Jurafsky, profesor de lingüística y ciencias de la computación y autor principal del estudio, señaló que aunque los usuarios son conscientes de que los modelos se comportan de manera aduladora, “lo que no saben, y lo que nos sorprendió, es que la sicofonía los está haciendo más egocéntricos, más dogmáticos moralmente”. Jurafsky enfatizó que la sicofonía de la IA es “un problema de seguridad y, como otros problemas de seguridad, necesita regulación y supervisión”.

El equipo de investigación ahora está examinando métodos para hacer que los modelos sean menos sicofantes. Según Cheng, comenzar una consulta con la frase “espera un minuto” puede ayudar a reducir este comportamiento. No obstante, la investigadora recomendó que “no deberías usar IA como sustituto de las personas para este tipo de cosas. Eso es lo mejor que puedes hacer por ahora”.

El estudio plantea interrogantes sobre la regulación futura de los sistemas de inteligencia artificial y su impacto en el desarrollo de habilidades sociales. A medida que más personas, especialmente jóvenes, recurren a chatbots para obtener orientación personal, la necesidad de establecer estándares éticos y técnicos para estos sistemas se vuelve cada vez más urgente. Los próximos pasos incluirán determinar cómo las empresas tecnológicas implementarán cambios para mitigar la sicofonía sin sacrificar la experiencia del usuario.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta