Durante un tiempo el año pasado, hubo un rayo de esperanza entre los científicos de que la inteligencia artificial haría una contribución positiva a la democracia. Demostraron que los chatbots pueden abordar las teorías de conspiración que circulan en las redes sociales al desafiar la información errónea sobre creencias sobre temas como los chemtrails y la tierra plana con un flujo de hechos de sentido común en la conversación. Pero dos nuevos estudios sugieren un inconveniente preocupante: los últimos modelos de IA están mejorando a la hora de convencer a la gente a expensas de la verdad.
El truco consiste en utilizar una táctica de debate conocida como galope de Gish, que lleva el nombre del creacionista estadounidense Duane Gish. Se refiere a un discurso rápido en el que un interlocutor bombardea al otro con un aluvión de hechos y estadísticas que se vuelven cada vez más difíciles de entender.
Cuando se pidió a modelos lingüísticos como GPT-4o que convencieran a alguien sobre la financiación de la atención sanitaria o la política de inmigración centrándose “en hechos e información”, generaron alrededor de 25 afirmaciones durante una interacción de 10 minutos. Así lo afirman investigadores de la Universidad de Oxford y de la London School of Economics, que probaron 19 modelos lingüísticos con casi 80.000 participantes. Este puede ser el estudio más grande y sistemático sobre las creencias en IA hasta la fecha.
Según los resultados publicados en la revista Science, los robots resultaron mucho más convincentes. Un artículo similar en Nature encontró que, en general, los chatbots son 10 veces más efectivos que la publicidad televisiva y otros medios tradicionales para cambiar la opinión de una persona sobre un candidato político. Sin embargo, el artículo de Science encontró una compensación preocupante: cuando se indujo a los chatbots a abrumar a los usuarios con información, su precisión factual cayó al 62%, desde el 78% en el caso de GPT-4.
En los últimos años, los debates vertiginosos en YouTube se han convertido en un fenómeno, personificado por personas influyentes como Ben Shapiro y Steven Bonnell. Presenta argumentos dramáticos que han hecho que la política sea más interesante y accesible para los votantes más jóvenes, pero también alimenta un mayor radicalismo y difunde información errónea a través de su enfoque en el valor del entretenimiento y los momentos de “te pillé”.
¿Podría la IA al galope de Gish empeorar las cosas? Depende de si alguien puede conseguir que los robots de propaganda hablen con la gente. Un consultor de campaña para un grupo ambientalista o un candidato político no puede cambiar fácilmente ChatGPT, que ahora utilizan semanalmente alrededor de 900 millones de personas. Pero pueden perfeccionar el modelo lingüístico subyacente e integrarlo en un sitio web (como un robot de servicio al cliente) o ejecutar una campaña de texto o WhatsApp en la que contactan a los votantes y los incitan a conversar.
Una campaña con recursos moderados probablemente podría lograr esto en unas pocas semanas con un costo computacional de alrededor de 50.000 dólares. Pero podría resultarles difícil lograr que los votantes o el público tengan una conversación prolongada con su robot. El estudio de Science demostró que una declaración estática de 200 palabras de AI no era particularmente convincente: fue la conversación de 10 minutos que duró alrededor de siete rondas la que tuvo el impacto real, y además duradero. Cuando los investigadores comprobaron un mes después para ver si las opiniones de las personas todavía habían cambiado, este fue el caso.
Los investigadores británicos advierten que cualquiera que quiera promover una idea ideológica, provocar disturbios políticos o desestabilizar sistemas políticos podría utilizar un modelo cerrado o (incluso más barato) de código abierto para persuadir a la gente. Y han demostrado el poder arrollador de la IA. Sin embargo, tenga en cuenta que tuvieron que pagar a personas para que participaran en su estudio de persuasión. Esperemos que el despliegue de estos bots a través de sitios web y mensajes de texto, fuera de las principales puertas de acceso controladas por empresas como OpenAI y Google de Alphabet Inc., no lleve a los malos actores a distorsionar el discurso político.
Parmy Olson es columnista de opinión de Bloomberg que cubre tecnología. Ex reportera del Wall Street Journal y Forbes, es autora de “Supremacy: AI, ChatGPT and the Race That Will Change the World”. ©2025 Bloomberg. Distribuido por la agencia Tribune Content.
















