Según un nuevo estudio, incluso los pequeños chatbots con IA de código abierto pueden ser eficaces persuasores políticos. Los resultados proporcionan un mapa empírico completo de los mecanismos que subyacen a la persuasión política de la IA, revelando que el entrenamiento posterior y las indicaciones, en lugar de la escala del modelo y la personalización, son las palancas dominantes. También revela pruebas de una compensación entre persuasión y precisión, lo que redefine la forma en que los responsables políticos y los investigadores deben conceptualizar los riesgos de la IA persuasiva. Existe una creciente preocupación entre muchos de que los avances en IA, en particular los modelos de lenguaje conversacional (LLM), puedan pronto otorgar a las máquinas un poder de persuasión significativo sobre las creencias humanas a una escala sin precedentes. Sin embargo, se desconoce en gran medida lo persuasivos que son realmente estos sistemas y los mecanismos subyacentes que los hacen tan persuasivos. Para explorar estos riesgos, Kobi Hackenburg y sus colegas investigaron tres cuestiones fundamentales: si los modelos más grandes y avanzados son intrínsecamente más persuasivos; si los modelos más pequeños pueden hacerse muy persuasivos mediante un entrenamiento específico posterior; y en qué tácticas se basan los sistemas de IA cuando intentan cambiar la opinión de las personas. Hackenburg y su equipo llevaron a cabo tres experimentos de encuesta a gran escala en los que participaron casi 77.000 personas que conversaron con 19 modelos LLM diferentes —desde pequeños sistemas de código abierto hasta modelos «pioneros» de última generación— sobre cientos de cuestiones políticas. También probaron múltiples estrategias de incitación, varios métodos posteriores al entrenamiento y evaluaron cómo cada «palanca» afectaba al impacto persuasivo y a la precisión factual. Según los resultados, el tamaño del modelo y la personalización (proporcionar al LLM información sobre el usuario) produjeron efectos pequeños, pero medibles, en la persuasión. Por otro lado, las técnicas posteriores al entrenamiento y las estrategias de incitación simples aumentaron drásticamente la persuasión, hasta en un 51 % y un 27 %, respectivamente. Una vez entrenados, incluso los modelos pequeños de código abierto podían rivalizar con los grandes modelos de vanguardia en el cambio de actitudes políticas. Hackenburg y sus colaboradores descubrieron que los sistemas de IA son más persuasivos cuando ofrecen argumentos ricos en información. Aproximadamente la mitad de la variación en los efectos de persuasión entre los distintos modelos y métodos podía atribuirse a este único factor. Sin embargo, los autores también descubrieron una notable contrapartida: los modelos y las estrategias de incitación que eran eficaces para aumentar la persuasión a menudo lo hacían a expensas de la veracidad, lo que demuestra que la optimización de un modelo de IA para influir puede degradar inadvertidamente la precisión. En un artículo de Perspective, Lisa Argyle analiza este estudio y su estudio complementario, publicado en Nature, con mayor detalle.
Nota especial / artículo relacionado en Nature: Un artículo con autores coincidentes y sobre temas relacionados, «Persuadir a los votantes mediante diálogos entre inteligencia humana y artificial», se publicará en Nature el mismo día y a la misma hora (y estará sujeto a embargo hasta ese mismo día y hora): 14:00 horas del este de EE. UU., el jueves 4 de diciembre. Para consultar el artículo relacionado, visite el sitio web de Nature Press: http://press.nature.com o póngase en contacto con el equipo de la Oficina de Prensa de Nature en press@nature.com.
Journal
Science
Article Title
The levers of political persuasion with conversational artificial intelligence
Article Publication Date
4-Dec-2025