News Release

研究揭示了驱动 AI 聊天机器人政治说服力的“杠杆”

Summary author: Walter Beckwith

Peer-Reviewed Publication

American Association for the Advancement of Science (AAAS)

新的研究表明,即使是小型开源的 AI 聊天机器人也可成为有效的政治说客。这些发现提供了一幅完整的有关 AI 政治说服机制的实证图景,揭示了后训练和提示(而非模型规模与个性化功能)才是真正的主导因素。该研究还揭示了说服力与准确性难以两全的证据,这一发现将重新定义决策者和研究人员该如何构想具说服力 AI 的风险。许多人日益担心,AI 的进步——尤其是对话式大型语言模型(LLMs)的发展——可能很快就会赋予机器空前强大的对人类信念的影响力。然而,这些系统的说服力究竟有多强,以及其背后的运作机制究竟如何,在很大程度上仍属未知。为钩沉索隐,Kobi Hackenburg 与同事就三个核心问题展开了研究:模型更为庞大先进是否天然具备更强的说服力;能否有针对性地通过后训练提高小型模型的说服力以及 AI 系统在试图改变人们想法时会仰仗哪些策略。Hackenburg 等人开展了三项大规模问卷实验,组织了近 7.7 万名参与者与 19 种不同的 LLM 模型(从小型开源系统到最先进的“前沿”模型)就数百个政治议题进行对话。他们同时检验了多种提示策略与数种后训练方法,评估了每种“控制杠杆”会如何影响说服效果与事实准确性。研究结果显示,模型规模与个性化(即 LLM 提供用户信息)对说服效果的影响虽小,但可被量化。而后训练技术与简易提示策略则能大幅提升说服力:增幅分别高达 51% 和 27%。小型开源模型一旦经过后训练,其在改变政治态度方面也足以比肩大型前沿模型。Hackenburg 等人发现,当 AI 系统在提供信息丰富的论点时,其说服力最强。在不同模型与方法中,约半数说服效果的差异性可归因于这一关键因素。然而,作者也发现了一个显著的不可兼得现象:那些能有效提升说服力的模型与提示策略往往会以牺牲真实性为代价;表明若为增强 AI 影响力而优化模型可能会无意中降低其准确性。Lisa Argyle 在一篇《视角》中更为详细地讨论了这项研究及其在《自然》杂志上发表的配套研究。

 

特别说明/《自然》杂志相关文章:一篇作者重合且主题相关的文章:《运用人机对话策略说服选民》 将在同一天和同一时间在《自然》杂志同步发表(其禁止提前发布指令解除的日期与时间也相同):美国东部时间 12 月 4 日(周四)下午 2 点。如需了解该相关论文,请访问《自然》新闻网站:http://press.nature.com或联系《自然》新闻办公室团队:press@nature.com


Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.