多人工智能协作有助于大型语言模型的推理和事实准确性

作者:瑞秋·戈登|麻省理工学院CSAIL     时间:2023-09-19 13:07:38

在我们成长的岁月里,有一句古老的格言经常被介绍给我们,旨在推动我们超越以自我为中心的新生思维:“三个臭皮匠胜过一个诸葛亮。”这句谚语鼓励合作思维,强调共享智慧的力量。

快进到2023年,我们发现这种智慧即使在人工智能领域也适用:多种语言模型协同工作,比一个更好。

最近,麻省理工学院计算机科学与人工智能实验室(CSAIL)的一个团队在现代技术的前沿体现了这一古老的智慧。他们引入了一种策略,利用多个人工智能系统相互讨论和争论,以得出给定问题的最佳答案。这种方法使这些扩展的语言模型能够提高它们对事实数据的依从性,并改进它们的决策。

大型语言模型(llm)问题的关键在于它们生成的响应不一致,从而导致潜在的不准确和有缺陷的推理。这种新方法让每个智能体主动评估其他智能体的反应,并使用这种集体反馈来完善自己的答案。用技术术语来说,该过程由多轮响应生成和批评组成。每种语言模型都会生成给定问题的答案,然后结合来自所有其他代理的反馈来更新自己的响应。这个迭代循环在模型解决方案的多数投票的最终输出中达到高潮。它在某种程度上反映了小组讨论的动态——在小组讨论中,每个人都有助于得出一个统一的、合理的结论。

 该方法的一个真正优势在于它可以无缝地应用于现有的黑盒模型。由于该方法围绕生成文本展开,因此它也可以跨各种llm实现,而无需访问其内部工作原理。该团队表示,这种简单性可以帮助研究人员和开发人员使用该工具来全面提高语言模型输出的一致性和事实准确性。

 “采用一种新颖的方法,我们不会简单地依靠单一的人工智能模型来获得答案。相反,我们的流程使用了大量的AI模型,每个模型都带来了解决问题的独特见解。“虽然他们最初的回答可能看起来被截断或可能包含错误,但这些模型可以通过仔细审查对手提供的回答来提高和改进自己的答案,”麻省理工学院电子工程和计算机科学博士生、麻省理工学院CSAIL附属机构、一篇关于这项工作的新论文的第一作者杜一伦说。“随着这些人工智能模型参与讨论和审议,它们能够更好地识别和纠正问题,提高解决问题的能力,并更好地验证其响应的准确性。从本质上讲,我们正在培养一种环境,迫使他们更深入地研究问题的症结。这与单一的、孤立的人工智能模型形成鲜明对比,后者经常模仿互联网上发现的内容。然而,我们的方法会积极刺激人工智能模型,以制定更准确、更全面的解决方案。”

这项研究着眼于数学问题的解决,包括小学和初中/高中的数学问题,并发现通过多智能体辩论过程可以显著提高学生的表现。此外,语言模型还展示了生成精确算术计算的增强能力,说明了跨不同领域的潜力。

这种方法还可以帮助解决经常困扰语言模型的“幻觉”问题。通过设计一个环境,让代理人互相批评对方的反应,他们更有动力避免吐出随机信息,优先考虑事实的准确性。

除了将其应用于语言模型之外,该方法还可以用于集成具有专门功能的各种模型。通过建立一个分散的系统,让多个代理进行交互和辩论,他们可以在各种形式(如语音、视频或文本)中使用这些全面而有效的解决问题的能力。

虽然该方法取得了令人鼓舞的结果,但研究人员表示,现有的语言模型在处理非常长的上下文时可能面临挑战,而且批评能力可能没有预期的那么完善。此外,受人类群体互动启发的多主体辩论形式,尚未纳入更复杂的讨论形式,有助于智能集体决策——这是未来探索的关键领域,研究小组说。推进这项技术可能需要更深入地了解人类辩论和讨论背后的计算基础,并使用这些模型来增强或补充现有的法学硕士。

这种方法不仅为提高现有语言模型的性能提供了途径,而且还提供了一种自我完善的自动手段。通过利用辩论过程作为监督数据,语言模型可以自主增强其真实性和推理能力,减少对人类反馈的依赖,并提供一种可扩展的自我完善方法。”“随着研究人员不断完善和探索这种方法,我们可以更接近未来,语言模型不仅模仿人类语言,而且还表现出更系统和可靠的思维,开创语言理解和应用的新时代。”

加州大学伯克利分校电子工程与计算机科学系副教授安卡·德拉甘(Anca Dragan)没有参与这项研究,他说:“使用审议过程来改善模型的整体输出非常有意义,这是从思维链提示迈出的一大步。”“我对未来的发展感到兴奋。当人们看到法学硕士们的深思熟虑时,他们是否能更好地判断出答案,无论他们是否趋同?通过法学硕士的思考,人们能得出更好的答案吗?是否可以使用类似的想法来帮助用户探索法学硕士的答案,从而得出更好的答案?”

杜与CSAIL的三位成员共同完成了这篇论文:李爽SM '20, PhD '23;麻省理工学院电子工程和计算机科学教授Antonio Torralba;麻省理工学院计算认知科学教授、大脑、思维和机器中心成员约书亚·特南鲍姆。谷歌DeepMind研究员伊戈尔·莫达奇也是该研究的合著者。


作者:瑞秋·戈登|麻省理工学院CSAIL

链接:https://news.mit.edu/2023/multi-ai-collaboration-helps-reasoning-factual-accuracy-language-models-0918

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

声明:海森大数据刊发或者转载此文只是出于传递、分享更多信息之目的,并不意味认同其观点或证实其描述。若有来源标注错误或侵犯了您的合法权益,请作者与本网联系,我们将及时更正、删除,谢谢。电话:152 6451 3069,邮箱:1027830374@qq.com

联系我们
咨询反馈