首页 >  新闻中心 > 行业新闻

Share - WeChat

  参考消息网3月11日报道 据西班牙《趣味》月刊网站3月8日报道,人工智能(AI)之间的对话通常遵循严格且可预测的规则。一项新研究探索了当这些规则改变时会发生什么:机器竟然开始以更接近人类的方式进行互动。

  能够相互对话的人工智能系统通常以异常僵化的方式运作。每个人工智能体依次等待轮到自己,生成完整回复后才让下一个智能体介入。这种有序模式便于编程和控制,但与真实人类对话的展开方式相去甚远,因为中断、沉默和自发的次序转换是人类顺畅对话的组成部分。

  一个日本研究团队决定探索将更具人性化的行为模式引入人工智能对话系统会产生何种效果。这项研究由日本电气通信大学和产业技术综合研究所的科学家联合进行,为基于大语言模型的智能体提出了全新的讨论框架。其核心理念在于通过融入个性特征和即时决策机制,使对话动态更具灵活性,减少机械化痕迹。

  近年来出现了通过结构化对话进行协作的人工智能系统。多个智能体在其中共同分析问题,交换论点,最终生成联合答案。这种被称为多智能体系统的架构旨在提升语言模型的推理能力并减少错误。

  然而,在多数系统中对话仍遵循高度规整的模式:每个智能体按预设顺序发言,且必须完整表达后才能由其他智能体接续。这种机制虽然便于编程,却也带来重大缺陷:其互动缺乏人类对话特有的即兴性。

  负责该项新研究的团队正是基于这一观察展开探索的。研究团队在论文中指出:“当前的多智能体系统往往被认为缺乏真实感,因其缺少人类对话中那种混乱而实时变化的动态特性。”这一差异促使研究团队提出一个简单却关键的问题:如果机器能以更接近人类的方式进行讨论,是否能得出更优化的集体决策?

  为探索这一可能性,研究团队设计了全新的讨论框架,让多个智能体能更自由地交换观点。智能体不再受严格的次序限制,可自主决定立即发言、等待发言,甚至在无实质内容可贡献时保持沉默。

  该系统引入了此类架构中罕见的元素:源自人类心理学的个性特征。每个智能体都具备基于著名“五大性格特征”模型(开放性、责任感、外向性、亲和力、神经质)的特质,这些特质影响着它们参与对话的方式。

  这些特征并非严格意义上模拟人类情感,而是用于调整智能体在讨论中的行为模式。部分智能体倾向于频繁插话,另一些则采取更审慎的态度,倾听优先于发言。研究团队的目标是创造更丰富多变、更具不可预测性的参与者互动。

  为实现这种动态效果,研究人员还调整了模型处理回应的方式。系统不再预先生成完整消息再发送,而是逐句分析对话内容,从而使一个智能体能实时响应其他智能体的发言。

  该方法引入了“紧急度评分”附加机制,用于判定智能体何时需要介入。如果系统检测到潜在错误或重要论点,紧急度值将上升,智能体即使未到发言轮次也可插话。相反,当数值较低时,智能体可能选择不干预,从而避免用冗余信息淹没对话。

  为评估系统表现,研究人员采用人工智能研究中广泛使用的大规模多任务语言理解基准测试。该测试涵盖自然科学和人文科学等众多领域,用于衡量语言模型的推理能力。

  实验对比了三种不同智能体的讨论模型。第一种,参与者遵循固定发言顺序;第二种,发言顺序动态变化,但每个智能体仍需等待轮到自己发言;第三种,除了动态顺序外,当系统检测到高优先级干预需求时允许打断发言。

  结果显示,三种模型存在显著差异:当某智能体以错误回答开启讨论时,严格轮次制系统的准确率为68.7%,而允许插话的模型准确率提升至79.2%。在更复杂的情境中(即两个智能体均以错误回答开场),后者的准确率同样显著提升。

  结果表明,对话动态直接影响集体推理的质量。当智能体能够立即对错误或相关论点作出反应时,群体能更快纠正失误并得出正确结论。换言之,看似混乱的打断行为反而能促进更高效的讨论。

  此外,引入人格特征有助于在智能体群体中分配角色:部分智能体可专攻错误检测,部分负责论证评估,另一些则专注结论整合,从而催生更丰富高效的讨论动态。

  研究人员指出,下一步是将该框架应用于更复杂的任务,尤其是在创意协作或集体决策场景中。

  正如研究人员在论文中所言,“未来智能体将在协作环境中越来越多地相互交互并与人类互动”,因此通过研究理解社会动态对其行为的影响就显得尤为重要。(编译/刘丽菲)

2022年7月12日,世界互联网大会国际组织正式成立,从互联网领域的国际盛会发展为国际组织,总部设于中国北京。我们将致力于搭建全球互联网共商共建共享平台,推动国际社会顺应信息时代数字化、网络化、智能化趋势,共迎安全挑战,共谋发展福祉,携手构建网络空间命运共同体。