专栏名称: 新智元
智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
目录
相关文章推荐
最高人民法院  ·  第九届亚洲冬季运动会在哈尔滨隆重开幕 ... ·  16 小时前  
西安头条  ·  著名导演去世 ·  20 小时前  
最高人民法院  ·  老年公寓迎来“春天” ·  昨天  
第1眼新闻  ·  哪吒,登顶! ·  2 天前  
第1眼新闻  ·  哪吒,登顶! ·  2 天前  
最高人民法院  ·  “这次机会,我会好好珍惜” ·  3 天前  
51好读  ›  专栏  ›  新智元

跨平台多模态智能体基准测试来了!但全班第一只考了35.26分

新智元  · 公众号  ·  · 2024-08-06 18:38

主要观点总结

近日,来自CAMEL AI、KAUST、CMU、斯坦福、清华等高校和机构的研究人员推出了一个跨平台的多模态智能体基准测试CRAB,涉及多模态、多智能体和跨平台能力。CRAB提供了一个全面的交互式的任务评估框架,并引入了一种新型的图评估器来评估多智能体系统的表现。该基准测试包括100个真实世界的任务,旨在更准确地反映多智能体系统在复杂任务中的表现。

关键观点总结

关键观点1: 跨平台多模态智能体基准测试CRAB的推出

涉及多模态、多智能体和跨平台能力;旨在评估多智能体系统在现实场景中的表现

关键观点2: CRAB的特点

提供了全面的交互式的任务评估框架;引入了新型的图评估器来评估多智能体系统的表现;包含多种评估指标如完成率、执行效率和成本效率等。

关键观点3: CRAB的应用

可用于评估多智能体系统在真实场景中的表现,如跨平台任务执行、多轮对话处理等。

关键观点4: 实验内容和结果

在Crab Benchmark-v0中运行多模态模型,选择满足标准的多模态模型进行实验,并给出了部分实验结果。


正文



新智元报道

编辑:alan 好困
【新智元导读】 近日,来自CAMEL AI、KAUST、CMU、斯坦福、清华等高校和机构的研究人员推出了一个跨平台的多模态智能体基准测试,全面覆盖了Agent系统的真实工作场景。

生成式人工智能取得更快进展的一个障碍是评估。

——吴恩达

假如你目前正在使用和研究类似CAMEL的多智能体系统,现在已经有了扮演研究者的Agent和负责写论文的Agent,再添加一个事实核查Agent会改善结果吗?

如果无法有效评估这种更改的影响,就很难确定前进的方向。

当然,从另一个角度来说,有一个令人信服的基准测试用来给大家刷分也是很重要的(狗头)。

近日,来自CAMEL AI、KAUST、清华等高校和机构的研究人员推出了一个跨平台的多模态智能体基准测试——CRAB。

值得一提的是,CAMEL AI团队最早做出了基于 大语言模型的多智能体开源项目 :https://www.camel-ai.org/、https://github.com/camel-ai/camel。

论文地址:https://arxiv.org/abs/2407.01511

这个Benchmark涉及当前AI应用的几个重点:多模态、多智能体和跨平台。

多模态能力就不用说了,毕竟是现实需求。

而多智能体系统则能够更好的为人类服务,解决更佳复杂的任务。

对于跨平台,可以举个例子:比如用手机拍完照片,然后发到电脑上P图,这就需要跨越了两种操作系统(平台)。

所以,多模态、多智能体和跨平台,是当下AI打工人能够完成真实场景下的复杂任务所必备的能力。

上图展示了CRAB的总体架构,同时也是多智能体系统基准测试的工作流程。

通过将指令分配给基准测试系统内的主Agent和图评估器,来初始化任务。

工作流是一个循环:主Agent观察、计划和指示子Agent,子Agent在各自的平台中执行操作。

图评估器监控平台中任务的状态,在整个工作流中不断更新和输出任务完成指标。

总的来说,CRAB是一个与现实世界情况密切相关的基准测试,能够更准确地反映多智能体系统在复杂任务中的表现。

那么,在这种要求甚高的测试中,最强大的一些模型能考多少分呢?

——答:全班第一考了35.26分(CR指的是完成率)。

其实还行,毕竟是突击考试。而现在靶子已经画好了,可以期待今后的模型或者AI系统进化出更贴近现实的能力。

跨平台多模态智能体评估

Crab提供了一个全面的交互式的任务评估框架,Agent需要在各种设备和平台上同时运行,满足在不同系统中高效完成任务的条件。

作者提出了一种称为图评估器的新型评估方法,与传统的基于目标或者轨迹的方法不同,图评估器通过检查完成任务的中间过程将任务分解为多个子目标。

每个子目标都被分配了一个判断函数来验证其完整性,并且每个节点都被视为图评估器中的一个节点。

图结构描述了子目标之间的顺序和并行关系,因此提供了细粒度的指标,同时又适应多种解决方案。

上表将Crab与现有框架进行了比较,包括测试涉及的几项关键能力:

Interactive Environment区分是使用交互式平台还是静态数据集;


Multimodal Observation指定了基于视觉的观察(例如屏幕截图)的可用性;


Cross-platform表示支持多个操作系统或平台;


Evaluation描述了评估指标,分为基于目标(仅根据最终目标检查平台状态)、基于轨迹(将Agent操作轨迹与标准操作序列进行比较)、多重(因任务而异)或基于图(每个节点作为中间检查点的 DAG);


Task Construction展示了任务构建方法,包括人工制作、LLM启发(比如LLM生成任务草稿,但由人工验证和注释)、模板(填写任务模板中的空白)或子任务组合(组成多个子任务以构建任务和评估器)。

基于Crab框架,作者开发了一个基准测试Crab Benchmark-v0,支持Android环境和Ubuntu环境。

基准测试总共包含100个真实世界的任务,包括跨平台和单平台跨多个难度级别的任务。

任务涉及各种常见问题,以及实际应用程序和工具,包括但不限于日历、电子邮件、地图、网络浏览器、和终端,以及智能手机和台式机之间的常见交互。

框架

假设Agent在数字设备(比如台式机)上自主执行任务。这种设备通常有输入设备(鼠标和键盘)用于人机交互,以及输出设备(屏幕)来允许人类观察其状态。

作者将这种类型的设备表示为一个平台。在形式上可以定义为一个无奖励的部分可观测马尔可夫决策过程(POMDP),用元组M:=(S,A,T,O)表示。

其中S表示状态空间,A表示动作空间,T:S×A→S是转移函数,O是观测空间。

考虑到现实场景中多个设备的协作性质,可以将多个平台组合成一个集合M=M1,M2,...,Mn,其中n是平台的数量,每个平台Mj=(Sj,Aj,Tj,Oj)。

定义一个需要跨多个平台操作的任务,该任务被形式化为一个元组(M,I,R),其中M是平台集合,I是以自然语言指令的形式表示的任务目标,R是任务的奖励函数。

系统中的Agent使用预定义的系统提示、并保留其对话历史记录。

Agent系统由负责规划、推理和执行操作的单个Agent组成,或者由多个Agent进行协作。

把复杂任务分解为多个更简单的子任务,是让Agent系统能够更加精准的完成复杂任务的方法之一。

研究人员将这一概念引入基准测试领域,将复杂任务分解为具有顺序和并行连接的子任务,也就是上图中的分解任务图(GDT)。

GDT提供了一种新的任务分解方法:用DAG结构表示分解后的子任务。在GDT中,每个节点都是一个子任务,形式化为一个元组(m,i,r),其中m指定了执行子任务的平台,i提供了自然语言指令,r表示奖励函数。

这个函数评估m的状态并输出一个布尔值,以确定子任务是否完成。GDT中的边表示子任务之间的顺序关系。

跨平台

与单一平台任务相比,跨平台任务有三个主要优势:

首先,跨平台任务反映了现实世界场景,人类同时使用多个设备来完成任务。

其次,这些任务需要在平台之间进行复杂的消息处理和信息传递,要求Agent规划行动、为每个平台构建输出,并记住需要传递的内容,从而展示出对现实世界的高层次理解,和解决复杂任务的能力。

最后,多Agent系统被证明在执行复杂任务时更加有效,而跨平台任务非常适合多Agent系统,因为它们可以通过每个平台中不同的观测空间、行动空间和专门知识进行划分。

Crab使用统一接口允许Agent在所有平台中操作。作者通过名称、所属平台、功能的具体描述和参数来定义一个动作。

Agent必须在每个回合提供动作名称、参数和目标平台。Crab将动作转换为相应的功能,并通过网络将其路由到物理或虚拟设备。

图评估器







请到「今天看啥」查看全文


推荐文章
西安头条  ·  著名导演去世
20 小时前
最高人民法院  ·  老年公寓迎来“春天”
昨天
第1眼新闻  ·  哪吒,登顶!
2 天前
第1眼新闻  ·  哪吒,登顶!
2 天前
最高人民法院  ·  “这次机会,我会好好珍惜”
3 天前
译言  ·  精美杂志书签等你来拿!
8 年前
经济学人集团  ·  【智库分析】英国退欧对中国影响有限
7 年前
每日读报  ·  朋友圈里点赞最高的照片!
7 年前