大语言模型遭遇囚徒困境时,会如何决策?目前人工智能在面对复杂决策,特别是涉及到与其他智能体的互动时,依然存在很大的局限性。即使是最先进的大型语言模型(LLM)在处理这些博弈时也面临着计算纳什均衡的挑战,在面对不确定性和噪声时仍存在鲁棒性问题。
如何创建一个理性的基于LLM的智能体?能否通过创新的算法工作流来提高智能体的谈判能力和资源分配效率?针对这些问题,分享嘉宾提出了基于博弈论的工作流:将博弈论作为基础,以理性和帕累托最优性作为两大基本评估指标——即个体是否理性,以及是否基于个体理性得出全局最优解——旨在观察并提升智能体在以自我利益最大化为指导的交互中的表现。
本周日上午10点,
大语言模型与多智能体系统
带来社区福利:来自罗格斯大学的华文越将分享她的最新研究成果,谈谈博弈论在智能体中的应用。欢迎加入一起探索如何设计工作流,来指导智能体面对不同的场景。
-
完全信息博弈
-
LLM在经典博弈中的局限
-
基于经典博弈的工作流设计
-
不完全信息博弈
-
LLM与资源分配博弈实验
-
基于资源分配博弈的工作流设计
-
意外发现
-
未来方向
华文越
,罗格斯大学新布朗斯维克分校在读博士,导师为张永锋老师,研究方向为LLM,LLM-based Agent等。
发表论文在ICLR, NeurIPS, ACL, EMNLP, TACL, EACL等期刊。ARR/EMNLP/SIGIR/WWW/WSDM/RecSys/TORS审核中。
个人主页:https://wenyueh.github.io/。
赵世钰
任沁源
崔金强
[1] Hua W, Liu O, Li L, et al. Game-theoretic LLM: Agent Workflow for Negotiation Games[J].
本次分享将于2024年 12 月 22 日(本周日)上午10:00-11:00在腾讯会议进行,感兴趣的朋友可以扫码参与本次分享,并加入读书会社群。
扫码参与
大模型与多智能体系统读书会
,加入群聊,获取系列读书会回看权限,成为种子用户,与社区的一线科研工作者与企业实践者沟通交流,共同推动多智能体这一前沿领域的发展。