今年共有3篇论文摘下杰出论文桂冠,其中一篇是南京大学周志华团队出品,另外两篇分别颁给了多伦多大学和波尔多大学等机构的学者。
作为AI领域A类顶会之一,AAAI从1979年起每年举办一次,今年是第39届年会,于2月25日-3月4日在美国费城举办。
今年,共收到12957篇有效投稿,接收3032篇,录用率为23.4%,其中Oral论文占比4.6%。和去年相较,并没有太大差异(录用率23.75%)。
AAAI还公布了一份「AI研究未来」91页报告,覆盖了AI领域17大议题,包含了机器人、智能体等,成为全球AI研究的另一个风向标。
还有吴恩达亲临现场,发表了「人工智能、智能体和应用」最前沿的演讲。
题目:Efficient Rectification of Neuro-Symbolic Reasoning Inconsistencies by Abductive Reflection
作者:
Wen-Chao Hu(胡文超), Wang-Zhou Dai(戴望州), Yuan Jiang(姜远), Zhi-Hua Zhou(周志华)
论文地址:https://arxiv.org/abs/2412.08457
在南大周志华团队带领这篇研究中,在神经-符号(NeSy)AI上取得了新的突破,即让AI像人类一样「反思」自己的错误。
神经-符号AI就像是人类双系统的认知过程,这个双系统也就是我们熟知的「思考,快与慢」一书中提出的原型。
一个是用神经网络模拟直觉型的系统1,另一个是用符号推理模拟分析型的系统2。
然而,对于复杂的学习目标,NeSy系统常常生成与领域知识不一致的输出,且这些错误很难被纠正。
人类厉害的一个地方在于,能够迅速发现直觉反应中的错误,并通过启动系统2的推理过程进行纠正。
受到人类认知反思能力的启发,南大团队提出了基于溯因学习(Abductive Learning,ABL)框架引入溯因式反思(ABL-Refl)来改进NeSy系统。
ABL-Refl利用领域知识在训练过程中构建反思向量,该向量能够在推理阶段标记神经网络输出中的潜在错误,并触发溯因推理机制来纠正这些错误,从而生成与领域知识一致的输出。
与之前的ABL实现相比,ABL-Refl效率显著提高。
实验结果表明,ABL-Refl在性能上超越了目前最先进的NeSy方法,不仅达到了出色的准确率,还减少了训练资源需求,提升了整体效率。
题目:Every Bit Helps: Achieving the Optimal Distortion with a Few Queries
作者:Soroush Ebadian, Nisarg Shah
论文地址:https://www.cs.toronto.edu/~nisarg/papers/value-queries.pdf
在多智能体系统中,有一项基本任务:如何将n个智能体合理地匹配到n个选项,比如资源或任务?
通常,这是通过获取智能体对选项的序数排序(而非其确切数值效用)来实现的。
虽然这简化了信息获取过程,但不完整的信息会导致效率低下,这可以通过一种称为「失真」的最坏情况度量来衡量。
最近的一系列研究表明,如果稍微多问智能体一些问题,获取少量关于基数效用(cardinal utility)的查询,可以显著改善失真程度。
其中来自英国埃塞克斯大学等机构的研究通过对每个智能体进行两次查询,实现了
的失真。
多伦多大学的研究人员,将如上实验的结果进行了推广,证明对于任何常数λ,通过对每个智能体进行λ次查询,可以实现
的失真,这在Peeking Behind the Ordinal Curtain: Improving Distortion via Cardinal Qeries给出的先前下界基础上是最优的。
此外,他们还将研究扩展到一般社会选择问题,即必须根据n个智能体的偏好从m个选项中选择一个。
结果表明,对于任何常数λ,通过每个智能体进行λ次查询,可以实现
的失真,这在先前结果的基础上也是最优的。
因此,对于这两个问题,最新研究解决了关于使用固定数量基数值查询可实现的最优失真的开放问题。
题目:Revelations: A Decidable Class of POMDPs with Omega-Regular Objectives
作者:
Marius Belly, Nathanaël Fijalkow, Hugo Gimbert, Florian Horn, Guillermo Perez, Pierre Vandenhove
论文地址:https://arxiv.org/abs/2412.12063
部分可观察马尔可夫决策过程(POMDPs),是序列决策制定中处理不确定性的一个重要模型。
波尔多大学等机构在最新研究中,通过构建具有理论保证的算法,以确定智能体是否拥有能以概率1满足给定规范的策略。
这个被广泛研究的问题已被证明,即使对于非常简单的ω-正则目标也是不可判定的,主要原因在于对不确定事件进行推理的固有困难。
针对这一问题,作者引入了一种信息揭示机制,通过要求智能体几乎必然地最终能获得关于当前状态的完整信息,从而限制信息损失。
最新主要技术成果是为两类POMDP(称为弱揭示型和强揭示型)构建了精确算法。
重要的是,这些可判定的情况可以简化为对有限信念支撑马尔可夫决策过程的分析。这为大类POMDP提供了一个概念上简单且精确的算法解决方案。