专栏名称: 微言创新
“微言创新”由上海科学院规划研究处和上海产业技术研究院战略咨询中心共同出品,专注产业创新领域研究。言微意未尽,集智求创新。
目录
相关文章推荐
51好读  ›  专栏  ›  微言创新

美国最新国家人工智能战略

微言创新  · 公众号  ·  · 2019-09-02 20:00

正文

编者按

这两天,上海召开第二届全球人工智能大会,各路英雄大佬们和黑科技登台亮相,好不热闹!那么,在大洋彼岸的美国,如何发展人工智能战略呢?

美国2019最新国家人工智能(AI)战略是在2016年发布的第一个美国AI研发战略计划的基础上,通过征询民间反馈,以及许多领先的学术研究机构,非营利组织和科技企业的AI研究人员、研究管理人员的反馈而进行的更新,并考虑了三年来出现的新研究,技术创新等,以反映当前的最新技术水平。

下图是整体战略的总体结构图。底部一行是影响所有AI系统发展的跨领域研发基础,中间一行是推动AI发展所需的许多研究领域。顶部一行的方框是预计将受益于AI进步的应用示例。其中战略1-7是2016年确定的,仍然继续保持,战略8为2019年新增。

图1  AI研发战略规划结构图

战略重点

战略1:对人工智能基础研究进行长期投资。
重点领域有:推进以数据为中心发现知识的方法学;增强AI系统的感知能力;了解AI的理论能力和局限性;研究通用AI;开发可扩展的AI系统;促进类人AI的研究;开发更强大和更可靠的机器人;推动硬件针对AI的优化;为硬件建立AI系统以改进硬件。
启动了的研发计划有:
(1)美国国家科学基金会(NSF)资助的AI基础研究:机器学习(ML),推理和标识,计算机视觉,计算神经科学,语音和语言,机器人和多智能体系统。与美国国防高级研究计划局(DARPA)联合支持用于实时机器学习的高性能、高效率的硬件。与美国食品与农业研究院(USDA-NIFA)联合支持用于工业与农业用途的AI。此外,NSF还利用数据革命大理念支持研究数据科学,认为数据科学将作为未来ML和AI系统的驱动力。
(2)DARPA的“AI NEXT”计划:主要包括提高AI系统的稳健性和可靠性;加强ML / AI技术的安全性和弹性;提高功耗,数据和性能的效率;并探索下一代AI算法和应用,例如可解释性和常识推理。
(3)美国国立卫生研究院(NIH)2018年9月的数据科学战略计划:旨在促进生物医学研究界获得数据科学技术和ML / AI能力,以实现数据驱动的医疗保健研究。


战略2:为人类与人工智能协作开发有效的方法。

加强对如何创建有效补充和增强人类能力的AI系统的理解。重点领域有:探寻人类感知AI的新算法;开发增强人类能力的AI技术;开发可视化和人机界面技术;开发更高效的语言处理系统。
启动了的研发计划有:
(1)NSF正在支持社会技术研究,使智能技术与人类协同合作,实现员工的广泛参与,并在一系列工作环境中能改善社会,经济和环境效益。
(2)NOAA(国家海洋和大气管理局)正在推进飓风,龙卷风和其他恶劣天气预报方面的人工智能合作。
(3)NIH正在基于美国国家医学图书馆所有MEDLINE(国际性综合生物医学信息书目数据库)引文中提取的9630万个信息组成的数据库进行自然语言处理研究。
(4)2019年美国能源部关于科学机器学习的研讨会报告确定了优先研究方向,主要科学用例以及人类与人工智能合作将改变科学研究方式的新趋势。


战略3:理解并解决人工智能的道德,法律和社会影响。

通过技术机制研究包含道德、法律和社会问题的人工智能系统。这需要技术专家以及其他领域的利益相关者和专家之间的密切合作,包括社会和行为科学,法律,道德和哲学。这种跨学科方法可以纳入AI的培训,设计,测试,评估和实施,以便理解和解释AI引起的决策和行动,并减轻意外后果。重点领域有:通过设计提高公平性、透明度和问责制;建立符合道德的AI;设计符合伦理的AI架构。
启动了的研发计划有:
(1)DARPA的Explainable AI (XAI)计划:旨在创建一套ML技术,在保持高水平学习绩效(预测精度)的同时,产生更多可解释的AI系统。XAI还将使人类用户能够理解,适当地信任并有效地管理新一代AI系统。更广泛地说,国防部承诺将“引领军事道德和人工智能安全”作为指导其加速采用人工智能系统的战略方法中列出的五项关键行动之一。
(2) NSF和亚马逊正在合作共同支持以人工智能公平为重点的研究:其目标是支持值得信赖的人工智能系统开发,这些系统易于接受和部署,以应对社会面临的重大挑战。感兴趣的具体主题包括但不限于透明度,可解释性,问责制,策略,公平性验证和包容性考虑。


战略4:确保AI系统的安全性。

必须在AI系统生命周期的所有阶段(从初始设计和数据/模型构建,到验证和验证,部署,操作和监控)考虑AI系统的安全性和安全性,而不仅仅是在设计阶段。必须开发方法以确保AI的创建,评估,部署和控制的安全性。评估这些方法需要新的指标,控制框架和基准,以测试和评估日益强大的系统的安全性。方法和指标都必须包含人为因素,人类设计者目标定义的安全AI目标,人类用户习惯定义的安全AI操作,以及人类评估者理解的安全AI指标。为人工智能系统的安全性制定人为驱动和人类可理解的方法和指标将决策者、私营部门和公众能够准确地判断不断变化的AI安全格局。
主要着力点有:提高AI系统的可解释性和透明度;创建具有信息性,用户界面友好、准确可靠的系统以提高用户的信任度;加强AI系统的验证测试;防范攻击;实现AI安全和优化。
其中一个新兴的研究领域是对抗性ML,探讨ML算法中的漏洞分析以及产生更强大学习的算法技术。需要系统地研究攻击ML和AI系统的技术,并针对攻击类别设计能够提供可证实的鲁棒性保证的算法。
启动了的研发计划有:
(1)美国交通部(DOT)于2018年10月发布了新的联邦自动驾驶汽车指南,推进DOT的自动驾驶汽车安全整合原则。截至2019年5月,已有14家公司发布了自愿安全自我评估,详细说明了他们如何将安全性纳入其自动驾驶系统的设计和测试中。
(2)2018年12月,DARPA宣布了两项关于人工智能安全的计划:安全,可靠,智能学习系统(SAILS)和人工智能中的特洛伊木马(TrojAI)。DARPA于2019年2月宣布另一项计划,即保证AI系统面对欺骗行为的可靠性。这些计划旨在共同打击对AI系统的一系列攻击。


战略5:为AI训练和测试开发共享的公共数据集和环境。

开发并实现对高质量数据集和环境,以及测试和培训资源的访问。并需要优先考虑改进AI数据和模型的访问和质量。联邦机构应该与AI利益相关方合作确保适当审查的数据集和模型已经准备好并且适合使用,并且随着标准和规范的发展而得到维护。最终,在记录数据集和模型出处时开发和采用最佳实践和标准将提高可靠性和负责任地使用AI技术。数据集的开发和共享必须遵循适用的法律法规,并以道德的方式进行。需要新的技术来确保数据的安全共享,因为数据所有者在与研究团体共享数据时承担风险。研究人员还开始开发新的ML技术,使用不同的隐私框架为使用的数据提供可量化的隐私保证。同时,隐私方法必须保持足够的可解释性和透明度,以帮助研究人员纠正它们并使其安全,有效和准确。此外,AI可以揭示超出原始或预期范围的发现,因此,研究人员必须认识到对手获取数据或发现的潜在危险。
另外如果没有与大规模公共数据集相对应的计算资源和能力,那么单独使用数据几乎没有用处,因此国家还需要研究和投资共享计算资源以促进AI研发。
启动了的研究计划有:
(1)DOT赞助了第二次战略公路研究计划(SHRP2)自然驾驶研究(NDS),记录了3400多名司机和车辆的超过540万次旅行。车载数据采集系统(DAS)单元收集并存储来自前方雷达,四个摄像机,加速度计,车辆网络信息,地理定位系统和车载车道跟踪器的数据。在参与者的车辆运行时,DAS持续不断地记录数据。虽然NDS数据的摘要是公开的,但访问详细数据集需要合格的研究伦理培训。
(2)VA Data Commons正在创建世界上最大的链接医学基因组数据集。
(3)GSA(综合服务管理局)正致力于将云计算资源用于联邦政府资助的AI研发。位于GSA的Data.gov和code.gov包含来自各机构的超过246,000个数据集和代码,并自动收集各机构发布的数据集。
(4)NIH倡议与行业领先的云服务提供商建立了合作关系,使研究人员能够访问由NIH资助并存储在云环境中的主要数据资产。


战略6:制定标准和基准以测量和评估AI技术。

为人工智能开发广泛的评估技术,包括技术标准和基准。重点领域有:开发广泛应用的人工智能标准,包括软件工程、性能、指标、安全、可用性、互操作性、可靠、隐私保护、可追溯性、有弹性、可解释和透明等;制定人工智能技术的测试基准;建立可用的人工智能测试平台;促进人工智能社群参与标准和基准的制定。
启动的计划有:
(1)美国国家标准与技术研究院(NIST)参与ISO / IEC JTC 1 SC 42(人工智能分技术委员会)关于人工智能的标准化计划。
(2)NIST员工通过美国机械工程师协会,IEEE和ISO / IEC等标准组织参与其他AI标准活动。 活动涉及诸如先进制造的计算建模,机器人和自动化的本体,个人数据隐私和算法偏差等主题。
(3) NIST专家正在提高人们对多边论坛中人工智能共识标准重要性的认识,包括G20和G7等机构。


战略7:更好地了解国家对AI研发人员的需求。

从战略上培养一支适合AI的劳动力队伍。在人工智能中保持强大的学术研究生态系统至关重要,必须继续战略性地培养跨越多个学科和技能类别的人工智能研发人员的专业知识。需要进一步地研究,以更好地了解人工智能研发的当前和未来国家劳动力需求。
在本科阶段,考虑到跨学科的计算越来越重要,需要将重点放在将先进的计算技能和方法与来自其他学科的特定领域知识相结合。研究生阶段也需要持续的支持学生们正在进行ML和AI的基础研究。优先考虑各级培训和奖学金计划,通过学徒,技能计划,奖学金和相关学科的课程工作,为员工提供必要的人工智能研发技能。
启动了的计划有:
(1)除了通过标准的人工智能研究资助支持本科生和研究生之外,各机构还在其研究生奖学金计划中优先考虑计算和数据支持的科学和工程。
(2)人口普查局创建了统计数据现代化(SDM)项目,以使其劳动力,运营和技术达到当前的最新水平,并为当今数据驱动型社会中的统计机构设定标准。SDM的劳动力转型将雇用具有新方法和分析专业知识的新数据科学家,包括使用AI方法和工具来处理和分析大数据。劳动力转型还将解决当前数据科学人员的技能提升问题。


战略8:扩大公私伙伴关系,加速人工智能的发展。

良好的政府—大学—产业研发生态系统能促进对人工智能研发的持续投资,有助于实现人工智能及相关技术突破,并将这些突破迅速转变为有助于美国经济和国家安全的能力。
政府 - 大学 - 产业研发合作伙伴关系为大学研究人员带来了工业所面临的紧迫的现实挑战,实现了“用户启发式研究”;大学研究人员能利用行业专业知识,加速将开放和已发表的研究成果转化为市场中可行的产品和服务,促进经济增长;通过将大学教师和学生与行业代表,行业环境和行业工作联系起来,还将加强对下一代研究人员,技术人员和领导者的教育和培训,增加研究和劳动力的能力。
伙伴关系可以促进开放的、竞争前的、基础的人工智能研发;能战略性地利用资源,包括设施、数据集和专业知识;增强对数据集,模型和高级计算能力等研究资源的访问;并促进政府,大学和行业之间的研究人员交流和/或联合任命,以分享AI研发专业知识。
人工智能研发具有固有的跨学科性质,需要计算机和信息科学,认知科学和心理学,经济学和博弈论,工程和控制理论,伦理学,语言学,数学和统计学以及哲学之间的融合,以推动未来公平,透明,负责,安全可靠的AI的系统发展和评估。


结 语







请到「今天看啥」查看全文