来源:
瞭望
发布时间:2024-04-11
◆
生成式
人工智能本质上是一种建立在大模型和预训练基础上的运用海量数据所
生成的“模拟器”。
快速涌现人工智能成果高度依赖于大量、多样化的数据
◆
基于庞大数据和超高算力的“暴力美学”,是当前生成式人工智能的核心打法,也是以OpenAI为代表的一众企业的发展密码。简单来说,
在同等条件下,喂的数据越多,人工智能就越强
◆
在全球范围内,数据存量的增长速度远远低于数据集规模的增长速度。据人工智能研究机构epoch的研究预测,
语言数据可能在2030~2040年耗尽
,其中能训练出更优性能的高质量语言数据甚至可能在2026年耗尽
◆
优质中文语料的大面积缺失,让AI学会说好中文成为一件难事
◆
中国的数据量很大,但没有真正产业化
,相对标准化的数据服务商还比较少,因为大数据服务不赚钱,公共数据企业没有意愿去清洗,定制化服务又一般收费比较高
在阿西莫夫经典科幻小说《最后的问题》当中,两个喝得醉醺醺的“程序猿”向人工智能询问了这样一个问题:“怎样使宇宙的总熵大幅降低?”
“数据不足,无法作答。”人工智能未能在第一时间解答这个问题。尽管在小说的最后,这个仿若翻版ChatGPT的人工智能在时间的尽头交出了答卷,但贯穿整个宇宙生命的过程中,它始终都在做一件事:收集数据。
数据,是人工智能赖以发展的核心资源。小说的情节固然戏剧化,但其内容却与发展生成式人工智能的现实矛盾不谋而合。
当前,“百模大战”如火如荼,头部企业竞相投身人工智能赛道,但
有效数据不足,特别是高质量中文语料的短缺以及部分领域封闭式的数据生态给人工智能发展带来了掣肘。
如何解决“数据瓶颈”是未来一段时期我们即将面临——或已经面临的挑战。
中国科学院自动化研究所人形机器人攻关团队研制的谱系化人形机器人(2024年1月31日摄)金立旺摄 / 本刊
数据海洋的“圈地运动”
海滨港口、城市霓虹、幼犬互动……近日,由美国人工智能文生视频大模型Sora生成的数个视频迅速吸引了世界目光。与“文生图”不同,Sora发布的视频长达60秒,具有丰富的运动变化,其中物品相互之间的作用关系、物理规律的刻画都达到了近乎以假乱真的地步。从物体互动到光影斑驳,屏幕上像素点的变换令人击节叹赏。
像Sora这样的生成式人工智能并不是“无中生有”。
不同于以往为人们所熟悉的判别式人工智能,生成式人工智能本质上是一种建立在大模型和预训练基础上的运用海量数据所生成的“模拟器”。
海国图智研究院院长、暨南大学教授陈定定认为,
快速涌现人工智能成果高度依赖于大量、多样化的数据。
华大集团首席执行官尹烨说,发展人工智能,拼的不仅是“象牙塔尖”的算法更新,更是来源于开放性市场庞大的数据积累。
基于庞大数据和超高算力的“暴力美学”,是当前生成式人工智能的核心打法,也是以OpenAI为代表的一众企业的发展关键。简单来说,在同等条件下,喂的数据越多,人工智能就越强。
有数据显示,从GPT到GPT2再到GPT3,OpenAI将模型参数从1.17亿提升到15亿,然后爆炸式地提升到1750亿,以至于GPT3比以前同类型的语言模型参数量增加了十倍以上。
作为数字之海的基本构成要素,海量、优质的数据争夺已经成为国家和企业间的无声战场。
OpenAI旗下产品的使用条款就明确提及,企业将保留交互数据的使用权。基于数字技术形成的通用数据、优质数据垄断,可能将成为这场数字拓荒当中,后发者无法逾越的天堑。在一定程度上可以说,掌握数据,就掌握了包括人工智能等众多未来产业的主导权。
AI“肥料”不足
如果说数据是人工智能成长的“肥料”,那么人类或许将很快面临“无肥可施”的境地。
清华大学公共管理学院教授梁正在接受采访时提到,
全球范围内,数据存量的增长速度远远低于数据集规模的增长速度。
据人工智能研究机构epoch的研究预测,语言数据可能在2030~2040年耗尽,其中能训练出更优性能的高质量语言数据甚至可能在2026年耗尽。
优质中文语料的大面积缺失,让AI学会说好中文成为一件难事。
业内人士介绍,全球目前最有科学性和经过验证的语料来自学术资料库,包括期刊和文化、出版物,遗憾的是,在这些载体上发表文章的语言绝大部分都是英语。
一项研究显示,1900~2015年,收录于SCI的有3000多万篇文章,其中,92.5%的文章是以英语发表的;SSCI出版的400多万篇文章中,93%的文章是用英语发表。
在ChatGPT的训练数据中,中文语料比重不足千分之一,英文语料占比超过92.6%。
业内人士表示,
目前我国仍有大量专业领域的信息数据处于相对封闭的状态,只能在机构内部的数据库和图书馆查看,数据缺失使大模型存在一定的领域盲区,开发潜力不足。
例如,在医疗数据方面,由于历史和习惯等复杂原因,医疗机构之间存在严重的“数据孤岛”问题。《全民健康信息化调查报告》的数据显示,2021年,我国的三级医院平均只有不到20%的医疗机构采用了医疗大数据应用,二级医院更低,不足5%。
清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜在近期的公开演讲中谈到,
中国数据质量比较低也是一个问题。
中国的数据量很大,但没有真正产业化,相对标准化的数据服务商还比较少,因为大数据服务不赚钱,公共数据企业没有意愿去清洗,定制化服务又一般收费比较高。因此
,
数据市场如何构建也是需要解决的问题。