今天分享的是AIGC
专题系列
深度研究报告:《AIGC专题:从ChatGPT看AI未来趋势和挑战》
报告共计:
11
页
摘要
在人工智能领城,ChalGPT作为一种重要的技术突破,引起了广泛的关注.本文将探讨 ChalGPT在人工智能发展中的地位及其对未来 A的影响,首先,介绍了ChalG;PT所展现出的优秀对话生成能力,使其几乎可以胜任所有自然语言处理任务,并将作为数据生成器、知识挖掘工具、模型调度员、自然交互界面在各种场景得到应用,接着,分析了其在事实错误、毒害内容生成、安全性、公平性、可解释性、数据隐私等方面的局限,并讨论了作为辅助人类工具的 ChalGPT明确能力边界和提高能力范团的重要性,然后,从概念经典表示对“真"定义进行了分析,并从概念三指不等价的角度阐释性了ChalGPT 无法区分真假的原因.在论述 AI未来时,从拓展应用、克服局限、探索理论分析了中短期技术趋势,并从感知、认知、情感、行为智能四个层面的关系讨论了长期发展路径.最后,探讨了ChalGPT作为认知智能的代表,对包括认知成本、教育要求、图灵测试认识、学术界的机遇与挑战、信息茧房、能源环境问题和生产力提升等方面可能产生的影响。
2022年11月30日,OpenAI公司发布了一款名为ChatGPT的软件,该软件在发布后的5天内,用户数量就超过了100万,2个月内活跃用户数更是突破了1亿,成为了迄今为止增长速度最快的应用软件该软件几乎可以完成自然语言处理的所有任务,因此在营销、客服、教育、娱乐、咨询、翻译等行业有着广阔的应用前景,这一成功也激励了 OpenAl首席执行官 Sam Altman.他于2023年2月24日发表了一篇名为“Planning for AGI and Beyond”的文章,认为AGI( artifcial general intelligence,通用人工智能)是 AIsystems that are generally smarter than humans.需要为AGI的到来做准备AGI会是AI的未来吗?本文将对此进行讨论
1 ChatGPT 的“能”:生成
比尔盖茨将ChatGPT誉为自1980年现代图形桌面环境GU问世以来最具革命性的科技进步,如果说上一次让 AI火出圈的 AlphaGo所展现出的是在特定领域的“专”,这一次 ChatGPT展现出的则是 AI在广泛应用场景的“通”:这个“通”以正常人都会、都懂、都能体验的对话形式呈现,让AI--特别是自然语言处理技术进人主流用户群,孕育出了这一现象级产品,具体而言,ChatGPT在对话过程中展现出了自然对话、多轮交、上下文学习、思维链推理、实时反馈在线纠错、能适应未训练任务以及GPT-4中新出现的理解弦外之音的能力.
ChatGPT背后的思想其实很简单:将所有语言任务归为对话任务,并将对话任务归为文字接龙的生成问题.自然语言处理领域的学者普遍认为,ChalGPT展现出的优秀对话生成能力对传统研究方法产生了巨大挑战.1)从目标上看,自然语言处理旨在让计算机能够以文字或语音的方式与人类进行有效交流:而对话是人类日常生活中最基本的交流方式,如果实现了人机自然对话,在一定程度上便达到了自然语言处理的核心目标.2)从任务类型上看.自然语言处理可分为自然语言理解和自然语言生成两大类,在谷歌的T5模型四推出之后,两类任务统一为单项语言生成的文字接龙形式.自GPT-1起,OpenAl驴直坚持采用某干解码器结构的自回归语言模型这种模型在处理语言生成问题方面具有天然的优势所以ChalGPT可以处理以前不同赛道的语言处理任务,比如翻译、问答、摘要、扩写、写作、润色、代码生成、语句分析、段落理解等。
当然,ChalGPT能够实现如今顺畅自然的人机对话,不仅源于其对GPT语言生成技术路线的持续发展,还依赖于算法、算力和数据等多方面的支持,由于ChatGPT并未开源,也没有发布论文透露具体细节,我们只能基于 OpenAI已公开的GPT系列技术发展路线来推测这些能力背后的潜在原因.图1展示了部分ChalGPT已展现出的能力及其背后主要技术原因的对应关系,值得关注的是,ChalGPT许多能力背后的原因仍在探索过程中,关于上下文学习的能力,有学者认为模型从提示词(prompt)提供的示例中确定了待解决任务的自然语言指令(instruct),从而在无需微调模型的情况下提升了问题回答的质量关于任务涌现和多任务迁移能力,一方面,有学者认为指令学习、大规模预训练和数据集多样性共同促进了模型在新任务的泛化能力”例如,通过在大量不同类型和指令任务上进行微调,模型学习到了一定程度的通用能力,从而能够泛化到未见过的指令和场景.另一方面,不同任务的划分具有一定的主观性、其本质上都可以建模为统一的自然语言生成任务大型预训练语言模型通过学习大量训练数据,掌握了丰富的语言知识和多种任务之间的共性,进而利用这些共性来提高不同任务的性能,然而,一些问题仍然没有明确答案,例如: 何种模型规模和训练数据量阔值可以产生任务涌现能力?涌现能力与模型规模和训练数据量之间的量化关系如何?同时,其他些能力,如在线纠错、理解弦外之音等,其背后的原因仍然有待发现。