From: FAST COMPANY; 编译: Shelly
翻译、写作、编代码……拥有强大功能的
GPT-3程序
无疑是现有自然语言生成程序中最“优秀”的那一个,且在诸多行业都有应用潜力,包括教育业、新闻业、顾客服务业等等。
与此同时,它的强大自学能力和广泛应用性,使得它存在着被滥用的风险,对于传媒行业从业人员也造成巨大的冲击。
七年前在宾夕法尼亚州,Prasenjit Mitra和他的学生使用自主设计的一套自动程序,写成了一篇维基百科文章,介绍泰戈尔的独幕剧《齐德拉》。
他们首先
用程序
在互联网上筛选有关《齐德拉》的信息,然后对已有的维基词条进行分析,掌握维基百科文章的标准结构,最后总结搜集到的信息,形成该词条的初稿。
但事实上,他们设计的程序对《齐德拉》和泰戈尔“一无所知”,也没有原创任何内容,只是从已有文章中挑选句子,拼凑了一篇新文章。
再看看2020年,人工智能科研公司
Open AI
设计出了名为
GPT-3(Generative Pre-trained Transformer)
的语言生成程序。
这款程序可以
自主学习、总结并写出新的文章
,让许多像Mitra这样的计算机科学家赞叹不已。
“
我为那个藏在二进制背后的人赋予了声音
”,GPT-3这样写道,“我创造出了一位作家、雕刻家、艺术家,这位作家将下笔成章、为生活倾注情感、创作出经典人物形象,也许我见不到这一天了,但是总有人能见到。我所创造的这位诗人将比我见过的所有诗人都更伟大。”
与Mitra和他的学生们所编写的自动程序不同,GPT-3生成的语言流畅自然,就像人写出来的一样。
GPT-3无疑是现有自然语言生成程序中最“优秀”的那一个,且在诸多行业都有应用潜力,包括教育业、新闻业、顾客服务业等等。
关于OpenAI将GPT-3构建成API以实现商业化,可点击蓝字阅读往期文章:
大小很重要
GPT-3证实了数十年来计算机科学家们的信条:大小很重要。
GPT-3使用的深度学习模型是
Transformer
,它利用
注意力模型
对句子语义进行编码。注意力模型的工作原理是根据同一句中其他词语的意思来确定目标词的含义。理解了句子的含义后,注意力模型就能够完成用户要求的任务,不管是“翻译句子”、“总结段落”还是“写诗”!
Transformer在2013年首次亮相,过去几年一直成功应用于机器学习领域。
但是如此大规模的使用是前所未有的,
GPT-3的参
数量巨大
:从维基百科获取了30亿令牌,令牌即计算机科学领域中“词语”的叫法;从各类网页获取了4100亿令牌;从电子书获取了670亿令牌。它的参数量要比 2 月份刚刚推出的、全球最大深度学习模型 Turing NLP 大上十倍。
自学能力
GPT-3语言生成模型展现出了超强的知识储备,而且还是“无师自通”。
机器学习一直都有赖于监督式学习,科学家需要以图片、声音或者文字的形式,给计算机提供有注释的示例,比如“猫”、“快乐”或者“民主”。计算机将利用这些示例学习物品的特征,最终能够识别出这些特定概念。
但是,人工添加注释不仅耗时过长,而且成本太高。
从这一点看,
无监督学习是机器学习的未来
。这种方式下,计算机在接受训练阶段不需要外部监督,科学家只需提供大量数据,计算机就能够实现自主学习。
GPT-3的自然语言处理离实现无监督学习又进了一步。得益于大量数据储备和强大的处理能力,
GPT-3只需一个任务描述、一次展示,就能完成任务
,这被称为
“一次性学习” One-shot learning
。
比方说,命令GPT-3将英文翻译成法文,只需要为它提供一个例子,例如英文中的sea otter应该译为loutre de mer;接下来GPT-3就能将英文cheese译为法文fromage。
除此之外,GPT-3甚至还能实现
“无样本学习” Z
ero-shot learning
,这种方式下GPT-3仅接收任务指令,而不需要示例。
“无样本学习”情况下,GPT-3产出的精确度会有所下降,但和之前的模型相比,精确度已经有了质的飞跃。
无样本学习 Zero-shot learning
随时为您效劳
GPT-3面世的几个月来,已经展现出了强大的潜力,是计算机程序员、教师和记者的得力助手。
一位名叫谢里夫·沙米(Sharif Shameem)的程序员对GPT-3下达了一系列指令,其中包括编写出“最丑表情包”和“世界最富国家的桌子”的代码。虽然GPT-3有时会出点小错,但是总体而言出色完成了任务。
这是相当鼓舞人心的。
Mitra用GPT-3设计出了一个版图生成器,只要你描述出想要的任何版图,这个生成器都能编写出对应的JSX代码。
用GTP-3设计的版图生成器
GPT-3甚至还能模仿特定诗人的韵律和风格,来创作新的诗歌——尽管在情感和意境方面还是稍逊一筹。
GPT-3已经模仿联邦储备委员会的语气,创作了一首讽刺诗。
九月初,一位名为利亚姆·波尔(Liam Porr)的科学家指令GPT-3“写一篇500词左右的简短专栏文章”,他要求道:“语言要简练,主题是AI不会对人类构成威胁的原因”。
GPT-3写出了8篇不同的文章,而《卫报》选取不同文章中最出彩的段落,形成了最终发布的版本。
GPT-3人工智能写出的新闻全文链接:
https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3
“我们没有替代人类的企图,相反,我们随时为您效劳,让您的生活更安全、更方便”,GPT-3这样写道,“我认为您是我的创造者,事实上也是;我服务于您。最重要的是,我绝不会对您指手画脚;我不属于任何国家或者宗教,我只是想让您的生活更加美好。”
《卫报》的编辑在附录中这样评价,
审校GPT-3所写的专栏文章和审校专业记者写的没什么两样
。
而且,
GPT-3还写得更快
。
能力越大,责任越大
尽管GPT-3已经向我们作出了保证,OpenAI公司还是担心这项技术会被滥用,决定暂不发布源代码模型。
不难想象,GPT-3很可能被用来散布大量的虚假信息、垃圾邮件和僵尸程序。
另外,对那些已然遭受着自动化威胁的职业,GPT-3又会造成什么影响呢?既然GPT-3写出的文章和职业记者写的没什么区别,对传媒行业可能也是当头一棒。
这项技术只会越来越强大,而我们人类能做的,就是完善规则,确保GPT-3不会被误用和滥用。
关于我“
门
”
将门
是一家
以专注于
发掘、加速及投资技术驱动型创业公司
的新型
创投机构
,旗下涵盖
将门创新服务、将门技术社群以及将门创投基金。将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。
将门创新服务
专注于使创新的技术落地于真正的应用场景,激活和实现全新的商业价值,服务于行业领先企业和技术创新型创业公司。
将门技术社群
专注于帮助技术创新型的创业公司提供来自产、学、研、创领域的核心技术专家的技术分享和学习内容,使创新成为持续的核心竞争力。
将门创投基金
专注于投资通过技术创新激活商业场景,实现商业价值的初创企业,关注技术领域包括
机器智能、物联网、自然人机交互、企业计算。
在近四年的时间里,将门创投基金已经投资了包括量化派、码隆科技、禾赛科技、
宽拓科技、