近日,一些网友发现,小红书悄悄上线了翻译功能。新版本更新后,在评论区的留言旁边有一个“翻译”功能按键,只需点击“翻译”按钮,即可一键翻译成中文。
不少人表示,小红书的翻译功能已经next level了。
翻译MBTI(迈尔斯布里格斯类型指标)
太好了,妈妈再也不用担心我对不上“暗号”了!
小红书翻译功能背后,其实有着复杂而强大的技术支撑。而在当下的自然语言处理领域,ChatGPT 无疑是最受瞩目的存在,其背后的 Transformer 技术更是核心中的核心。
(图片源自pixabay)
ChatGPT是一种人工智能聊天服务,它利用人工智能技术来回答问题,处理多种任务。ChatGPT所依赖的人工智能技术称为 “GPT”(Generative Pre-trained Transformer),这是一种先进的大语言模型。而语言模型则是一套用于理解人类语言(自然语言)的程序和算法。
具体而言,当GPT接收到一段文本或文本片段时,它通过预测下一个单词来生成文本。例如,当输入“今日”时,它能够预测出“天气”“好”“所以”“洗衣服”等单词。基于这种技术,ChatGPT能够连续地选择概率最高的单词作为给定文本(问题)接下来的一个词,从而生成连贯的文本(回答)。
语言模型的一个典型应用是智能手机等设备中的预测输入功能。这种功能会记录用户先前输入的单词和句子历史。比如,当用户键入“谢”字时,它会根据统计数据推荐“谢啦”等常见的后续短语作为输入候选。然而,这种简单的机制无法生成长篇幅且复杂的文本,并且质量无法达到接近人类的水平。
识别词与词之间关系的“Transformer”技术
GPT之所以能生成长篇且复杂的文本,关键在于采用了“Transformer”技术。Transformer是一种特殊机制,能够全面掌握给定文本中各个单词之间的关系,准确理解单词间的意义相似性。
详细内容参见杂志2024年第4期《ChatGPT的未来》第20页哟~
基于Transformer技术,通过应用大规模的神经网络和大量的学习数据进行学习,GPT相较于传统语言模型实现了质的飞跃,极大地提高了语言处理的精准度。这种随着神经网络规模和数据量增加,性能相应提升的现象,被称为“规模效应”。
Transformer最初是在机器翻译的研究中发明的技术,但现在已经被应用到各个不同的领域。它的本质是“正确理解给定数据中包含的各个要素之间的关系”,基于这一点,Transformer被广泛应用于图像识别、自动驾驶、蛋白质的三维结构预测等多个领域。
翻译功能或许只是 Transformer 技术在实际应用中的冰山一角,但却让我们看到了这一技术为日常生活带来的便利。随着技术的不断发展,相信 Transformer 以及基于它的各种应用会给我们带来更多的惊喜,进一步改变我们获取和交流信息的方式。
本文摘编自《科学世界》2024年第4期,文章内容略有删改。
新媒体编辑 | 周濛
还想知道更多关于ChatGPT的科学知识吗?点击下方图片,欢迎购买《科学世界》2024年第4期↓↓↓
订阅《科学世界》2025年全年杂志↓↓↓
购买《科学世界》2025年第1期↓↓↓
另外:典藏本系列图书 全部7折到手价!