本文属于《解码 AI》系列栏目,该系列的目的是让技术更加简单易懂,从而解密 AI,同时向 RTX PC 用户展示全新硬件、软件、工具和加速特性。
这些神经网络基于海量数据训练,可为推动生成式 AI 革命的应用提供支持
。
万丈高楼平地起,一砖一瓦皆根基
由 AI 驱动的应用也是如此
基础模型是利用海量原始数据训练而成的 AI 神经网络,其训练以无监督式学习为主。
这种 AI 模型经过专门训练,可以理解并生成人类语言。想象一下,将一台计算机放在偌大的图书馆里,并准备大量的书籍供它阅读和学习,随后它就能像人类一样理解上下文,以及词句背后的含义了。
基础模型
这种 AI 模型经过专门训练,可以理解并生成人类语言。想象一下,将一台计算
因其具备强大的知识库和使用自然语言进行交流的能力,基础模型的应用范围非常广泛,包括生成和总结文本、辅助生成和分析计算机代码、创作图像和视频,以及进行音频转录和语音合成。
ChatGPT,作为尽人皆知的生成式 AI 的典型代表,就是基于 GPT 基础模型构建的聊天机器人,该模型目前已推出第四版,即 GPT-4。已经是既能接收文本或图像,也能生成文本或图像回应的大型多模态模型了。
通常情况下,基于基础模型构建的在线应用需要通过数据中心来访问这些模型。但现在,许多此类模型及其驱动的应用都能在配备
NVIDIA RTX GPU
的 PC 和工作站上本地运行。
用户可以进一步优化基础模型或直接将其投入使用。为每个生成式 AI 应用训练全新的 AI 模型是相当耗资费时的,所以用户往往会通过对基础模型进行微调来满足特定的应用场景。
得益于提示词和检索增强生成(RAG)等数据检索技术,经过预训练的基础模型可展现出出众性能。此外,基础模型也很擅长迁移学习,这代表用户可以训练模型执行与其初始用途相关的第二个任务。
例如,如果一款通用大语言模型(LLM)
的功能是与人类对话,那在经过进一步训练后,该模型就能被用作客服聊天机器人,利用企业知识库来为客户答疑解惑。
如今,各行各业的公司都会对基础模型进行微调,以便将各自 AI 应用的性能发挥到极致。
目前,投入使用的基础模型已超过 100 种,而这个数字还将持续增长。
LLM 和图像生成器是非常热门的两类基础模型。
任何人都可以通过 NVIDIA API 目录免费试用多种此类模型,且这种试用对硬件没有要求。
LLM 模型能够理解自然语言并对问题做出回应。例如,Google 的 Gemma 就很擅长文本理解和转换,以及代码生成。如果问它关于天文学家 Cornelius Gemma 的问题,它会回答:“他在天文导航和天文学方面的贡献为科学进步带来了重大影响。” 同时,它还会提供 Cornelius Gemma 的主要成就、宝贵遗产等方面的信息。
Google 的 CodeGemma 由 RTX GPU 上的 NVIDIA TensorRT-LLM 加速,可为开发者社区带来强大的轻量化编码功能,进一步扩展了 NVIDIA 和 Google 在 Gemma 模型方面的协作。CodeGemma 提供了 7B 和 2B 两种预训练模型,专用于代码补全和代码生成任务。
MistralAI 的 Mistral LLM 能够遵循用户指令,完成各种请求和生成创意文本。事实上,这篇文章的标题请 Mistral 使用了 “AI 解码”的近义词,然后它就给出了现在的标题,并进一步编写了基础模型的定义。
名名副其实的 Hello, world
Meta 的 Llama 2 是一款先进的 LLM,可以根据提示词生成文本和代码。
用户可通过
NVIDIA ChatRTX
技术演示应用,在 RTX PC 和工作站上体验 Mistral 和 Llama 2。ChatRTX 允许用户通过 RAG 将基础模型与其个人资料(例如文档、医生笔记及其他数据)关联,实现模型的个人化。ChatRTX 由 TensorRT-LLM 加速,可迅速提供与上下文相关的回答。此外,ChatRTX 在本地运行,既保证数据安全,又实现快速响应。