专栏名称: Dance with GenAI
关于生成式人工智能AIGC的一切
目录
相关文章推荐
上饶新闻  ·  敲黑板!《哪吒2》的隐藏知识点来了→ ·  15 小时前  
银幕穿越者  ·  《诡才知道》评分上涨 ... ·  昨天  
桃桃淘电影  ·  9.7分崩到6.4,年度最热新番玩脱了? ·  2 天前  
51好读  ›  专栏  ›  Dance with GenAI

人人都懂的AI术语大全:AI与LLM的世界入门

Dance with GenAI  · 公众号  ·  · 2024-06-17 07:28

正文

在当今数字化时代,人工智能(AI)已经成为我们生活中不可或缺的一部分。对于普通人而言,AI和大型语言模型(LLM)的世界可能显得有些陌生和高深。但别担心,本文将带你轻松入门,了解一些最重要和最常见的AI术语,让你在AI的海洋中畅游无阻。

## AI:人工智能的魔法

**人工智能(AI)** 是计算机科学的一个分支,它试图理解智能的实质,并生产出一种新的能以人类智能相似方式做出反应、学习、推理和决策的智能机器。

Machine Learning:机器的学习能力

机器学习(Machine Learning, ML) 是AI的一个核心领域,它使机器能够通过经验来提高性能,无需明确编程。

Deep Learning:深度学习的力量

深度学习(Deep Learning) 是机器学习的一个子领域,它使用多层神经网络来学习数据中的复杂模式。

Neural Network:神经网络的复杂结构

神经网络(Neural Network) 是一种受人脑启发的AI模型,由多层节点或“神经元”组成,能够处理和学习数据。

Reinforcement Learning:强化学习

强化学习(Reinforcement Learning) 是一种机器学习方法,通过奖励或惩罚来训练模型,使其学习如何在环境中做出决策。

Supervised Learning:监督学习

监督学习(Supervised Learning) 是一种机器学习方法,模型通过已标记的训练数据学习,以预测新的未见数据。

Unsupervised Learning:无监督学习

无监督学习(Unsupervised Learning) 是一种机器学习方法,模型在未标记的数据上训练,以发现数据中的模式或特征。

Overfitting:过拟合

过拟合(Overfitting) 是指模型在训练数据上表现良好,但在未见过的数据上表现差的现象。

Underfitting:欠拟合

欠拟合(Underfitting) 是指模型未能捕捉数据的基本结构,导致在训练数据上的表现也不佳。

Loss Function:损失函数

损失函数(Loss Function) 是衡量模型预测与真实值差异的函数,模型在训练过程中力求最小化这一函数。

Hyperparameter Tuning:超参数调优

超参数调优(Hyperparameter Tuning) 是选择机器学习模型中超参数(如学习率、迭代次数等)的合适值的过程。

Inference:推理

推理(Inference) 是使用训练好的模型进行预测的过程。

API:应用程序编程接口

API(Application Programming Interface) 是一组定义软件应用程序如何相互交互的协议。

## LLM:语言的炼金术

**大型语言模型(LLM)** 是一种经过大量文本数据训练的AI模型,它能够理解和生成自然语言。LLM可以应用于文本翻译、文章撰写、问答系统等多种场景。

## Foundation Model:模型的基础

**基础模型(Foundation Model)** 是一种大型AI模型,它在大量未标记或已标记的数据上进行训练,具有广泛的语言理解能力,可以作为特定任务微调的起点。

## Fine-tuning:微调的艺术

**微调(Fine-tuning)** 是将预训练的模型(如基础模型)针对特定用例进行进一步训练的过程。微调比从头开始训练更高效,因为我们已经拥有了一个具有通用语言理解的模型。

## Token:词元,文本的基本单位

**Token** 是文本的基本单位,它由机器易于理解的文本片段组成,可以是单词、子词、字符或其他文本单元。Token是与LLMs工作时遇到的基本元素。

## Embedding:文本的向量表示

**嵌入(Embedding)** 是文本的机器可理解表示形式,将文本序列转换为高维向量。这些嵌入向量具有内在含义,允许LLM理解文本的基本含义。

## Sentiment-Analysis:情感分析

**情感分析(Sentiment-Analysis)** 是分析文本中的情感、观点和态度的过程。这对于商业应用至关重要,因为许多决策都是基于产品、市场营销或用户互动的关键绩效指标(KPIs)。

## Prompt Engineering:提示工程

**提示工程(Prompt Engineering)** 是向LLM准确传达应生成内容的艺术。更具体的指令通常有助于引导LLM的输出。

## Zero-Shot Learning:零样本学习

**零样本学习(Zero-Shot Learning)** 是在没有给出任何示例或上下文的情况下,告诉LLM生成内容的方法。

## Few-Shot Approach / In-Context Learning:少样本学习/上下文学习

**少样本学习(Few-Shot Learning)** 或 **上下文学习(In-Context Learning)** 是一种提示工程方法,通过在提示中直接提供几个任务示例,使用自然语言来指导模型。

## Transformer Architecture:变换器架构

**变换器架构(Transformer Architecture)** 是LLMs的基本构建块,由"Attention is All You Need"论文引入,包含编码器和解码器两个主要部分。

## Attention:注意力机制







请到「今天看啥」查看全文