Home avatar

Daily Deep Think

发布的内容仅代表作者个人观点,不代表任何组织、公司或机构的立场

AI专业名词解释表:270+术语完全指南与AI技术体系词典

AI专业名词解释表

本文档整理了AI大模型领域的核心专业术语,从基础概念到高级技术架构,帮助您系统性地理解人工智能技术体系。


名词专业解释通俗解释举例说明
AGI(通用人工智能)Artificial General Intelligence,具备人类水平智能的AI系统能像人一样思考、学习、创造的全能AI一个能同时写诗、编程、做饭、聊天的机器人
LLM(大语言模型)Large Language Model,基于海量数据训练的大型神经网络模型能理解和生成人类语言的"超级大脑"GPT-4、Claude、文心一言等都是LLM
训练通过大量数据训练神经网络参数的过程AI的"学习阶段",像人读书积累知识用互联网所有文本训练一个模型学会语言
推理训练完成的模型根据输入生成输出的过程AI的"应用阶段",像人运用所学知识回答问题输入问题后模型生成回答的过程
Token(词元)模型处理文本的最小单元,通过分词算法切分的文本片段AI语言的"字粒子",模型一个一个处理“我喜欢苹果” → [“我”, “喜欢”, “苹果”]

名词专业解释通俗解释举例说明
Transformer基于自注意力机制的深度学习架构,2017年Google提出现代AI的"神经骨架",让模型高效理解语言GPT、BERT等所有大模型都基于Transformer
Encoder(编码器)将输入序列编码为语义表示的神经网络组件AI的"理解器",把文字变成机器懂的向量BERT使用Encoder做文本理解任务
Decoder(解码器)根据上下文逐token生成输出的神经网络组件AI的"写作器",根据理解生成回答GPT系列都是Decoder-only模型
Self-Attention(自注意力)计算序列中每个元素与其他元素相关性的机制AI自动"关注重点",像人阅读时抓重点“银行"在"存钱"中关注"钱”,在"钓鱼"中关注"河"
Multi-Head Attention(多头注意力)并行多个自注意力机制,捕获不同类型的依赖关系AI从多个角度同时理解文本一个头关注语法,另一个头关注语义
Positional Encoding(位置编码)为每个token添加位置信息的向量表示让模型知道"谁在前谁在后"“我爱你"与"你爱我"意义不同
Query(查询向量)主动查询相关信息的向量,表示当前词需要什么信息“我要找什么"的数字表达“苹果"查询相关的味道、颜色等属性
Key(键向量)被查询信息的标识向量,表示每个词能提供什么信息“我能提供什么"的标签“甜"作为味道特征的Key,等待被查询
Value(值向量)实际内容的表示向量,包含词的真实语义信息“我的具体内容"的数值化“甜"的实际语义表示[0.8, 0.2, -0.1]
Attention Weight(注意力权重)表示关注程度的重要性分数,通常通过softmax归一化“关注程度"的数值化0.8表示强烈关注,0.1表示弱关注,所有权重和为1
Cross-Attention(交叉注意力)不同序列间的注意力机制,Query来自一个序列,Key/Value来自另一个序列跨模态信息交互图文匹配中文字Query关注图像Key/Value
Causal Attention(因果注意力)只能关注当前位置及之前内容的注意力机制,防止未来信息泄露“只能向前看"的注意力GPT生成时第5个词只能看前4个词
Softmax Function将任意实数向量转换为概率分布的激活函数转换为"重要性百分比”[2,1,0] → [0.67,0.24,0.09],保持相对大小关系

名词专业解释通俗解释举例说明
Vector(向量)具有大小和方向的数学对象,一组有序数字事物的"数字身份证”,用数字描述特征[25, 180, 70]可表示一个人的年龄、身高、体重
Embedding(嵌入)将离散符号映射到连续向量空间的技术把文字变成"数字坐标”"国王"→[0.25, -0.12, 0.78, ...]
Query / Key / Value自注意力机制中的三个核心向量矩阵,分别代表查询需求、标识信息、实际内容Query=我要什么,Key=我能提供什么,Value=我的具体内容Query=[0.1,0.2]查询味道,Key=[0.8,0.1]标识甜味,Value=[0.9,0.05]甜味的实际表示
Feed-Forward Network(前馈网络)对每个位置独立进行非线性变换深化每个词的理解“春天"进一步联想到"温暖、生长”
Layer Normalization(层归一化)标准化层输入训练"稳定器”防止梯度爆炸或发散
Residual Connection(残差连接)跨层连接,保留原始信息信息"直通车”,防止丢失类似捷径路径避免深层网络退化

名词专业解释通俗解释举例说明
Tokenizer(分词器)将文本转换为token序列“文字切菜刀”"Hello world" → ["Hello", " world"]
Context Window(上下文窗口)模型能处理的最大token数量限制AI的"记忆力上限”GPT-4有128K上下文
Decoding(解码)根据概率分布逐token生成文本AI"写字过程”从最可能的词开始生成
Temperature(温度参数)控制生成随机性的参数“创意调节器”高温更有创意,低温更稳健
Top-p采样基于累积概率的采样策略“精华筛选器”只考虑累计概率达到90%的候选词
Max Tokens(最大令牌数)限制生成输出长度“字数限制器”防止AI回答过长

名词专业解释通俗解释举例说明
RAG(检索增强生成)结合检索和生成的AI方法“开卷考试"式AI先查资料再回答问题
Prompt Engineering(提示工程)设计优化提示词的技术“说话艺术”让AI更好理解需求
Fine-tuning(微调)在预训练模型上进行特定任务训练“定向培训”让通用模型变成医疗助手
BPE(字节对编码)一种常见分词算法“文字压缩术”"unhappiness" → ["un","happi","ness"]
Detokenization(反分词)将token序列还原为可读文本“拼字还原”["我","喜欢","苹果"]→"我喜欢苹果"
Streaming(流式输出)逐token实时生成输出“打字机效果”聊天机器人边输出边思考

名词专业解释通俗解释举例说明
RNN(循环神经网络)逐步处理序列数据的神经网络“逐字阅读AI”翻译"我爱你"逐词处理
LSTM(长短期记忆网络)改进型RNN,解决长期依赖问题“记忆力更强”能记住开头内容
CNN(卷积神经网络)擅长处理图像模式的神经网络“图像专家”识别猫狗人脸
Encoder-Decoder架构同时包含理解与生成模块的模型“全能型AI”机器翻译模型

名词专业解释通俗解释举例说明
对话产品面向用户的AI应用接口“AI聊天壳”ChatGPT、Claude
API调用程序间通信接口“AI电话线”程序调用OpenAI API
上下文管理维护对话历史的技术“AI记忆力”聊天机器人记住你说过的话
多轮对话连续人机交互模式“连续聊天”先问天气,再问穿衣
工具调用(Function Calling)模型可调用外部API执行任务“AI动手能力”AI自动查天气或搜索资料

名词专业解释通俗解释举例说明
LoRA(低秩适配)通过低秩矩阵微调模型参数“轻量级微调”让LLM快速适应新领域
Quantization(量化)用低精度表示模型参数“模型瘦身”FP32→INT8加速推理
Pruning(剪枝)删除冗余神经元或连接“修枝整形”去除无效参数
Distillation(知识蒸馏)用大模型指导小模型学习“老师带学生”GPT-4教小模型
Checkpoint(检查点)模型训练中保存的中间状态“训练存档点”防止断电丢失进度

名词专业解释通俗解释举例说明
Embedding Model(向量模型)将文本转为语义向量的模型“语义坐标机”text-embedding-3-large
Vector Database(向量数据库)支持向量检索的数据库“语义仓库”Milvus、Pinecone、FAISS
Cosine Similarity(余弦相似度)衡量两个向量方向相似度“语义相似度计”"猫在睡觉"≈"猫咪休息中"
Knowledge Graph(知识图谱)用节点和关系存储知识结构“知识地图”"苹果→是→水果"
Hybrid Search(混合检索)结合语义检索与关键词匹配“双保险搜索”同时检索"猫""宠物动物"

名词专业解释通俗解释举例说明
Multimodal Model(多模态模型)同时处理文本、图像、音频等模态“全感官AI”GPT-4V、Gemini
VLM(视觉语言模型)Vision-Language Model“会看图的AI”看图问答AI
Speech Recognition(语音识别)将语音转文字“听写AI”语音输入法
TTS(文本转语音)将文字转语音“AI播音员”AI读出回答
AI Agent(智能体)具备自主行动与决策能力的AI“能动的AI助手”Devin、AutoGPT

名词专业解释通俗解释举例说明
Hallucination(幻觉)模型生成虚假信息“一本正经胡说八道”编造论文或事实
Alignment(对齐)模型与人类价值观对齐“价值观调教”RLHF调教模型
RLHF(人类反馈强化学习)用人类偏好优化模型“人教AI说话”ChatGPT的训练方式
Red Teaming(红队测试)对抗性测试模型安全“安全渗透测试”测试模型是否泄密
Bias(偏差)模型输出的系统性偏见“AI偏心”对性别或语言偏好

名词专业解释通俗解释举例说明
Mixture of Experts(专家混合)包含多个子模型动态激活结构“专家组AI”Gemini 1.5 Pro架构
Context Compression(上下文压缩)压缩历史对话节省token“记忆压缩”长对话摘要
Memory-Augmented Model(记忆增强模型)结合长期记忆机制的AI“有记忆的AI”ChatGPT长期记忆功能
Autonomous Agent(自主智能体)能自我规划执行任务的AI“自理AI”AutoGPTDevin
Synthetic Data(合成数据)由AI生成的虚拟训练数据“AI自制教材”用AI扩充训练集

  1. 入门级(必掌握):Token、Embedding、Transformer、LLM
  2. 进阶级(重要):Self-Attention、RAG、Context Window
  3. 高级(可选):LoRA、Mixture of Experts、Red Teaming
  1. 理解基本原理:Token是什么,为什么需要向量表示
  2. 掌握核心架构:Transformer的Encoder-Decoder结构
  3. 实践应用技巧:Prompt工程与RAG结合
  4. 深入技术细节:注意力机制与对齐训练

Transformer架构深度解析:注意力机制与AI大模型的核心技术

AI 教程 - Transformer

Transformer 是一种深度学习架构,用来处理序列(例如文字、语音、代码等)信息。

它最早由 Google 在 2017 年的论文《Attention Is All You Need(注意力机制就是全部)》中提出。

AI大模型完全指南:从零基础到Token与向量的深度解析

AI 教程:从基础到深入的 AI 大模型指南

本文将带你深入理解 AI 大模型的核心概念,从基本原理到向量表示,循序渐进地构建完整的知识体系。


  • 核心机制:根据上一个词预测下一个词,类似成语接龙
  • 工作方式:通过 token 逐字生成输出

AI 大模型包含两个关键阶段:

华尔街日报深度分析:英伟达芯片禁令与假期出行危机背后的经济信号

写在前面:如果今天的新闻有背景音,那一定是机器在启动前那种紧张而安静的嗡鸣。从华盛顿的会议室到华尔街的交易大厅,再到我们每个人的账单,一些关键的开关正在被拨动。今天,我们不只看新闻,我们试着去听懂这些事件背后,时代换挡的声音。