mt logoMyToken
ETH Gas
EN

AI黑话词典(2026年3月版),建议收藏

Favoritecollect
Shareshare

原创 | Odaily 星球日报( @OdailyChina

作者|Golem( @web 3_golem

现在,币圈人要是不关注 AI,很容易遭群嘲(对,我的朋友,想想你为啥会点进来)。

你是否对 AI 的基础概念一窍不通,每句话里的缩写都问下豆包啥意思啊?你又是否在 AI 线下活动中对各种专有名词一头雾水,还要假装没掉线?

虽然在短时间内一脚跨入 AI 行业不现实,但知道下 AI 行业高频基础词汇总是不亏的。幸运了,接下来这篇文章就是为你准备的↓真诚建议你熟读并收藏。

基础词汇(12)

LLM( 大语言模型

LLM 核心是用海量数据训练出来、擅长理解和生成语言的深度学习模型,它能处理文本,现在也越来越能处理其他类型内容。

与之相对的是 SLM(小语言模型)——通常强调成本更低、部署更轻、本地化更方便的语言模型。

AI Agent(AI 智能体)

AI Agent 指的不只是“会聊天的模型”,而是能理解目标、调用工具、分步执行任务、必要时还能做规划和验证的系统。Google 将 agent 定义为能基于多模态输入进行推理并代用户执行动作的软件。

Multimodal(多模态)

其 AI 模型不是只读文字,而是能同时处理文本、图片、音频、视频等多种输入输出形式。Google 明确把多模态定义为处理和生成不同类型内容的能力。

Prompt(提示词)

用户给模型输入的指令,是最基础的人机交互方式。

Generative AI(生成式 AI / AIGC)

强调 AI“生成”而不是单纯分类或预测,生成式模型可以根据 prompt 生成文本、代码、图像、表情包、视频等内容。

Token(令牌)

这是 AI 圈最像“Gas 单位”的概念之一。模型不是按“字数”理解内容,而是按 token 处理输入输出,计费、上下文长度、响应速度,通常都和 token 强相关。

Context Window( 上下文窗口 / 上下文长度)

指模型一次性能“看到”和利用的 token 总量,也可称为模型在单次处理时能考虑或“记住”的 token 数量。

Memory(记忆)

让模型或 Agent 保留用户偏好、任务上下文、历史状态。

Training(训练)

模型从数据中学习参数的过程。

Inference(推理执行)

和训练相对,指模型上线后接收输入并生成输出的过程。行业里常说“训练很贵,推理更费钱”,因为真实商业化阶段很多成本发生在 inference。相关训练/推理区分也是主流厂商讨论部署成本时的基础框架。

Tool Use / Tool Calling(工具调用)

意思是模型不只输出文字,而是可以去调用搜索、代码执行、数据库、外部 API 等工具,这已经被当成 Agent 的关键能力之一。

API(接口)

AI 产品、应用、Agent 接第三方服务时的基础设施。

进阶词汇(18)

transformer(变换器架构)

一种让 AI 更擅长理解上下文关系的模型架构,也是今天大多数大语言模型的技术底座,最大的特点是能同时看整段内容里每个词和其他词的关系。

Attention(注意力机制)

它是 Transformer 最关键的核心机制,作用就是让模型在读一句话时,自动判断“哪些词最值得重点看”。

Agentic / Agentic Workflow(智能体式 / Agent 化工作流)

这是最近很热的说法,意思是一个系统不再只是“一问一答”,而是带有一定自主性地拆解任务、决定下一步、调用外部能力。很多厂商把它当成“从 Chatbot 走向可执行系统”的标志。

Subagents(子智能体)

一个 Agent 再拆出多个专职小 Agent 去处理子任务。

Skills(可复用能力模块)

随着 OpenClaw 爆火,这个词近明显变得常见,这是给 AI Agent 的可安装、可复用、可组合的能力单元/操作说明书,但也特别提醒有工具滥用和数据暴露风险。

Hallucination(机器幻觉)

意为模型一本正经地胡说八道,“感知到并不存在的模式”从而生成错误或荒谬输出,这是模型看似合理、实则错误的过度自信输出。

Latency(延迟)

模型从收到请求到输出结果所花的时间,属于最常见的工程黑话之一,一聊落地和产品化就会频繁出现。

Guardrails(护栏)

用于限制模型/Agent 能做什么、什么时候停、什么内容不能输出。

Vibe Coding(氛围编程)

这个词也是如今最火爆的 AI 黑话,意为用户直接靠对话表达需求,AI 来写代码,而用户不需要具体懂如何写代码。

Parameters(参数)

模型内部用于存储能力和知识的数字规模,常被用来粗暴衡量模型体量,“百亿参数”“千亿参数”都是 AI 圈最常见的唬人说法。

Reasoning Model(强推理模型)

它通常指更擅长多步推理、规划、验证、复杂任务执行的模型。

MCP(模型上下文协议)

这是近一年非常热的新黑话,作用类似给模型和外部工具/数据源之间建立通用接口。

Fine-tuning / Tuning(微调)

是在基础模型上继续训练,让它更适应特定任务、风格或领域。Google 术语表直接把 tuning 和 fine-tuning 作为相关概念。

Distillation(蒸馏)

把大模型的能力尽量压缩给小模型,像是让“老师”教会“学生”。

RAG(检索增强生成)

这几乎已经成了企业 AI 的基础配置。微软把它定义为“搜索 + LLM”的模式,用外部数据来给回答做 grounding,解决模型训练数据过时、不了解私有知识库的问题。目的是把回答建立在真实文档和私有知识上,而不是只靠模型自己回忆。

Grounding(事实对齐)

常和 RAG 一起出现,意思是让模型回答建立在文档、数据库、网页等外部依据上,而不是只靠参数记忆“自由发挥”。微软在 RAG 文档中明确把 grounding 作为核心价值。

Embedding(向量嵌入 / 语义向量)

就是把文字、图片、音频等内容编码成高维数字向量,以便做语义相似度计算。

Benchmark(基准测试)

用一套统一标准去测试模型能力的评测方式,也是各家模型最爱拿来“证明自己很强”的排行榜语言。

推荐阅读

龙虾关键11问:最通俗易懂的OpenClaw原理拆解

Disclaimer: This article is copyrighted by the original author and does not represent MyToken’s views and positions. If you have any questions regarding content or copyright, please contact us.(www.mytokencap.com)contact
More exciting content is available on
X(https://x.com/MyTokencap)
or join the community to learn more:MyToken-English Telegram Group
https://t.me/mytokenGroup