AI现阶段常见新词汇出现背景(一)
全球AI使用现状
世界总人口现在是81亿,如果画成一个方块图,每个方块代表320万人。
68.8亿人还从没用过 AI(灰色方块),占84%。
13.8亿人跟 AI 有过对话(绿色方块),占16%。
1500万~2500万人付费订阅了 AI 服务(黄色方块),占0.3%。
200万~500万人使用 AI 生成了自己的编程项目(红色方块),占0.04%。
图片数据截至2026-03-06前有效
AI应用常见新词汇
随着大模型技术的发展,AI领域在近两年出现了大量新的技术词汇,例如:LLM、Prompt、RAG、Agent等。
这些概念不仅出现在技术文章中,也逐渐进入企业应用场景。
理解这些核心术语的出现原因,有助于更好地理解当前AI系统的工作方式以及未来的应用方向。
一、LLM(Large Language Model,大语言模型)
出现背景
在早期的自然语言处理(NLP)领域,模型通常只能完成单一任务,例如:
- 情感分析
- 文本分类
- 机器翻译
每个任务都需要单独训练一个模型,开发成本较高,通用性也较差。
随着深度学习的发展,研究人员开始训练参数规模更大的通用语言模型,通过海量文本数据进行训练,使模型能够同时具备多种语言理解和生成能力,这类模型被称为 大语言模型(LLM)。
核心含义
LLM是一种通过大量文本数据训练得到的人工智能模型,能够理解和生成自然语言。
实际作用
大语言模型是当前AI应用的核心基础能力,可以用于:
- 智能对话
- 自动写作
- 代码生成
- 文档总结
- 数据分析辅助
目前大部分AI应用平台,本质上都是围绕LLM构建的。
二、Prompt(提示词)
出现背景
大语言模型并不是传统意义上的“程序”,它不会严格按照固定逻辑执行任务,而是根据用户输入内容进行语言生成。
因此,用户输入的 指令质量 会直接影响AI输出结果,这就催生了“Prompt”这个概念。
核心含义
Prompt是用户输入给AI模型的指令或文本内容,用来引导模型生成期望的回答。
简单来说:
Prompt = 用户给AI的任务说明。
例如:
“请总结以下文章的核心观点。”
这就是一个Prompt。
实际作用
Prompt决定了AI输出内容的方向和质量。
通过优化Prompt,可以显著提升AI回答的准确性和可读性。
三、Prompt Engineering(提示词工程)
出现背景
在AI应用过程中,人们逐渐发现:
同一个模型,在不同Prompt下,输出质量差异非常大。
因此开始研究 如何设计更好的Prompt,从而让AI更稳定地完成任务,这一方法逐渐形成了一个新的领域——提示词工程。
核心含义
Prompt Engineering是指通过设计结构化提示词,提高AI输出质量的一种方法。
常见方式包括:
- 明确任务描述
- 设定角色
- 提供示例
- 分步骤思考
实际作用
提示词工程在以下场景中非常重要:
- AI写作
- AI数据分析
- AI客服系统
- AI编程助手
在很多企业AI应用中,Prompt设计本身就是核心能力之一。
四、RAG(Retrieval-Augmented Generation)
出现背景
大语言模型虽然能力很强,但存在两个明显问题:
- 模型知识来源于训练数据,无法获取企业内部数据
- 模型有时会生成看似合理但实际错误的信息(AI幻觉)
- 与模型的交互记忆上也受限于模型的上下文长度
为了让AI能够结合外部知识回答问题,研究人员提出了 RAG技术架构。
核心含义
RAG是一种将 信息检索技术 与 大语言模型生成能力 结合的技术方案。
基本流程如下:
1 用户提出问题
2 系统在知识库中检索相关资料
3 将检索到的内容提供给大模型
4 大模型结合资料生成回答
实际作用
RAG广泛用于企业AI应用,例如:
- 企业知识库问答
- 智能客服系统
- 文档检索助手
- 技术支持机器人
目前大多数企业AI知识库系统,都是基于RAG技术实现的。
五、Agent(智能体)
出现背景
传统AI模型只能完成单一任务,例如回答问题或生成文本。
但在实际应用中,人们希望AI能够:
- 自动完成复杂任务
- 调用不同工具
- 执行多步骤操作
因此提出了 AI Agent(智能体) 的概念。
核心含义
Agent是一种能够自主规划任务,并调用不同工具完成目标的AI系统。
与普通AI模型不同,Agent具有以下特点:
- 能拆解任务
- 能调用工具
- 能执行多步骤流程
实际作用
AI Agent通常用于:
- 自动数据分析
- 自动生成报告
近年来许多AI平台都开始支持Agent能力。
六、Embedding(向量化)
出现背景
计算机并不能直接理解自然语言,因此需要把文本的语义转换成可以计算的数学形式。
为了解决这个问题,研究人员提出了 Embedding(向量化)技术。
核心含义
Embedding是把文本转换为一组数字向量的技术。
例如:
一句话可能会被表示为:
[0.12, -0.33, 0.58, …]
通过这些向量,可以计算不同文本之间的语义相似度。
实际作用
Embedding是很多AI应用的重要基础能力,例如:
- 语义搜索
- 文档相似度计算
- RAG知识库检索
七、Token(标记)
出现背景
大语言模型在处理文本时,并不是按“字”或“词”直接理解,而是将文本拆分成更小的单位进行计算,这种单位就是Token。
这样做的原因是:
- 统一不同语言的处理方式
- 提高模型计算效率
- 便于模型进行概率预测
核心含义
Token是模型处理文本的最小单位,可以是:
- 一个字
- 一个词
- 或一个字词片段
例如:
一句话可能会被拆分为多个Token后再输入模型。
实际作用
Token在AI应用中非常关键:
- 影响模型输入长度限制
- 影响调用成本(很多模型按Token计费)
- 影响回答完整性
八、Context Window(上下文窗口)
出现背景
大模型在处理文本时,并不能无限读取内容,而是有一个“记忆范围”的限制,这个限制就是上下文窗口。
随着应用复杂度提升,人们越来越需要模型处理更长内容(例如合同、报告),因此Context Window成为重要指标。
核心含义
Context Window指模型一次可以处理的最大Token数量。
例如:
- 8K上下文
- 32K上下文
- 128K上下文
实际作用
上下文窗口直接影响:
- 能否处理长文档
- 多轮对话的连续性
- RAG系统中可注入的知识量

