全球AI使用现状

世界总人口现在是81亿,如果画成一个方块图,每个方块代表320万人。

68.8亿人还从没用过 AI(灰色方块),占84%。

13.8亿人跟 AI 有过对话(绿色方块),占16%。

1500万~2500万人付费订阅了 AI 服务(黄色方块),占0.3%。

200万~500万人使用 AI 生成了自己的编程项目(红色方块),占0.04%。

图片数据截至2026-03-06前有效

AI应用常见新词汇

随着大模型技术的发展,AI领域在近两年出现了大量新的技术词汇,例如:LLM、Prompt、RAG、Agent等。
这些概念不仅出现在技术文章中,也逐渐进入企业应用场景。

理解这些核心术语的出现原因,有助于更好地理解当前AI系统的工作方式以及未来的应用方向。

一、LLM(Large Language Model,大语言模型)

出现背景

在早期的自然语言处理(NLP)领域,模型通常只能完成单一任务,例如:

  • 情感分析
  • 文本分类
  • 机器翻译

每个任务都需要单独训练一个模型,开发成本较高,通用性也较差。

随着深度学习的发展,研究人员开始训练参数规模更大的通用语言模型,通过海量文本数据进行训练,使模型能够同时具备多种语言理解和生成能力,这类模型被称为 大语言模型(LLM)

核心含义

LLM是一种通过大量文本数据训练得到的人工智能模型,能够理解和生成自然语言。

实际作用

大语言模型是当前AI应用的核心基础能力,可以用于:

  • 智能对话
  • 自动写作
  • 代码生成
  • 文档总结
  • 数据分析辅助

目前大部分AI应用平台,本质上都是围绕LLM构建的。

二、Prompt(提示词)

出现背景

大语言模型并不是传统意义上的“程序”,它不会严格按照固定逻辑执行任务,而是根据用户输入内容进行语言生成。

因此,用户输入的 指令质量 会直接影响AI输出结果,这就催生了“Prompt”这个概念。

核心含义

Prompt是用户输入给AI模型的指令或文本内容,用来引导模型生成期望的回答。

简单来说:

Prompt = 用户给AI的任务说明。

例如:

“请总结以下文章的核心观点。”

这就是一个Prompt。

实际作用

Prompt决定了AI输出内容的方向和质量。
通过优化Prompt,可以显著提升AI回答的准确性和可读性。

三、Prompt Engineering(提示词工程)

出现背景

在AI应用过程中,人们逐渐发现:

同一个模型,在不同Prompt下,输出质量差异非常大。

因此开始研究 如何设计更好的Prompt,从而让AI更稳定地完成任务,这一方法逐渐形成了一个新的领域——提示词工程。

核心含义

Prompt Engineering是指通过设计结构化提示词,提高AI输出质量的一种方法。

常见方式包括:

  • 明确任务描述
  • 设定角色
  • 提供示例
  • 分步骤思考

实际作用

提示词工程在以下场景中非常重要:

  • AI写作
  • AI数据分析
  • AI客服系统
  • AI编程助手

在很多企业AI应用中,Prompt设计本身就是核心能力之一

四、RAG(Retrieval-Augmented Generation)

出现背景

大语言模型虽然能力很强,但存在两个明显问题:

  1. 模型知识来源于训练数据,无法获取企业内部数据
  2. 模型有时会生成看似合理但实际错误的信息(AI幻觉)
  3. 与模型的交互记忆上也受限于模型的上下文长度

为了让AI能够结合外部知识回答问题,研究人员提出了 RAG技术架构

核心含义

RAG是一种将 信息检索技术大语言模型生成能力 结合的技术方案。

基本流程如下:

1 用户提出问题
2 系统在知识库中检索相关资料
3 将检索到的内容提供给大模型
4 大模型结合资料生成回答

实际作用

RAG广泛用于企业AI应用,例如:

  • 企业知识库问答
  • 智能客服系统
  • 文档检索助手
  • 技术支持机器人

目前大多数企业AI知识库系统,都是基于RAG技术实现的。

五、Agent(智能体)

出现背景

传统AI模型只能完成单一任务,例如回答问题或生成文本。

但在实际应用中,人们希望AI能够:

  • 自动完成复杂任务
  • 调用不同工具
  • 执行多步骤操作

因此提出了 AI Agent(智能体) 的概念。

核心含义

Agent是一种能够自主规划任务,并调用不同工具完成目标的AI系统。

与普通AI模型不同,Agent具有以下特点:

  • 能拆解任务
  • 能调用工具
  • 能执行多步骤流程

实际作用

AI Agent通常用于:

  • 自动数据分析
  • 自动生成报告

近年来许多AI平台都开始支持Agent能力。

六、Embedding(向量化)

出现背景

计算机并不能直接理解自然语言,因此需要把文本的语义转换成可以计算的数学形式。

为了解决这个问题,研究人员提出了 Embedding(向量化)技术

核心含义

Embedding是把文本转换为一组数字向量的技术。

例如:

一句话可能会被表示为:

[0.12, -0.33, 0.58, …]

通过这些向量,可以计算不同文本之间的语义相似度。

实际作用

Embedding是很多AI应用的重要基础能力,例如:

  • 语义搜索
  • 文档相似度计算
  • RAG知识库检索

七、Token(标记)

出现背景

大语言模型在处理文本时,并不是按“字”或“词”直接理解,而是将文本拆分成更小的单位进行计算,这种单位就是Token。

这样做的原因是:

  • 统一不同语言的处理方式
  • 提高模型计算效率
  • 便于模型进行概率预测

核心含义

Token是模型处理文本的最小单位,可以是:

  • 一个字
  • 一个词
  • 或一个字词片段

例如:

一句话可能会被拆分为多个Token后再输入模型。

实际作用

Token在AI应用中非常关键:

  • 影响模型输入长度限制
  • 影响调用成本(很多模型按Token计费)
  • 影响回答完整性

八、Context Window(上下文窗口)

出现背景

大模型在处理文本时,并不能无限读取内容,而是有一个“记忆范围”的限制,这个限制就是上下文窗口。

随着应用复杂度提升,人们越来越需要模型处理更长内容(例如合同、报告),因此Context Window成为重要指标。

核心含义

Context Window指模型一次可以处理的最大Token数量。

例如:

  • 8K上下文
  • 32K上下文
  • 128K上下文

实际作用

上下文窗口直接影响:

  • 能否处理长文档
  • 多轮对话的连续性
  • RAG系统中可注入的知识量