本周,谷歌官方推出了一款苹果手机 App,为手机提供离线使用的 Gemma 4 模型。不需要上网,手机也能使用大模型了。

大模型到底在干嘛

大多数人已经在用 AI 了:写周报、改文案、查资料。

但用着用着,往往会冒出一个更实际的问题——

👉 这玩意儿到底在“干嘛”?它是真的在“思考”吗?

一、先说结论:它本质是在“猜下一个字”

如果只用一句话总结:

👉 大模型做的事情,其实就是:根据前面的内容,预测接下来最可能出现的词。

听起来很简单对吧?但关键在于——
它不是随便猜,而是基于海量数据训练出来的“高水平猜测”

举个简单例子:

当看到一句话:

今天天气很好,我准备去_____

我么大概率会填:

  • 公园
  • 散步
  • 逛街

而不会填:

  • 修火箭
  • 挖隧道

为什么?
因为我们“见得多”,知道正常人会怎么说。

👉 大模型干的就是同一件事,只不过它见过的是“全世界级别的数据”。

二、它为什么看起来“像懂了”?

有时候可能会有一种感觉:

👉 AI有时候说话特别像人,甚至感觉它“理解了”。

但实际上,它并不是像人一样在理解,而是:

👉 它太会“模仿人类说话方式”了。

可以把它想象成:

  • 一个看了无数书、无数对话的人
  • 记住了各种表达方式、逻辑结构、回答套路

当你问它问题时,它会:

👉 从“它见过的所有表达方式里”,拼出一个最像“正确答案”的回答

所以我们会觉得:

  • 有逻辑 ✔️
  • 有结构 ✔️
  • 甚至还有点“有见解” ✔️

但本质上,它是在做一件事:

👉 把“像答案的话”组织出来

三、为什么它有时候很聪明,有时候很离谱?

这个问题我们应该都遇到过:

  • 有时候特别好用 👍
  • 有时候一本正经胡说八道 😅

原因其实很简单:

👉 它不是在查事实,而是在“生成答案”。

再说直白一点:

  • 它不会判断“这件事是真的假的”
  • 它只会判断“这句话像不像一个合理的回答”

举个典型情况:

当我们问一个很冷门的问题,或者信息不完整:

👉 它也不会说“我不知道”,而是会努力“编一个看起来合理的答案”

这就是为什么会出现所谓的“AI幻觉”。

四、那它到底算不算“智能”?

这个问题没有绝对答案,但可以这样理解:

👉 它不是人类那种“理解型智能”,而是一种“模式识别 + 表达生成”的能力。

换个更接地气的比喻:

  • 人类:理解 → 思考 → 表达
  • 大模型:匹配模式 → 生成表达

但有意思的是:

👉 当“匹配能力”足够强的时候,看起来就很像“理解”

五、那我们该怎么用它?

理解它的工作方式,其实是为了更好地用它:

✅ 适合它做的事:

  • 写东西(周报、方案、文案)
  • 做总结
  • 头脑风暴
  • 帮我们“把话说清楚”

❌ 不适合完全依赖的:

  • 100%准确的事实判断
  • 非常专业、非常细节的决策
  • 需要绝对正确的内容

六、最后一句话总结

👉 大模型不是在“思考答案”,而是在“生成一个最像答案的回答”,想要生成的答案最想回答,应该尽可能做好Prompt。

理解这一点,就会发现:

  • 它为什么这么好用
  • 也会明白它为什么有时候会“翻车”

附:AI Prompt 技巧与实战案例

来源:《AI驱动商业公司办公提效》AI老师培训记录,2026年4月

一、什么是 Prompt

Prompt(提示词):与 AI 大模型对话时,给出的清晰指令。通过清晰的指令,AI 能更好地理解你的需求。

二、Prompt 的基本结构

提示语由三个核心要素组成:

要素 说明
指令(Instruction) 明确告诉 AI 执行什么任务
上下文(Context) 提供背景信息,帮助 AI 更准确理解
期望(Expectation) 明确对输出的要求和预期

三、Prompt 万能公式

1
角色 → 任务 → 背景 → 输出格式 → 约束

四、核心 Prompt 技巧

技巧 1:多轮对话——追问 + 澄清 + 引导

不要期望 AI 第一轮就完全理解需求,要学会追问和引导。

技巧 2:善用模仿

给 AI 一个参考文档,让它模仿语气、风格。

1
提示词结尾加入:"请模仿上述文档的语气"

技巧 3:激发深度思考

在提示词结尾加入:

1
2
3
"在你的回答中,同时加入你的批判性思考"

"在你回答之前,先自己复盘 100 遍"

技巧 4:先问 AI 缺什么背景

在提示词后加一句话:

“在你回答之前,先告诉我你还缺哪些背景信息,能让你回答得更好!”

本质是给 AI 提供更多上下文。

技巧 5:从单一观点转向多维分析

  • 无效问法"你觉得这个方案怎么样?"
  • 有效问法"从产品经理、工程师、用户三角度看,各有什么优缺点?"
  • 逆向挑战法:让 AI 说观点后,要求它”站在反对者角度狠狠批评你的观点”

技巧 6:迭代优化提示词

让 AI 帮你完善提示词本身:

  1. “你是我的 AI 提示词创作高手,请用提问的方式反复与我头脑风暴”
  2. “直到对我的需求理解程度到 90%”
  3. “再生成一版高质量的提示词指令”
  4. “然后继续问我是否满意,不满意就持续迭代”

技巧 7:配合参考文档使用

把 AI 生成的专业提示词 + 对应的 PDF 文件一起给 AI(如 DeepSeek),效果更好。

五、降低 AI 幻觉的 Prompt 方法

方法 1:设定边界

错误示范 正确示范
介绍 ChatGPT 的发展历程 请仅基于 OpenAI 官方 2022-2023 年的公开文档,介绍 ChatGPT 的发展历程

方法 2:标注不确定

错误示范 正确示范
分析特斯拉 2025 年的市场份额 分析特斯拉 2025 年的市场份额,对于非官方数据或预测性内容,请标注 [推测内容]

方法 3:步骤拆解

错误示范 正确示范
评估人工智能对就业的影响 请分两步评估:1) 先列出目前已发生的具体影响案例;2) 基于这些案例进行未来趋势分析

方法 4:明确约束

告诉 AI 只基于已有事实回答,不要推测

1
2
请仅基于 2023 年的实际房地产数据和已出台的相关政策进行分析,
不要加入任何推测性内容

方法 5:分批输出

“咱们一段一段来写,先把开头写好。等这部分满意了,再继续写下一段。”

方法 6:多 AI 互相评价挑刺

向多个 AI(豆包 / GPT / Claude / Gemini)同时提问,让它们互相评价挑刺,最后融合各方见解。

六、实战案例

案例 1:写消防培训通知

1
2
3
请以公司综合管理部的口吻,起草一份关于"开展消防培训"的通知,内容包括:
培训时间、地点、参训人员、培训要求、纪律要求。
要求语言正式、条理清晰、适合公司内部发布。

案例 2:政策解读

不是把长文缩成短文,而是把政策语言转成管理语言和行动语言

Prompt 步骤:

  1. 先不让 AI 总结,先让它识别文件
  2. 提取“对企业最有用的信息”
  3. 转成企业内部语言
  4. 生成行动清单

提取对企业最有用的信息:

1
2
3
4
5
请从以下政策文件中提取"对企业最有用的信息",重点关注:
- 企业需要做什么
- 截止时间节点
- 需要准备的材料
- 可能的补贴或支持政策

转成企业内部语言:

1
2
请将上述政策内容转化为企业内部可执行的管理语言和行动清单,
去掉政策套话,保留执行要点。

生成行动清单:

1
2
请基于上述分析,生成一份企业可执行的行动清单,
包含:任务名称、负责部门、完成时限。

案例 3:数据分析报告

先给 AI 业务背景(先不上传数据),再:

1
2
先分析,不写报告。
请把结论区分为"基于数据可以确认"和"需要业务进一步验证"两类。

案例 4:数据预处理

1
2
3
请检查给定的 excel 表中数据是否存在缺失值或异常值:
(1)如满意度评分超出 1-5 分,按照 5 分计算;
(2)如果"职业"列为空,则按照"自由职业者"处理

案例 5:生成图表

1
2
生成老旧小区满意度的分布条形图,标注平均分和中位数,
用红色标出低于 3 分的比例。

(结合 HTML 代码或豆包等工具实现可视化)

案例 6:词云分析

1
2
从"意见建议"字段中提取前 10 个高频词及出现频次,
排除"的""了"等停用词,生成词云图。

案例 7:跨职业群体对比分析

1
2
对比不同职业群体(公务员、企业职工、退休人员)的满意度均值,
用表格展示,并分析显著性差异。