AI现阶段常见新词汇出现背景(二)
微信已开放龙虾接口
微信官方本周发布了龙虾接口,意味着我们可以通过微信来操控龙虾了。
很多项目利用这个接口做二次开发,便于各种 Bot 和 Agent 网关的接入。
AI应用常见新词汇
本篇进一步探讨那些支撑复杂AI系统的新技术和术语,例如MCP、Function Calling、Multi-Agent等。
这些技术的出现有一个共同原因:大模型本身只是提供“一问一答”的能力。在实际应用中,我们需要让AI能够处理多步骤任务、跨系统协作、长文档理解,以及复杂业务逻辑。于是便以大模型为基石,开发了各类辅助技术,使AI不仅能说话,还能“做事”。
就像几十年前,当电力技术出现后,人们不仅点亮了灯泡,还基于电力发明了电视、电冰箱、电梯、计算机网络等一系列应用。大模型同样是AI的“电力”,为衍生技术提供了基础,让整个AI生态迅速丰富并得以发展。
一、Function Calling(函数调用)
出现背景
大模型本身只能生成文本,但在实际应用中,我们希望AI能够:
- 查询数据库
- 调用接口
- 执行业务逻辑
因此引入了Function Calling机制,让模型可以“调用程序”。
核心含义
Function Calling是指模型在生成回答时,可以触发预定义函数,由系统执行具体操作,并将结果返回给模型。
实际作用
Function Calling常用于:
- 查询业务数据
- 调用系统接口
- 执行自动化流程
这是AI从“聊天工具”走向“业务系统”的关键能力。
二、MCP(Model Context Protocol,模型上下文协议)
出现背景
随着大语言模型(LLM)在企业应用中普及,人们发现:
- 不同模型版本、不同服务之间的上下文数据无法统一管理
- 企业在多系统、多模型协作时,容易出现上下文信息丢失或不一致
- 长上下文、多轮对话场景下,模型无法自动理解跨会话或跨模块的语义
为了规范模型与上下文数据的交互,并保证不同模型或服务之间上下文信息一致性,Model Context Protocol(MCP)应运而生。它定义了一套标准方法,使模型能够安全、可靠地读取、更新和传递上下文数据。
核心含义
MCP是一种协议或标准,用于管理和传递模型的上下文信息。其特点包括:
- 定义上下文数据的结构和格式
- 规范不同模型或服务之间上下文传递方式
- 支持跨多轮对话和多系统的数据共享
- 保证模型在多任务和多场景下理解一致性
简单来说,MCP就是“模型和上下文之间的通信语言”,让AI系统能够在复杂场景中保持语义连续性。
实际作用
- 多轮对话管理:保证模型在连续对话中理解上下文一致
- 跨系统协作:企业AI系统中不同服务共享上下文数据
- 长文档处理:模型能够分片处理长文本并保持全局语义
- 知识库和RAG系统:统一上下文数据接口,提高检索和生成质量
- 增强稳定性与可靠性:避免信息丢失或语义错乱
理解MCP
Model Context Protocol 的核心功能是允许 LLM 请求外部工具协助回答查询或完成任务。假设我们向 AI 助理发出以下指令:“在我们的数据库中查找最新的销售报告,并将其通过电子邮件发送给我的经理。”
以下简要说明 MCP 将如何处理这种情况:
- 请求与工具发现:LLM 明白其本身无法访问数据库或发送电子邮件。它使用 MCP 客户端搜索可用工具,并在 MCP 服务器上找到了两个相关工具:database_query 工具和 email_sender 工具。
- 工具调用:LLM 生成结构化请求来使用这些工具。首先,它会调用 database_query 工具,并指定报告的名称。然后,MCP 客户端会将此请求发送到相应的 MCP 服务器。
- 外部操作与数据返回:MCP 服务器接收请求,将其转换为面向公司数据库的安全 SQL 查询,并检索销售报告。然后,它会将这些数据格式化后发送回 LLM。
- 第二个操作与响应生成:现在已获得报告数据,LLM 调用 email_sender 工具,提供经理的邮箱地址和报告内容。邮件发送后,MCP 服务器会确认操作已完成。
- 最终确认:LLM 向您提供最终回应:“我已找到最新的销售报告,并通过邮件发送给您的经理。”
三、Workflow(工作流)
出现背景
单次AI调用往往无法完成复杂任务,因此需要将多个步骤串联起来,形成完整流程。
于是AI工作流(Workflow)逐渐成为主流设计方式。
核心含义
Workflow是指将多个AI步骤(如输入、处理、调用工具、输出)组合成一个完整流程。
实际作用
常见应用:
- 自动生成报告
- 自动审批流程
- 数据处理流水线
- 客服对话流程
目前很多AI平台都提供可视化Workflow能力。
四、Fine-tuning(模型微调)
出现背景
通用大模型虽然能力强,但在特定行业(如医疗、医药、金融)中,往往不够专业。
因此需要用行业数据对模型进行进一步训练,使其更符合业务需求。
核心含义
Fine-tuning是指在已有大模型基础上,使用特定领域数据进行再训练的过程。
实际作用
- 提升模型在专业领域的表现
- 适配企业业务场景
- 构建行业专用模型
五、LoRA(低秩适配)
出现背景
传统微调成本很高,需要大量计算资源。
为了降低成本,研究人员提出了LoRA方法,只调整模型的一小部分参数。
核心含义
LoRA是一种高效的模型微调技术,通过少量参数训练,实现模型能力调整。
实际作用
- 降低训练成本
- 提高训练效率
- 便于企业部署私有模型
六、Multi-Agent(多智能体)
出现背景
单个Agent在处理复杂任务时能力有限,因此引入多个Agent协同工作。
核心含义
Multi-Agent是指多个AI Agent分工协作,共同完成任务。
例如:
- 一个负责数据收集
- 一个负责分析
- 一个负责生成报告
实际作用
- 处理复杂业务流程
- 提高任务完成质量
- 模拟团队协作模式
七、Long Context(长上下文)
出现背景
随着应用需求增长,传统上下文长度已经无法满足处理长文档、长对话的需求。
因此模型开始支持更长的上下文能力。
核心含义
Long Context指模型可以处理更长的输入内容(更多Token)。
实际作用
- 分析长文档
- 处理复杂对话
- 提升RAG系统效果
八、Temperature(温度参数)
出现背景
模型生成内容本质是概率选择,不同场景需要不同“随机性”。
因此引入Temperature参数控制输出风格。
核心含义
Temperature用于控制模型输出的随机性:
- 低值:更稳定、确定性强
- 高值:更随机、更有创造性
实际作用
- 写报告:低温度
- 创意写作:高温度
- 数据分析:低温度

