微信已开放龙虾接口

微信官方本周发布了龙虾接口,意味着我们可以通过微信来操控龙虾了。

很多项目利用这个接口做二次开发,便于各种 Bot 和 Agent 网关的接入。

AI应用常见新词汇

本篇进一步探讨那些支撑复杂AI系统的新技术和术语,例如MCP、Function Calling、Multi-Agent等。

这些技术的出现有一个共同原因:大模型本身只是提供“一问一答”的能力。在实际应用中,我们需要让AI能够处理多步骤任务、跨系统协作、长文档理解,以及复杂业务逻辑。于是便以大模型为基石,开发了各类辅助技术,使AI不仅能说话,还能“做事”。

就像几十年前,当电力技术出现后,人们不仅点亮了灯泡,还基于电力发明了电视、电冰箱、电梯、计算机网络等一系列应用。大模型同样是AI的“电力”,为衍生技术提供了基础,让整个AI生态迅速丰富并得以发展。

一、Function Calling(函数调用)

出现背景

大模型本身只能生成文本,但在实际应用中,我们希望AI能够:

  • 查询数据库
  • 调用接口
  • 执行业务逻辑

因此引入了Function Calling机制,让模型可以“调用程序”。

核心含义

Function Calling是指模型在生成回答时,可以触发预定义函数,由系统执行具体操作,并将结果返回给模型。

实际作用

Function Calling常用于:

  • 查询业务数据
  • 调用系统接口
  • 执行自动化流程

这是AI从“聊天工具”走向“业务系统”的关键能力。

二、MCP(Model Context Protocol,模型上下文协议)

出现背景

随着大语言模型(LLM)在企业应用中普及,人们发现:

  • 不同模型版本、不同服务之间的上下文数据无法统一管理
  • 企业在多系统、多模型协作时,容易出现上下文信息丢失或不一致
  • 长上下文、多轮对话场景下,模型无法自动理解跨会话或跨模块的语义

为了规范模型与上下文数据的交互,并保证不同模型或服务之间上下文信息一致性,Model Context Protocol(MCP)应运而生。它定义了一套标准方法,使模型能够安全、可靠地读取、更新和传递上下文数据

核心含义

MCP是一种协议或标准,用于管理和传递模型的上下文信息。其特点包括:

  • 定义上下文数据的结构和格式
  • 规范不同模型或服务之间上下文传递方式
  • 支持跨多轮对话和多系统的数据共享
  • 保证模型在多任务和多场景下理解一致性

简单来说,MCP就是“模型和上下文之间的通信语言”,让AI系统能够在复杂场景中保持语义连续性。

实际作用

  • 多轮对话管理:保证模型在连续对话中理解上下文一致
  • 跨系统协作:企业AI系统中不同服务共享上下文数据
  • 长文档处理:模型能够分片处理长文本并保持全局语义
  • 知识库和RAG系统:统一上下文数据接口,提高检索和生成质量
  • 增强稳定性与可靠性:避免信息丢失或语义错乱

理解MCP

Model Context Protocol 的核心功能是允许 LLM 请求外部工具协助回答查询或完成任务。假设我们向 AI 助理发出以下指令:“在我们的数据库中查找最新的销售报告,并将其通过电子邮件发送给我的经理。”

以下简要说明 MCP 将如何处理这种情况:

  1. 请求与工具发现:LLM 明白其本身无法访问数据库或发送电子邮件。它使用 MCP 客户端搜索可用工具,并在 MCP 服务器上找到了两个相关工具:database_query 工具和 email_sender 工具。
  2. 工具调用:LLM 生成结构化请求来使用这些工具。首先,它会调用 database_query 工具,并指定报告的名称。然后,MCP 客户端会将此请求发送到相应的 MCP 服务器。
  3. 外部操作与数据返回:MCP 服务器接收请求,将其转换为面向公司数据库的安全 SQL 查询,并检索销售报告。然后,它会将这些数据格式化后发送回 LLM。
  4. 第二个操作与响应生成:现在已获得报告数据,LLM 调用 email_sender 工具,提供经理的邮箱地址和报告内容。邮件发送后,MCP 服务器会确认操作已完成。
  5. 最终确认:LLM 向您提供最终回应:“我已找到最新的销售报告,并通过邮件发送给您的经理。”

三、Workflow(工作流)

出现背景

单次AI调用往往无法完成复杂任务,因此需要将多个步骤串联起来,形成完整流程。

于是AI工作流(Workflow)逐渐成为主流设计方式。

核心含义

Workflow是指将多个AI步骤(如输入、处理、调用工具、输出)组合成一个完整流程。

实际作用

常见应用:

  • 自动生成报告
  • 自动审批流程
  • 数据处理流水线
  • 客服对话流程

目前很多AI平台都提供可视化Workflow能力。

四、Fine-tuning(模型微调)

出现背景

通用大模型虽然能力强,但在特定行业(如医疗、医药、金融)中,往往不够专业。

因此需要用行业数据对模型进行进一步训练,使其更符合业务需求。

核心含义

Fine-tuning是指在已有大模型基础上,使用特定领域数据进行再训练的过程。

实际作用

  • 提升模型在专业领域的表现
  • 适配企业业务场景
  • 构建行业专用模型

五、LoRA(低秩适配)

出现背景

传统微调成本很高,需要大量计算资源。

为了降低成本,研究人员提出了LoRA方法,只调整模型的一小部分参数。

核心含义

LoRA是一种高效的模型微调技术,通过少量参数训练,实现模型能力调整。

实际作用

  • 降低训练成本
  • 提高训练效率
  • 便于企业部署私有模型

六、Multi-Agent(多智能体)

出现背景

单个Agent在处理复杂任务时能力有限,因此引入多个Agent协同工作。

核心含义

Multi-Agent是指多个AI Agent分工协作,共同完成任务。

例如:

  • 一个负责数据收集
  • 一个负责分析
  • 一个负责生成报告

实际作用

  • 处理复杂业务流程
  • 提高任务完成质量
  • 模拟团队协作模式

七、Long Context(长上下文)

出现背景

随着应用需求增长,传统上下文长度已经无法满足处理长文档、长对话的需求。

因此模型开始支持更长的上下文能力。

核心含义

Long Context指模型可以处理更长的输入内容(更多Token)。

实际作用

  • 分析长文档
  • 处理复杂对话
  • 提升RAG系统效果

八、Temperature(温度参数)

出现背景

模型生成内容本质是概率选择,不同场景需要不同“随机性”。

因此引入Temperature参数控制输出风格。

核心含义

Temperature用于控制模型输出的随机性:

  • 低值:更稳定、确定性强
  • 高值:更随机、更有创造性

实际作用

  • 写报告:低温度
  • 创意写作:高温度
  • 数据分析:低温度