前言:MCP是什么?
MCP (Model Context Protocol) 是近期AI领域的一个热点,它是一种开放协议,旨在让AI模型能够安全、标准化地与本地或远程的工具、API和资源进行交互。每天都有大量的MCP工具(也称为MCP Server)诞生,极大地扩展了AI大模型的能力边界。
你可以在专题网站 smithery.ai 上找到不断增长的MCP工具列表,目前已收录近3000种。
关于MCP的基础概念和工作原理,可以参考之前的相关介绍。本文将跳过基础概念,直接进入实战环节,介绍15种有趣实用的MCP工具。
测试环境
- AI客户端:
- MCP工具参考:
- Awesome MCP Servers: 一个GitHub项目,分类整理了大量的MCP Server实现。(GitHub)
- 说明: 本次演示主要参考此项目,并尽量选择各分类下GitHub Star数最多的工具作为代表。
基础配置
在开始体验各种MCP Server之前,我们需要先完成一些基础环境的配置。
1. 安装 AI 客户端 (CherryStudio)
访问 **CherryStudio 官网下载页面**,下载最新版本并安装。安装过程非常简单,一路点击“下一步”即可。
2. 配置 AI 大模型
打开 CherryStudio,我们需要配置一个支持MCP的大模型API。
Function Call vs System Prompt:
- MCP客户端与大模型交互主要有两种方式:Function Call (工具调用) 和 **System Prompt (系统提示词)**。
- CherryStudio 使用 Function Call,因此需要选用支持该功能的大模型(如 Claude 3.x, GPT-4, DeepSeek V2/V3 等)。
- Cline 使用 System Prompt,对模型的要求相对宽松。
配置 OpenRouter (推荐给 CherryStudio):
- 前往 OpenRouter.ai (国内可直连),这是一个AI模型API聚合网站。注册并登录。
- 在 CherryStudio 左下角点击 设置 -> 模型服务 -> OpenRouter。
- 在 OpenRouter 网站右上角找到 Keys -> Create Key,创建一个新的API Key并复制。
- 将复制的 API Key 粘贴到 CherryStudio 的 OpenRouter 配置中。
- 添加模型:在 OpenRouter 网站搜索支持 Function Call 的模型,例如 Claude 3.7 Sonnet (认准模型详情页有
Tools
标签)。复制模型名称(如anthropic/claude-3.7-sonnet
)。 - 回到 CherryStudio 的 OpenRouter 配置,点击 添加,填入复制的模型ID。
- 配置完成后,模型列表中带 小扳手图标 的模型表示支持 Function Call (函数调用)。
- 注意: Claude 3.7 是付费模型,需要在 OpenRouter 充值才能使用。
- 配置 DeepSeek (低成本替代方案):
- 如果不想付费,可以使用 DeepSeek V3 模型,它也支持 Function Call 且有免费额度。
- 前往 DeepSeek 开放平台 注册并登录。
- 在 API Keys 页面创建一个 Key。
- 在 CherryStudio 左下角点击 设置 -> 模型服务 -> 深度求索。
- 粘贴 API Key,并添加模型,如
deepseek-chat
。
- 提示: DeepSeek V3 模型最近刚升级,效果很好。
3. 安装 MCP 运行环境 (uv, bun)
大部分MCP Server依赖特定的运行环境。CherryStudio 可以方便地管理这些环境。
- 在 CherryStudio 左下角点击 设置 -> MCP 服务器。
- 你可能会看到提示
UV 缺失
和Bun 缺失
。- uv: 一个 Python 包管理和运行环境。
- bun: 一个类似于 Node.js 的 JavaScript/TypeScript 运行环境。
- 分别点击右侧的 安装 按钮。CherryStudio 会自动下载并安装其内置的
uv
和bun
,这不会影响你系统全局的安装。
- 重要提示 (Bug 修复):
- 当前版本的 CherryStudio 可能存在一个 Bug:即使点击安装后,切换页面再回来,可能仍然提示
uv
或bun
缺失。 - 解决方法: 需要手动安装。
- 访问 CherryStudio 官方文档 - MCP 使用教程。
- 找到“无法正常安装的情况”下的手动下载链接:
- 根据你的操作系统下载对应的
bun
(如bun-windows-x64.zip
) 和uv
(如uv-x86_64-pc-windows-msvc.zip
) 可执行文件压缩包。 - 在你的用户目录下找到
.cherrystudio
文件夹 (通常是C:\Users\{你的用户名}\.cherrystudio
或~/.cherrystudio
)。 - 在该目录下创建一个名为
bin
的子文件夹。 - 将解压后的
bun.exe
,uv.exe
,uvx.exe
这三个文件复制到bin
文件夹中。 - 完成后,回到 CherryStudio 的 MCP 服务器设置页面,那两个黄色的缺失提示应该消失了。
- 当前版本的 CherryStudio 可能存在一个 Bug:即使点击安装后,切换页面再回来,可能仍然提示
现在,基础配置完成,我们可以开始配置和使用各种 MCP 服务器了!
15个MCP Server实战演示
以下按类别演示15个MCP Server的配置和使用。
(配置 MCP Server 的通用步骤: 在 CherryStudio 设置 -> MCP 服务器 -> 点击 “编辑JSON”,将对应 Server 的 JSON 配置粘贴进去,注意替换必要的参数如 API Key、路径等,然后保存并启用该 Server)
1. 网页内容 (Fetch MCP Server)
- 功能: 让大模型获取指定 URL 网页的内容,并以 Markdown 格式返回。
- 来源:
@modelcontextprotocol/server-fetch
- CherryStudio 配置: (使用
uvx
运行)1
2
3
4
5
6
7
8
9
10
11{
"mcpServers": {
"fetch": {
"isActive": true,
"command": "uvx",
"args": [
"mcp-server-fetch"
]
}
}
} - 使用示例 (CherryStudio):
- 启用
fetch
MCP Server。 - 提问:
获取这个网页的详细内容: https://cherry-ai.com/download
- 结果: AI 调用
fetch
服务,成功获取并总结了 CherryStudio 下载页面的内容。
- 启用
- Cline 配置:
1
2
3
4
5
6
7
8
9
10
11{
"mcpServers": {
"fetch": {
"isActive": true,
"command": "uvx",
"args": [
"mcp-server-fetch"
]
}
}
} - 使用示例 (Cline):
- 在 VS Code 中打开 Cline 配置 (
cline_mcp_settings.json
),粘贴配置。 - 注意: Cline 使用系统级的
uv
,需要先通过pip install uv
或其他方式全局安装uv
。 - 点击
Retry Connection
连接 Server。 - 新开对话,提问相同问题。
- 结果: 同样成功获取并总结了网页内容。
- 在 VS Code 中打开 Cline 配置 (
- 通用性: 这个配置 JSON 在支持 MCP 的客户端(如 CherryStudio, Cline, Cursor)之间是通用的。
2. 地图 (百度地图 MCP Server)
- 功能: 提供地理编码、地点检索、路线规划等地图服务。
- 来源:
@baidumap/mcp-server-baidu-map
(更适合国内用户) - 准备工作 (百度地图开放平台):
- 访问 **百度地图开放平台**,注册并登录。
- 进入 控制台 -> 应用管理 -> 我的应用 -> 创建应用。
- 应用类型选“服务端”,勾选所有服务,IP白名单填
0.0.0.0/0
(无限制)。 - 提交后,复制生成的 **访问应用 (AK)**,这就是 API Key。
- CherryStudio 配置: (使用
npx
运行)1
2
3
4
5
6
7
8
9
10
11
12
13
14{
"mcpServers": {
"baidu-map": {
"command": "npx",
"args": [
"-y",
"@baidumap/mcp-server-baidu-map"
],
"env": {
"BAIDU_MAP_API_KEY": "你的百度地图AK"
}
}
}
}- 注意: 将
"你的百度地图AK"
替换为你自己申请的 AK。
- 注意: 将
- 使用示例 (CherryStudio):
- 启用
baidu-map
MCP Server。 - 提问:
我想周末花一天时间去赏花,我家住在西二旗附近,我想早8点出门,中午去吃烤鸭,下午继续赏花,请帮我规划行程。
- 结果: AI 多次调用地图服务(地理编码、地点搜索、路线规划),规划了从西二旗出发,前往国家植物园、金鼎轩(清华园店)吃烤鸭、颐和园的行程,并贴心查询了天气。
- 再次提问(修改为坐地铁):
我想周末花一天时间去赏花...请帮我规划行程,我主要坐地铁。
- 结果: AI 重新规划了地铁路线(13号线转4号线,4号线到人大站吃烤鸭等)。
- 启用
- Cline 配置: (Windows 需要修改
command
和args
)1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17{
"mcpServers": {
"baidu-map": {
"isActive": true,
"command": "cmd", // Windows改为cmd
"args": [
"/c", // Windows添加 /c
"npx",
"-y",
"@baidumap/mcp-server-baidu-map"
],
"env": {
"BAIDU_MAP_API_KEY": "你的百度地图AK"
}
}
}
}- 注意: Mac/Linux 系统直接使用
npx
作为command
即可。
- 注意: Mac/Linux 系统直接使用
- 使用示例 (Cline): 规划行程效果类似。
3. 浏览器自动化 (Playwright MCP Server)
- 功能: 让 AI 控制 Playwright 操作浏览器,实现网页自动化交互、内容抓取等。
- 来源:
@executeautomation/playwright-mcp-server
- 准备工作:
- 需要先安装 Node.js 环境。
- 全局安装该 MCP Server 包:
npm install -g @executeautomation/playwright-mcp-server
- CherryStudio 配置: (使用
npx
运行)1
2
3
4
5
6
7
8
9
10
11{
"mcpServers": {
"playwright": {
"command": "npx",
"args": [
"-y",
"@executeautomation/playwright-mcp-server"
]
}
}
} - 使用示例 (CherryStudio):
- 启用
playwright
MCP Server。 - 提问:
来到这个 GitHub 地址: https://github.com/executeautomation/mcp-playwright,点击登录按钮,账户名填 tech-shrimp,密码填 123456
- 结果: AI 调用 Playwright 服务,逐步完成:导航到页面、截图、点击按钮、评估元素、填入用户名密码、再次截图。虽然中间有几次失败重试,但最终成功完成了登录操作。
- 启用
4. 社交软件 (Slack MCP Server)
- 功能: 让 AI 与 Slack 工作区集成,进行频道管理和消息发送。
- 来源:
@modelcontextprotocol/server-slack
- 准备工作 (Slack API):
- 访问 **Slack API Apps 页面**。
- 点击 Create an App -> From scratch。
- 给 App 起个名字(如 ShrimpBot),选择你的工作区,点击 Create App。
- 在左侧找到 OAuth & Permissions。
- 在 Bot Token Scopes 部分,添加以下 5 个权限 (Scope),根据 GitHub 页面的指引:
channels:history
channels:read
chat:write
reactions:write
users:read
- 回到页面顶部,点击 Install App to Workspace -> Allow。
- 复制生成的 Bot User OAuth Token (以
xoxb-
开头)。 - 访问你的 Slack 工作区网页版,在 URL 中找到 Team ID (以
T
开头)。
- CherryStudio 配置: (使用
npx
运行)1
2
3
4
5
6
7
8
9
10
11
12
13
14
15{
"mcpServers": {
"slack": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-slack"
],
"env": {
"SLACK_BOT_TOKEN": "你的xoxb开头的Token",
"SLACK_TEAM_ID": "你的T开头的TeamID"
}
}
}
}- 注意: 替换为你自己的 Token 和 Team ID。
- 使用示例 (CherryStudio):
- 启用
slack
MCP Server。 - 提问:
在技术爬爬虾频道,说你好
- 结果: 第一次报错
account_inactive
。重启 MCP Server 后,再次尝试成功发送“你好”到指定频道。 - 组合示例: 启用
slack
和baidu-map
。 - 提问:
查一下明天早晨8点从青岛太平角公园到会场村赶海园的最快公共交通路线,把路线发在技术爬爬虾频道
- 结果: AI 先调用地图服务查找地点和获取路线,最后调用 Slack 服务将路线信息成功发送到 Slack 频道。
- 启用
5. 搜索引擎 (DuckDuckGo MCP Server)
- 功能: 让 AI 使用 DuckDuckGo 进行网页搜索。
- 来源:
zhsama/duckduckgo-mcp-server
(无需 API Key) - CherryStudio 配置: (使用
npx
运行)1
2
3
4
5
6
7
8
9
10
11{
"mcpServers": {
"duckduckgo-search": {
"command": "npx",
"args": [
"-y",
"duckduckgo-mcp-server"
]
}
}
} - 组合示例 (CherryStudio):
- 启用
slack
和duckduckgo-search
。 - 提问:
搜索下爬爬虾怎么养殖,发送到slack频道
- 结果: AI 先调用 DuckDuckGo 进行搜索,然后调用 Slack 将搜索到的养殖方法发送到 Slack 频道。
- 启用
6. 知识图谱 (Memory MCP Server)
- 功能: 提供基于知识图谱的持久化记忆能力,让 AI 记住跨会话的信息。
- 来源:
@modelcontextprotocol/server-memory
- 核心概念: 实体 (Entity), 关系 (Relation), 观察 (Observation)。
- CherryStudio 配置: (使用
npx
运行)1
2
3
4
5
6
7
8
9
10
11{
"mcpServers": {
"memory": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-memory"
]
}
}
} - 使用示例 (CherryStudio):
- 启用
memory
MCP Server。 - 添加系统提示词 (System Prompt),指导 AI 如何使用记忆功能 (从 GitHub 页面复制)。
- 提问1:
张三 19岁了 会说德语
- 结果: AI 调用
create_entities
服务,创建了一个“张三”的实体,并记录了年龄和语言信息,存储在本地的memory.json
文件中。 - 清理上下文后提问2:
张三会什么语言
- 结果: AI 调用
read_graph
服务,从memory.json
文件中成功读取到张三会说德语的信息。
- 启用
7. 文件系统 (File System MCP Server)
- 功能: 让 AI 可以直接读写本地文件系统。
- 来源:
@modelcontextprotocol/server-filesystem
- CherryStudio 配置: (使用
npx
运行)1
2
3
4
5
6
7
8
9
10
11
12
13
14{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
// 允许访问的目录,需要修改为你的实际路径
"C:\\Users\\{你的用户名}\\Videos", // 示例路径1
"/path/to/other/allowed/dir" // 示例路径2
]
}
}
}- 重要: 必须将配置中的路径修改为你自己电脑上真实存在且允许 AI 访问的目录路径。
- Windows 路径: 注意使用两个反斜杠
\\
作为路径分隔符。
- 使用示例 (CherryStudio):
- 启用
filesystem
MCP Server。 - 提问:
帮我看下 C:\\Users\\{你的用户名}\\Videos 这个文件夹都有什么。这个文件夹的作者可能是什人?
- 结果: AI 成功列出了指定文件夹下的文件,并根据文件内容推测作者可能是技术博主或视频创作者。
- 启用
8. 命令行 (Desktop Commander MCP Server)
- 功能: 让 AI 可以在本地电脑上执行命令行命令。
- 来源:
@wonderwhy-er/desktop-commander
(Smithery.ai 上热度较高) - CherryStudio 配置: (使用
npx
运行)1
2
3
4
5
6
7
8
9
10
11{
"mcpServers": {
"desktop-commander": {
"command": "npx",
"args": [
"-y",
"@wonderwhy-er/desktop-commander"
]
}
}
} - 使用示例 (CherryStudio):
- 启用
desktop-commander
MCP Server。 - 提问:
在桌面创建一个文件 test.txt,里面写 "Hello 技术爬爬虾"
- 结果: AI 调用了多个 MCP 工具,包括检查操作系统、确认桌面位置、执行创建和写入文件的命令 (
execute_command
),成功在桌面创建了文件并写入内容。
- 启用
9. 分步骤思考 (Sequential Thinking MCP Server)
- 功能: 帮助大模型将复杂问题拆解成多个步骤,进行逐步思考和推理,将普通模型转变为推理模型。
- 来源:
@smithery-ai/server-sequential-thinking
(Smithery.ai 上热度很高) - CherryStudio 配置: (使用
npx
运行)1
2
3
4
5
6
7
8
9
10
11{
"mcpServers": {
"sequential-thinking": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-sequential-thinking"
]
}
}
} - 使用示例 (CherryStudio):
- 启用
sequential-thinking
MCP Server。 - 提问:
strawberry 有几个r
- 结果 (未使用 MCP): Claude 3.7 直接回答错误,说有 2 个 r。
- 结果 (使用 MCP): AI 多次调用
sequentialthinking
服务,展示了思考过程:识别单词、拆分字母、计数 ‘r’ 出现的位置(strawberry),最终得出正确答案 3 个 r。
- 启用
10. 云服务 (Cloudflare MCP Server)
- 功能: 让 AI 可以操作 Cloudflare 的服务,如 Workers, KV 存储, R2 对象存储, D1 数据库等。
- 来源:
@cloudflare/mcp-server-cloudflare
- 准备工作:
- 需要先通过命令行进行初始化和登录授权。执行:
npx @cloudflare/mcp-server-cloudflare init
- 它会自动打开浏览器,需要登录你的 Cloudflare 账号并授权 (Allow)。
- 需要先通过命令行进行初始化和登录授权。执行:
- CherryStudio 配置: (通常由
init
命令自动生成)1
2
3
4
5
6
7
8
9
10
11
12
13
14
15// 这个配置通常由 init 命令自动写入 claude_desktop_configs.json 或类似文件
// 如果需要手动添加,格式类似:
{
"mcpServers": {
"cloudflare": {
// command 和 args 指向 init 后生成的相关脚本或执行路径
"command": "C:\\Program Files\\nodejs\\node.EXE", // 示例
"args": [
"C:\\Users\\...\\npm-cache\\...\\@cloudflare\\mcp-server-cloudflare\\dist\\index.js", // 示例
"run",
"你的Cloudflare账户ID或相关标识" // 示例
]
}
}
}- 注意:
command
和args
中的路径会根据你的系统和安装方式变化,init
命令生成的通常是正确的。
- 注意:
- 使用示例 (CherryStudio):
- 启用
cloudflare
MCP Server。 - 提问:
我的 cloudflare worker 有哪些?
- 结果: AI 成功查询并列出了账号下的 4 个 Cloudflare Worker 及其详细信息。
- 启用
11. 数据库 (PostgreSQL MCP Server)
- 功能: 让 AI 可以查询 PostgreSQL 数据库 (目前只读)。
- 来源:
@modelcontextprotocol/server-postgres
- CherryStudio 配置: (使用
npx
运行)1
2
3
4
5
6
7
8
9
10
11
12
13{
"mcpServers": {
"postgres": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-postgres",
// 数据库连接字符串,需要修改
"postgresql://用户名:密码@数据库地址:端口号/数据库名"
]
}
}
}- 重要: 将连接字符串替换为你自己的 PostgreSQL 数据库信息。
- 使用示例 (CherryStudio):
- 启用
postgres
MCP Server。 - 提问1:
有哪些 schema
- 结果: AI 执行 SQL 查询 (
SELECT schema_name FROM information_schema.schemata;
),列出了数据库中的所有 schema。 - 提问2:
public 里面有哪些表
- 结果: AI 查询
public
schema 下的表,返回了 4 个表名。 - 提问3:
tech 表里面有什么数据
- 结果: AI 查询
tech
表的内容,返回了表中的两条记录(张三和李四的信息)。
- 启用
12. Github (GitHub MCP Server)
- 功能: 提供与 GitHub API 的集成,用于仓库管理、文件操作、PR、Issues 等。
- 来源:
@modelcontextprotocol/server-github
- 准备工作 (GitHub Token):
- 访问你的 GitHub -> Settings -> Developer settings -> Personal access tokens -> Fine-grained tokens (或 Tokens (classic))。
- 点击 Generate new token。
- 给 Token 起个名字,设置过期时间。
- 关键: 勾选 Repository permissions 下的 Administration 和 Contents (至少需要读写权限,根据需要调整)。
- 点击 Generate token 并立即复制生成的 Token,页面关闭后将无法再次看到。
- Cline 配置: (需要为 Windows 修改配置)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18{
"mcpServers": {
"github.com/modelcontextprotocol/servers/tree/main/src/github": {
"command": "cmd", // Windows 改为 cmd
"args": [
"/c", // Windows 添加 /c
"npx",
"-y",
"@modelcontextprotocol/server-github"
],
"env": {
"GITHUB_PERSONAL_ACCESS_TOKEN": "你的GitHub Token"
},
"disabled": false,
"autoApprove": []
}
}
}- 注意: 将
"你的GitHub Token"
替换为你刚刚生成的 Token。 - 说明: Cline 会自动完成 MCP Server 的安装和配置文件的创建。
- 注意: 将
- 使用示例 (Cline):
- 点击 Cline 的 MCP Server 图标 -> 搜索
GitHub
-> 点击Install
。 - Cline 会自动打开聊天窗口指导安装,需要提供 GitHub Token。
- 安装完成后,点击
Save
保存配置。 - 提问:
我的名字是 tech-shrimp,我在 GitHub 上面有哪些仓库
- 结果: AI 调用 GitHub MCP Server,成功查询并列出了 tech-shrimp 用户下的 29 个仓库信息。
- 点击 Cline 的 MCP Server 图标 -> 搜索
13. 浏览器增强 (Browser Tools MCP Server)
- 功能: 允许 AI 读取和分析当前浏览器标签页的内容、截图、分析控制台日志、网络活动等。
- 来源:
@agentdeskai/browser-tools-mcp
- 配置: 这个工具的配置已有相关详细介绍,主要是安装对应的 Chrome 扩展并配置 MCP Server。
- 使用示例 (Cline):
- (假设已配置好) 提问:
分析下浏览器的网络面板
- 结果: AI 成功分析了当前打开的 GitHub 页面的网络请求,列出了主要的请求目标、状态码、请求类型和关键路径信息。
- (假设已配置好) 提问:
14. Git (Git MCP Server)
- 功能: 让 AI 可以操作本地的 Git 仓库(读写)。
- 来源:
@modelcontextprotocol/server-git
- CherryStudio 配置: (使用
uvx
运行)1
2
3
4
5
6
7
8
9
10
11
12
13{
"mcpServers": {
"git": {
"command": "uvx",
"args": [
"mcp-server-git",
"--repository",
// 指向你的本地 Git 仓库路径,需要修改
"D:\\Projects2025\\grok-playground"
]
}
}
}- 重要: 将
--repository
后面的路径修改为你自己电脑上的实际 Git 仓库路径。 - Windows 路径: 注意使用**两个反斜杠
\\
**。
- 重要: 将
- 使用示例 (CherryStudio):
- 启用
git
MCP Server。 - 提问1:
我的上一次提交是什么
- 结果: 明确仓库路径后 (
D:\Projects2025\grok-playground 我的上一次提交是什么
),AI 调用git_log
成功查询到最近一次的提交信息 (Commit SHA, 作者, 日期, 消息)。 - 提问2:
帮我创建一个分支,名字叫 tech-shrimp-dev
- 结果: AI 调用
git_create_branch
,成功从main
分支创建了新分支。 - (手动修改项目中的 README.md 文件)
- 提问3:
帮我查一下哪个文件有修改没提交
- 结果: AI 调用
git_status
,检测到README.md
文件已被修改但未提交。 - 提问4:
帮我提交到当前分支
- 结果: AI 先调用
git_add
将修改添加到暂存区,然后调用git_commit
提交更改。 - (查看 Git 客户端确认提交成功)
- 提问5:
帮我推送到远程仓库
- 结果: AI 提示
git push
命令当前工具集中没有包含,需要手动处理。
- 启用
15. 视频 (YouTube MCP Server)
- 功能: 获取 YouTube 视频的字幕,并可以用于总结视频内容。
- 来源:
@anaisbetts/mcp-youtube
- 准备工作:
- 需要安装
yt-dlp
工具。(GitHub) 相关安装方法已有介绍。
- 需要安装
- CherryStudio 配置: (使用
npx
运行)1
2
3
4
5
6
7
8
9
10
11
12{
"mcpServers": {
"mcp-youtube": {
"isActive": true,
"command": "npx",
"args": [
"-y",
"@anaisbetts/mcp-youtube"
]
}
}
} - 使用示例 (CherryStudio):
- 启用
mcp-youtube
MCP Server。 - 提问:
总结下这个视频 https://www.youtube.com/watch?v=enQCOToSsoU0
- 结果: AI 调用
download_youtube_url
获取视频字幕,然后对字幕内容进行总结,输出了视频的主要内容 (关于 NetworkChuck 使用 Open WebUI + LiteLLM 改变 AI 使用方式)。
- 启用
总结
本文通过 Awesome MCP Servers 项目作为索引,实际演示了 15 个涵盖网页内容、地图、浏览器自动化、社交、搜索、知识图谱、文件系统、命令行、分步思考、云服务、数据库、Github、Git 和视频处理等多个类别的 MCP Server。
我们可以看到,通过简单的 JSON 配置,就能赋予 AI 大模型调用各种外部工具和 API 的强大能力。虽然其中一些 MCP Server 的配置相对复杂,或者需要额外的专业知识(如 Cloudflare, Slack API, GitHub Token),但大部分工具的配置和使用都非常便捷。
未来,可以尝试将这些 MCP Server 组合起来,探索更多 AI 智能体的应用场景。
感谢阅读!
相关链接
- AI 客户端:
- MCP 资源:
- API / 服务平台:
- 依赖工具: