Bilibili MCP 是一个基于 Model Context Protocol (MCP) 构建的 B 站视频搜索服务器。该项目旨在提供一个标准化的 API 接口,允许其他应用程序(尤其是支持 MCP 协议的 AI 应用或框架)方便地搜索 B 站的视频内容。项目中包含了如何使用 LangChain 框架调用此服务的示例代码,以及用于验证服务功能的测试脚本。
功能特点:
- B 站视频搜索: 核心功能是支持对 Bilibili 平台上的视频进行搜索。
- 支持分页查询: 能够处理大量的搜索结果,并提供分页功能以有效管理和展示数据。
- 返回详细视频信息: 搜索结果包含视频的关键信息,如视频标题、作者、播放量、视频时长等。
- 基于 MCP 协议的标准化接口: 遵循 Model Context Protocol 规范,确保服务接口的标准化和易于集成到兼容 MCP 的生态系统中。
系统要求:
- Node.js 版本必须大于或等于 20.12.0。
- 需要安装 npm 包管理器(通常随 Node.js 一同安装)。
鸣谢与感谢:
- 项目中的 LangChain 示例代码参考了
mcp-langchain-ts-client
项目。 - 特别感谢 HQHC 发布了项目所需的 npm 包。
MCP 配置信息:
该服务可以作为 MCP 服务器注册和使用。以下是其在 MCP 配置中的示例表示:
json
{
"mcpServers": {
"bilibili-search": {
"command": "npx",
"args": [
"bilibili-mcp"
],
"description": "B站视频搜索 MCP 服务,可以在AI应用中搜索B站视频内容。"
}
}
}
这表明服务通过 bilibili-search
这个名称注册,启动命令为 npx bilibili-mcp
,并附带了服务的功能描述。
快速开始:
在运行 LangChain 示例之前,你需要配置用于运行示例的大型语言模型 (LLM)。请修改项目根目录下的 .example.ts
文件,将示例中的模型密钥和 API 地址替换为你自己的信息。
typescript
const llm = new ChatOpenAI({
modelName: "gpt-4o-mini", // 你使用的模型名称,例如 "gpt-4o-mini" 或其他模型
temperature: 0, // 控制模型输出的随机性,0 表示输出较为确定
openAIApiKey: "your_api_key", // 替换为你的 LLM 模型 API 密钥
configuration: {
baseURL: "https://www.api.com/v1", // 替换为你的模型 API 的基础 URL 地址
},
});
根据你使用的包管理器选择相应的命令:
使用 Bun 运行:
- 安装项目依赖:
bash
bun i - 启动 Bilibili MCP 服务器:
bash
bun index.ts - 运行测试脚本:
bash
bun test.js - 运行 MCP Inspector 工具(用于检查和调试 MCP 服务):
bash
bun run inspector - 运行 LangChain 示例:首先构建项目,然后执行示例文件。
bash
bun build:bun
bun example.ts
使用 npm 运行:
- 安装项目依赖:
bash
npm i - 启动 Bilibili MCP 服务器:
bash
npm run start - 运行测试脚本:
bash
npm run test - 运行 MCP Inspector 工具:
bash
npm run inspector - 运行 LangChain 示例:首先构建项目,然后执行编译后的示例文件。
bash
npm run build
node dist/example.js
(此处省略截图,原始 README 中提及但未提供)