MCP服务器浏览器自动化

bilibili-mcp-js

BilibiliMCP是一个基于ModelContextProtocol(MCP)构建的B站视频搜索服务器。该项目旨在提供一个标准化的API接口,允许其他应用程序(尤其是支持MCP协议的AI应用或框架)方便地搜索...

标签:

Bilibili MCP 是一个基于 Model Context Protocol (MCP) 构建的 B 站视频搜索服务器。该项目旨在提供一个标准化的 API 接口,允许其他应用程序(尤其是支持 MCP 协议的 AI 应用或框架)方便地搜索 B 站的视频内容。项目中包含了如何使用 LangChain 框架调用此服务的示例代码,以及用于验证服务功能的测试脚本。

功能特点:

  • B 站视频搜索: 核心功能是支持对 Bilibili 平台上的视频进行搜索。
  • 支持分页查询: 能够处理大量的搜索结果,并提供分页功能以有效管理和展示数据。
  • 返回详细视频信息: 搜索结果包含视频的关键信息,如视频标题、作者、播放量、视频时长等。
  • 基于 MCP 协议的标准化接口: 遵循 Model Context Protocol 规范,确保服务接口的标准化和易于集成到兼容 MCP 的生态系统中。

系统要求:

  • Node.js 版本必须大于或等于 20.12.0。
  • 需要安装 npm 包管理器(通常随 Node.js 一同安装)。

鸣谢与感谢:

  • 项目中的 LangChain 示例代码参考了 mcp-langchain-ts-client 项目。
  • 特别感谢 HQHC 发布了项目所需的 npm 包。

MCP 配置信息:

该服务可以作为 MCP 服务器注册和使用。以下是其在 MCP 配置中的示例表示:

json
{
"mcpServers": {
"bilibili-search": {
"command": "npx",
"args": [
"bilibili-mcp"
],
"description": "B站视频搜索 MCP 服务,可以在AI应用中搜索B站视频内容。"
}
}
}

这表明服务通过 bilibili-search 这个名称注册,启动命令为 npx bilibili-mcp,并附带了服务的功能描述。

快速开始:

在运行 LangChain 示例之前,你需要配置用于运行示例的大型语言模型 (LLM)。请修改项目根目录下的 .example.ts 文件,将示例中的模型密钥和 API 地址替换为你自己的信息。

typescript
const llm = new ChatOpenAI({
modelName: "gpt-4o-mini", // 你使用的模型名称,例如 "gpt-4o-mini" 或其他模型
temperature: 0, // 控制模型输出的随机性,0 表示输出较为确定
openAIApiKey: "your_api_key", // 替换为你的 LLM 模型 API 密钥
configuration: {
baseURL: "https://www.api.com/v1", // 替换为你的模型 API 的基础 URL 地址
},
});

根据你使用的包管理器选择相应的命令:

使用 Bun 运行:

  • 安装项目依赖:
    bash
    bun i
  • 启动 Bilibili MCP 服务器:
    bash
    bun index.ts
  • 运行测试脚本:
    bash
    bun test.js
  • 运行 MCP Inspector 工具(用于检查和调试 MCP 服务):
    bash
    bun run inspector
  • 运行 LangChain 示例:首先构建项目,然后执行示例文件。
    bash
    bun build:bun
    bun example.ts

使用 npm 运行:

  • 安装项目依赖:
    bash
    npm i
  • 启动 Bilibili MCP 服务器:
    bash
    npm run start
  • 运行测试脚本:
    bash
    npm run test
  • 运行 MCP Inspector 工具:
    bash
    npm run inspector
  • 运行 LangChain 示例:首先构建项目,然后执行编译后的示例文件。
    bash
    npm run build
    node dist/example.js

(此处省略截图,原始 README 中提及但未提供)

数据统计

相关导航

暂无评论

暂无评论...
网络错误 --.