CP‑Use介绍
MCP(模型上下文协议)是一种开放标准,旨在为大型语言模型(LLM)提供统一的工具和数据源接口,实现与外部应用的无缝连接。MCP‑Use 作为一款开源客户端库,通过自定义代理让任意支持工具调用的LLM(如 OpenAI、Anthropic、Groq、LLaMA 等)连接到任何MCP服务器,进而构建具备网页浏览、文件操作等工具访问能力的智能代理。
该库操作简便,仅需六行代码即可创建首个MCP能力代理;支持通过 HTTP 端口直接连接运行中的MCP服务器,满足 Web 上的异构部署需求;内置动态服务选择功能,代理可从配置池中自动挑选最适合当前任务的MCP服务器;允许在单个代理实例中同时使用多个MCP服务器,实现复杂工作流(如结合网页浏览与3D建模)的灵活调度;提供工具访问控制,可禁用文件系统或网络等潜在高危工具,以提升安全性和可控性。
MCP‑Use主要特点
🔄易于使用 | 创建您的第一个 MCP 代理,您只需要 6 行代码 |
---|---|
🤖 LLM 灵活性 | 可与任何支持工具调用的 langchain 支持的 LLM 配合使用(OpenAI、Anthropic、Groq、LLama 等)。 |
🌐 HTTP 支持 | 直接连接到在特定 HTTP 端口上运行的 MCP 服务器 |
⚙️动态服务器选择 | 代理可以从可用池中动态选择最适合给定任务的 MCP 服务器 |
🧩多服务器支持 | 在单个代理中同时使用多个 MCP 服务器 |
🛡️工具限制 | 限制文件系统或网络访问等潜在危险的工具 |
MCP‑Use快速启动
使用 pip:
pip install mcp-use
或者从源安装:
git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install -e .
安装 LangChain 提供程序
mcp_use 通过 LangChain 与各种 LLM 提供程序兼容。您需要根据所选的 LLM 安装相应的 LangChain 提供程序包。例如:
For OpenAI
pip install langchain-openai
For Anthropic
pip install langchain-anthropic
For other providers, check the LangChain chat models documentation
并将您想要使用的提供商的 API 密钥添加到您的.env文件中。
OPENAI_API_KEY=
ANTHROPIC_API_KEY=
重要提示:只有具备工具调用功能的模型才能与 mcp_use 配合使用。请确保您选择的模型支持函数调用或工具使用。
评论 (0)