browser-use MCP server

browser-use MCP server
精选

一个由人工智能驱动的浏览器自动化服务器,它实现了模型上下文协议,从而能够使用自然语言控制网页浏览器,以执行诸如导航、表单填写和视觉交互等任务。

远程shell执行
网络自动化与隐身
数据库交互
AI内容生成
AI集成系统
访问服务器

README

browser-use MCP 服务器

Documentation License

项目说明: 此 MCP 服务器实现构建于 browser-use/web-ui 的基础上。核心浏览器自动化逻辑和配置模式均改编自原始项目。

AI 驱动的浏览器自动化服务器,实现了模型上下文协议 (MCP),用于自然语言浏览器控制。

<a href="https://glama.ai/mcp/servers/dz6dy5hw59"><img width="380" height="200" src="https://glama.ai/mcp/servers/dz6dy5hw59/badge" alt="Browser-Use Server MCP server" /></a>

特性

  • 🧠 MCP 集成 - 完整的协议实现,用于 AI 代理通信
  • 🌐 浏览器自动化 - 页面导航、表单填写和元素交互
  • 👁️ 视觉理解 - 屏幕截图分析和基于视觉的交互
  • 🔄 状态持久化 - 在任务之间保持浏览器会话
  • 🔌 多 LLM 支持 - OpenAI、Anthropic、Azure、DeepSeek 集成

快速开始

前提条件

  • Python 3.11 或更高版本
  • uv (快速 Python 包安装器)
  • Chrome/Chromium 浏览器

安装

Claude Desktop

在 MacOS 上: ~/Library/Application\ Support/Claude/claude_desktop_config.json 在 Windows 上: %APPDATA%/Claude/claude_desktop_config.json

"mcpServers": {
    "browser-use": {
      "command": "uvx",
      "args": [
        "mcp-server-browser-use",
      ],
      "env": {
        "OPENROUTER_API_KEY": "",
        "OPENROUTER_ENDPOINT": "https://openrouter.ai/api/v1",
        "OPENAI_ENDPOINT": "https://api.openai.com/v1",
        "OPENAI_API_KEY": "",
        "ANTHROPIC_ENDPOINT": "https://api.anthropic.com",
        "ANTHROPIC_API_KEY": "",
        "GOOGLE_API_KEY": "",
        "AZURE_OPENAI_ENDPOINT": "",
        "AZURE_OPENAI_API_KEY": "",
        "DEEPSEEK_ENDPOINT": "https://api.deepseek.com",
        "DEEPSEEK_API_KEY": "",
        "MISTRAL_API_KEY": "",
        "MISTRAL_ENDPOINT": "https://api.mistral.ai/v1",
        "OLLAMA_ENDPOINT": "http://localhost:11434",
        "ANONYMIZED_TELEMETRY": "true",
        "BROWSER_USE_LOGGING_LEVEL": "info",
        "CHROME_PATH": "",
        "CHROME_USER_DATA": "",
        "CHROME_DEBUGGING_PORT": "9222",
        "CHROME_DEBUGGING_HOST": "localhost",
        "CHROME_PERSISTENT_SESSION": "false",
        "BROWSER_HEADLESS": "false",
        "BROWSER_DISABLE_SECURITY": "false",
        "BROWSER_WINDOW_WIDTH": "1280",
        "BROWSER_WINDOW_HEIGHT": "720",
        "BROWSER_TRACE_PATH": "trace.json",
        "BROWSER_RECORDING_PATH": "recording.mp4",
        "RESOLUTION": "1920x1080x24",
        "RESOLUTION_WIDTH": "1920",
        "RESOLUTION_HEIGHT": "1080",
        "VNC_PASSWORD": "youvncpassword",
        "MCP_MODEL_PROVIDER": "anthropic",
        "MCP_MODEL_NAME": "claude-3-5-sonnet-20241022",
        "MCP_TEMPERATURE": "0.3",
        "MCP_MAX_STEPS": "30",
        "MCP_USE_VISION": "true",
        "MCP_MAX_ACTIONS_PER_STEP": "5",
        "MCP_TOOL_CALL_IN_CONTENT": "true"
    }
}

本地开发

"browser-use": {
  "command": "uv",
  "args": [
    "--directory",
    "/path/to/mcp-browser-use",
    "run",
    "mcp-server-browser-use"
  ],
  "env": {
    ...
  }
}

开发

# 安装开发依赖
uv sync

# 使用调试器运行
npx @modelcontextprotocol/inspector uv --directory . run mcp-server-browser-use

故障排除

  • 浏览器冲突: 启动前关闭所有 Chrome 实例。
  • API 错误: 验证环境变量中的 API 密钥与您的 LLM 提供商匹配。
  • 视觉支持: 确保 MCP_USE_VISION=true 以进行屏幕截图分析。

提供商配置

该服务器通过环境变量支持多个 LLM 提供商。 以下是 MCP_MODEL_PROVIDER 的可用选项:

提供商 必需环境变量
Anthropic anthropic ANTHROPIC_API_KEY<br>ANTHROPIC_ENDPOINT (可选)
OpenAI openai OPENAI_API_KEY<br>OPENAI_ENDPOINT (可选)
Azure OpenAI azure_openai AZURE_OPENAI_API_KEY<br>AZURE_OPENAI_ENDPOINT
DeepSeek deepseek DEEPSEEK_API_KEY<br>DEEPSEEK_ENDPOINT (可选)
Gemini gemini GOOGLE_API_KEY
Mistral mistral MISTRAL_API_KEY<br>MISTRAL_ENDPOINT (可选)
Ollama ollama OLLAMA_ENDPOINT (可选, 默认为 localhost:11434)
OpenRouter openrouter OPENROUTER_API_KEY<br>OPENROUTER_ENDPOINT (可选)

注意:

  • 对于标记为可选的端点,如果未指定,将使用默认值
  • 可以使用 MCP_TEMPERATURE 配置温度 (默认值: 0.3)
  • 可以使用 MCP_MODEL_NAME 指定模型
  • 对于 Ollama 模型,可以配置其他上下文设置,如 num_ctxnum_predict

鸣谢

本项目扩展了 browser-use/web-ui,采用 MIT 许可证。 特别感谢原始作者的浏览器自动化框架。

许可证

MIT - 有关详细信息,请参阅 LICENSE

推荐服务器

Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

MCP server for interacting with Neon Management API and databases

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选
mcp-server-qdrant

mcp-server-qdrant

这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。

官方
精选
mult-fetch-mcp-server

mult-fetch-mcp-server

A versatile MCP-compliant web content fetching tool that supports multiple modes (browser/node), formats (HTML/JSON/Markdown/Text), and intelligent proxy detection, with bilingual interface (English/Chinese).

精选
本地
AIO-MCP Server

AIO-MCP Server

🚀 All-in-one MCP server with AI search, RAG, and multi-service integrations (GitLab/Jira/Confluence/YouTube) for AI-enhanced development workflows. Folk from

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
Hyperbrowser

Hyperbrowser

欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

精选
本地
https://github.com/Streen9/react-mcp

https://github.com/Streen9/react-mcp

react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

精选
本地