Linkedin-Scrap-MCP-Server
itsShashankSrivastava
README
Linkedin-Scrap-MCP-Server
使用我们的 MCP(模型上下文协议)服务器轻松获取实时的 LinkedIn 个人资料信息。此服务器与 Fresh LinkedIn Profile Data API 集成,以返回个人资料详细信息,如技能和其他基本设置。它公开了一个工具——get_profile——它接受一个 LinkedIn 个人资料 URL,并以结构化的 JSON 数据作为响应。
🚀特性
- 实时 LinkedIn 数据:检索最新的个人资料信息,包括技能和核心公共数据(默认情况下禁用其他扩展字段)。
- 异步请求:使用 httpx 构建,实现高效的非阻塞 HTTP 调用。
- 安全的 API 密钥处理:通过 dotenv 使用环境变量,以安全地配置您的 RAPIDAPI_KEY。
⚙️要求
在开始之前,请确保您已具备:
- Python 3.7+
- 已安装 MCP 框架
- 必需的库:httpx, python-dotenv
- RAPIDAPI_KEY:在 RapidAPI 上注册并订阅 Fresh LinkedIn Profile Data API,然后获取您的 API 密钥。
📦安装
1. 克隆存储库:
git clone https://github.com/itsShashankSrivastava/Linkedin-Scrap-MCP-Server
2. 安装依赖项:
uv add mcp[cli] httpx requests
3. 设置您的环境变量:
RAPIDAPI_KEY=your_rapidapi_key_here
▶️ 运行服务器
要启动 MCP 服务器:
uv run linkedin.py
这将启动服务器并开始监听通过标准 I/O 传入的请求。
🤖 MCP 客户端配置
要将您的 MCP 客户端连接到服务器,请使用以下内容更新您的 config.json:
{
"mcpServers": {
"linkedin_profile_scraper": {
"command": "C:/Users/shashank.srivastava/.local/bin/uv",
"args": [
"--directory",
"C:/Users/shashank.srivastava/Desktop/linkedin-scrap",
"run",
"linkedin.py"
]
}
}
}
💡 根据服务器的实际位置,根据需要调整路径。
🧠 工作原理
- 环境设置:使用 dotenv 加载您的 RAPIDAPI_KEY。
- API 集成:使用 httpx 向 Fresh LinkedIn Profile Data API 发出异步 GET 请求。
- MCP 工具 - get_profile:包装 API 逻辑,如果请求失败,则返回一个干净的 JSON 对象或错误消息。
- 执行:使用 MCP 服务器框架的标准 I/O (stdio) 传输方法运行。
🛠 故障排除
- 缺少 RAPIDAPI_KEY:如果未设置,服务器将引发 ValueError。请仔细检查您的 .env 文件或系统环境变量。
- API 调用错误:如果 LinkedIn API 请求失败,该工具将返回一个清晰的错误消息,指示出了什么问题。
如果您觉得它有帮助,请随意 ⭐️ 该存储库,如果您需要支持,请打开一个 issue!
推荐服务器
Crypto Price & Market Analysis MCP Server
一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。
MCP PubMed Search
用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。
mixpanel
连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

Nefino MCP Server
为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。
Vectorize
将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。
Mathematica Documentation MCP server
一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。
kb-mcp-server
一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。
Research MCP Server
这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

Cryo MCP Server
一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。