Wikipedia Summarizer MCP Server
一个 MCP (模型上下文协议) 服务器,它使用 Ollama LLM 获取并总结维基百科文章,可通过命令行和 Streamlit 界面访问。 非常适合从维基百科快速提取关键信息,而无需阅读整篇文章。
codingaslu
README
Wikipedia 摘要器 MCP 服务器
一个模型客户端协议 (MCP) 服务器,用于获取 Wikipedia 文章并使用 Ollama LLM 模型进行摘要。
概述
本项目包含三个主要组件:
- Ollama 服务器: 一个 MCP 服务器,提供一个使用 Ollama LLM 模型来摘要 Wikipedia 文章的工具
- 命令行客户端: 一个可以连接到 MCP 服务器并请求文章摘要的客户端
- Streamlit 界面: 一个 Web UI,提供了一种用户友好的方式来与 MCP 服务器交互
前提条件
- Python 3.8+
- 已安装并本地运行的 Ollama,并使用
deepseek-r1:1.5b
模型(或在ollama_server.py
中更新模型) - 互联网连接,用于获取 Wikipedia 文章
安装
- 克隆此仓库
- 安装所需的软件包:
uv pip install -r requirements.txt
运行服务器
启动 MCP 服务器:
uv run -- ollama_server.py
服务器将在 http://localhost:8000/sse
上可用。
使用命令行客户端
uv run -- updated_client.py http://localhost:8000/sse https://en.wikipedia.org/wiki/Python_(programming_language)
使用 Streamlit 界面
启动 Streamlit 应用程序:
uv run -- streamlit run streamlit_new.py
然后在浏览器中打开 Streamlit 提供的 URL(通常是 http://localhost:8501)并:
- 输入 MCP 服务器 URL(默认:http://localhost:8000/sse)
- 输入 Wikipedia 文章 URL
- 点击 "Fetch and Summarize Article"(获取并摘要文章)
组件
ollama_server.py
实现了 MCP 服务器,其中包含一个用于摘要 Wikipedia 文章的工具。 它获取文章内容,将其转换为 markdown,并使用 Ollama 生成摘要。
updated_client.py
一个命令行客户端,连接到 MCP 服务器并调用 summarize_wikipedia_article 工具。
streamlit_new.py
一个基于 Streamlit 的 Web 界面,提供了一种用户友好的方式来与 MCP 服务器交互。
许可证
MIT 许可证
版权所有 (c) 2025
特此授予任何人免费获得本软件及相关文档文件(“软件”)副本的许可,不受限制地处理本软件,包括但不限于使用、复制、修改、合并、发布、分发、再许可和/或销售本软件副本的权利,并允许向其提供本软件的人员这样做,但须符合以下条件:
上述版权声明和本许可声明应包含在本软件的所有副本或重要部分中。
本软件按“原样”提供,不提供任何形式的明示或暗示的保证,包括但不限于适销性、特定用途适用性和不侵权的保证。 在任何情况下,作者或版权所有者均不对任何索赔、损害或其他责任负责,无论是在合同、侵权或其他方面,因本软件或本软件的使用或其他交易而产生、产生或与之相关的。
推荐服务器
Crypto Price & Market Analysis MCP Server
一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。
MCP PubMed Search
用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。
mixpanel
连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

Nefino MCP Server
为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。
Vectorize
将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。
Mathematica Documentation MCP server
一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。
kb-mcp-server
一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。
Research MCP Server
这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

Cryo MCP Server
一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。