Tampere Bus MCP Server
Nysse 公交车追踪 MCP 服务器,用于 LLM AI 代理 (Nysse gōngjiāochē zhuīzōng MCP fúwùqì, yòng yú LLM AI dàilǐ) Alternatively, depending on the context, you might also consider: Nysse 公交车实时追踪 MCP 服务器,供 LLM AI 智能体使用 (Nysse gōngjiāochē shíshí zhuīzōng MCP fúwùqì, gōng LLM AI zhìnéngtǐ shǐyòng) Here's a breakdown of the translation choices: * **Nysse:** Left as is, assuming it's a proper noun (the name of the bus system). * **bus tracking:** 公交车追踪 (gōngjiāochē zhuīzōng) - "Bus" is 公交车 (gōngjiāochē), and "tracking" is 追踪 (zhuīzōng). 实时追踪 (shíshí zhuīzōng) - "Real-time tracking" is also a good option if the context implies real-time data. * **MCP server:** MCP 服务器 (MCP fúwùqì) - "Server" is 服务器 (fúwùqì). MCP is left as is, assuming it's an acronym. * **for LLM AI agents:** 用于 LLM AI 代理 (yòng yú LLM AI dàilǐ) - "For" is 用于 (yòng yú), "LLM AI" is left as is, and "agents" is 代理 (dàilǐ). 供 LLM AI 智能体使用 (gōng LLM AI zhìnéngtǐ shǐyòng) - "For LLM AI intelligent agents" is another option, using 智能体 (zhìnéngtǐ) for "intelligent agents" and 供...使用 (gōng...shǐyòng) for "for...use". The best translation depends on the specific nuance you want to convey. If you want to emphasize the real-time aspect, use the second option. If you want to emphasize the agent's role as an "intelligent agent," use the second option. Otherwise, the first option is a good general translation.
tlaukkanen
README
坦佩雷巴士 MCP 服务器
这是一个模型上下文协议 (MCP) 服务器,为 AI 代理提供访问坦佩雷公共交通系统巴士交通信息的工具。 这使得 AI 助手能够回答诸如“下一班巴士何时停靠在 Tuotekatu 巴士站?”之类的问题。
功能
- 按名称搜索巴士站
- 获取特定站点即将到站巴士的实时信息
- 访问完整的坦佩雷地区巴士站数据库
前提条件
- Node.js 18 或更高版本
- Waltti GTFS-RT API 的访问凭据(开发时可选)
将 VS Code 设置为 NPX MCP 服务器
添加到您的 MCP 服务器:
{
"mcpServers": {
"nysse-bus-tracker": {
"command": "npx",
"args": [
"-y",
"nysse-mcp-server"
],
"env": {
"WALTTI_CLIENT_ID": "YOUR_CLIENT_ID_HERE",
"WALTTI_CLIENT_SECRET": "YOUR_CLIENT_SECRET_HERE"
}
}
}
}
使用 inspector 运行服务器
将 WALTTI 凭据添加到 package.json 命令行或您的环境变量中,并使用 inspector 任务构建和运行:
npm run inspector
可用工具
该服务器为 AI 代理提供以下 MCP 工具:
许可证
ISC
推荐服务器
Crypto Price & Market Analysis MCP Server
一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。
MCP PubMed Search
用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。
mixpanel
连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

Nefino MCP Server
为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。
Vectorize
将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。
Mathematica Documentation MCP server
一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。
kb-mcp-server
一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。
Research MCP Server
这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

Cryo MCP Server
一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。