Oh My KEGG MCP

Oh My KEGG MCP

An MCP server that provides access to the Kyoto Encyclopedia of Genes and Genomes (KEGG) database, offering 30 tools for searching and analyzing biological data like pathways, genes, and compounds. It supports integration with LangChain and Ollama to enable LLMs to interact with comprehensive genomic and chemical datasets.

Category
访问服务器

README

Oh My KEGG MCP

KEGG (Kyoto Encyclopedia of Genes and Genomes) 데이터베이스에 접근하기 위한 Model Context Protocol (MCP) 서버입니다.(unofficial)

주요 기능

  • 30개의 KEGG 도구: 경로, 유전자, 화합물, 반응, 효소, 질병, 약물 등 다양한 생물학적 데이터 검색 및 분석
  • Streamable HTTP Transport: 웹 환경에서 사용 가능한 HTTP 기반 통신
  • LangChain 통합: LangChain Agent와 완벽하게 통합되어 LLM이 KEGG 데이터를 활용할 수 있음
  • Ollama 지원: 로컬 LLM 모델과 함께 사용 가능

설치

1. 필수 패키지 설치

pip install -r requirements.txt

2. 환경 변수 설정

.env.example 파일을 참고하여 .env 파일을 생성합니다:

cp .env.example .env

.env 파일을 편집하여 필요한 값을 설정합니다:

# OpenAI API 키 (OpenAI 모델 사용 시 필요)
# Ollama 사용 시에는 설정하지 않아도 됩니다
OPENAI_API_KEY=your_openai_api_key

# MCP 서버 URL (클라이언트에서 사용)
# 서버가 다른 호스트/포트에서 실행되는 경우 변경
KEGG_MCP_SERVER_URL=http://localhost:3000/mcp

# MCP 서버 설정 (서버 실행 시 사용, 선택사항)
# 기본값이 설정되어 있어 변경하지 않아도 됩니다
MCP_HOST=localhost
MCP_PORT=3000
MCP_PATH=/mcp

# Ollama 설정 (선택사항)
# Ollama가 다른 호스트/포트에서 실행되는 경우 변경
# OLLAMA_HOST=http://localhost:11434

참고:

  • Ollama 사용 시: OPENAI_API_KEY는 설정하지 않아도 됩니다. 현재 코드는 Ollama를 기본 모델로 사용합니다.
  • OpenAI 사용 시: OPENAI_API_KEY에 실제 API 키를 설정하고, langchain_integration.py에서 ChatOpenAI를 사용하도록 변경해야 합니다.
  • 서버 설정: MCP_HOST, MCP_PORT, MCP_PATH는 서버 실행 시 사용되며, 기본값이 설정되어 있어 변경하지 않아도 됩니다.
  • Ollama 호스트: Ollama가 기본 포트(11434)가 아닌 다른 포트에서 실행되는 경우 OLLAMA_HOST를 설정할 수 있습니다.

사용 방법

1. 서버 실행

# 기본 설정으로 실행 (localhost:3000/mcp)
python kegg_mcp_server.py

# 또는 환경 변수로 설정
MCP_HOST=localhost MCP_PORT=3000 MCP_PATH=/mcp python kegg_mcp_server.py

서버가 실행되면 다음과 같은 메시지가 표시됩니다:

Starting KEGG MCP Server on http://localhost:3000/mcp
Transport: Streamable HTTP

2. 클라이언트 실행

# 기본 실행 (Streamable HTTP 사용)
python langchain_integration.py

# Ollama 연결 테스트만 실행
python langchain_integration.py --test

# stdio 사용 (선택사항, 별도 TypeScript 서버 필요)
# langchain_integration.py에서 use_http=False로 변경
# 참고: 현재는 Streamable HTTP 방식만 제공됩니다

사용 가능한 도구

Database Information & Statistics (2개)

  • get_database_info - 데이터베이스 정보 및 통계 조회
  • list_organisms - 모든 KEGG 생물체 목록 조회

Pathway Analysis (3개)

  • search_pathways - 경로 검색
  • get_pathway_info - 경로 상세 정보
  • get_pathway_genes - 경로의 유전자 목록

Gene Analysis (2개)

  • search_genes - 유전자 검색
  • get_gene_info - 유전자 상세 정보 (서열 포함 옵션)

Compound Analysis (2개)

  • search_compounds - 화합물 검색
  • get_compound_info - 화합물 상세 정보

Reaction & Enzyme Analysis (4개)

  • search_reactions - 반응 검색
  • get_reaction_info - 반응 상세 정보
  • search_enzymes - 효소 검색
  • get_enzyme_info - 효소 상세 정보

Disease & Drug Analysis (5개)

  • search_diseases - 질병 검색
  • get_disease_info - 질병 상세 정보
  • search_drugs - 약물 검색
  • get_drug_info - 약물 상세 정보
  • get_drug_interactions - 약물 상호작용 조회

Module & Orthology Analysis (4개)

  • search_modules - 모듈 검색
  • get_module_info - 모듈 상세 정보
  • search_ko_entries - KO 엔트리 검색
  • get_ko_info - KO 상세 정보

Glycan Analysis (2개)

  • search_glycans - 글리칸 검색
  • get_glycan_info - 글리칸 상세 정보

BRITE Hierarchy Analysis (2개)

  • search_brite - BRITE 계층 검색
  • get_brite_info - BRITE 상세 정보

Advanced Analysis Tools (5개)

  • get_pathway_compounds - 경로의 화합물 목록
  • get_pathway_reactions - 경로의 반응 목록
  • get_compound_reactions - 화합물의 반응 목록
  • get_gene_orthologs - 유전자 직계동족 찾기
  • batch_entry_lookup - 배치 엔트리 조회

Cross-References & Integration (2개)

  • convert_identifiers - 데이터베이스 간 식별자 변환
  • find_related_entries - 관련 엔트리 찾기

예제

기본 사용 예제

import asyncio
from langchain_integration import create_kegg_client, load_and_display_tools, create_default_model, run_agent_query
from langchain.agents import create_agent

async def main():
    # 클라이언트 생성 (Streamable HTTP)
    client = create_kegg_client()
    
    try:
        # 도구 로드
        tools = await load_and_display_tools(client)
        
        # 모델 및 Agent 생성
        model = create_default_model()
        agent = create_agent(model=model, tools=tools)
        
        # 쿼리 실행
        await run_agent_query(
            agent,
            "인간의 당분해(glycolysis) 경로를 찾아주세요.",
            "당분해 경로 검색"
        )
    finally:
        if hasattr(client, 'close'):
            try:
                await client.close()
            except:
                pass

if __name__ == "__main__":
    asyncio.run(main())

프로젝트 구조

kegg-mcp-test/
├── kegg_mcp_server.py          # Python MCP 서버 (Streamable HTTP)
├── langchain_integration.py    # LangChain 통합 클라이언트
├── requirements.txt             # Python 패키지 의존성
├── .env.example                # 환경 변수 예제 파일
├── .gitignore                  # Git 무시 파일 목록
├── LICENSE                     # MIT 라이선스
└── README.md                    # 프로젝트 문서 (이 파일)

통신 방식

Streamable HTTP (권장)

  • 장점: 웹 환경 지원, 확장성 좋음, 표준 HTTP 프로토콜
  • 사용: Python 서버 (kegg_mcp_server.py)
  • 포트: 기본 3000 (환경 변수로 변경 가능)

stdio (로컬 전용, 선택사항)

  • 장점: 최고의 보안, 낮은 오버헤드, 간단한 설정
  • 사용: langchain_integration.py에서 use_http=False로 설정 시 사용 가능
  • 제한: 로컬 실행만 가능, 별도 TypeScript 서버 필요

문제 해결

서버가 시작되지 않는 경우

  1. 포트가 이미 사용 중인지 확인: lsof -i :3000
  2. 필요한 패키지가 설치되었는지 확인: pip install -r requirements.txt
  3. Python 버전 확인: Python 3.11 이상 필요

클라이언트 연결 실패

  1. 서버가 실행 중인지 확인
  2. 서버 URL이 올바른지 확인: KEGG_MCP_SERVER_URL 환경 변수
  3. 방화벽 설정 확인

Ollama 연결 실패

  1. Ollama가 실행 중인지 확인: ollama serve
  2. 모델이 설치되었는지 확인: ollama list
  3. 모델 다운로드: ollama pull gemma3:4b (또는 사용할 모델)

라이선스

MIT License

참고 자료

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选