ChatMCP 是基于模型上下文协议MCP的 AI 聊天客户端支持与各种大型语言模型LLM如 OpenAI、Claude 和 OLLama 等进行交互。它具备自动化安装 MCP 服务器、SSE 传输支持、自动选择服务器、聊天记录管理等功能提供 MCP 服务器市场实现与不同数据源的聊天。用户可以在设置页面配置 LLM API 密钥和端点享受更好的用户界面设计。ChatMCP 的主要功能与 MCP 服务器聊天用户能直接与 MCP 服务器进行交互发送和接收消息。MCP 服务器市场提供多种 MCP 服务器的集合用户能从中选择并安装实现与不同数据源的聊天。自动安装 MCP 服务器简化 MCP 服务器的安装过程用户无需手动配置。SSE MCP 传输支持支持服务器发送事件Server-Sent Events服务器能主动向客户端推送信息。自动选择 MCP 服务器客户端能自动选择可用的 MCP 服务器进行连接。聊天记录管理提供聊天记录的存储和管理功能方便用户回顾历史对话。支持多种 LLM 模型支持与 OpenAI、Claude、OLLama 等大型语言模型的集成。ChatMCP 的技术原理模型上下文协议MCPChatMCP 基于 MCP 协议支持客户端向服务器发送请求接收来自服务器的响应。大型语言模型LLM集成ChatMCP 基于集成不同的 LLM让客户端能理解和生成自然语言提供智能对话能力。API 密钥和端点配置用户配置 LLM 的 API 密钥和端点便于客户端与特定的 LLM 服务进行通信。服务器发送事件SSE基于 SSE 技术ChatMCP 实现服务器向客户端的实时数据推送。数据库和日志管理ChatMCP 用数据库存储聊天记录基于日志文件记录应用的运行情况方便调试和维护。配置点击左下角设置图标点击Providers点击加号Add Provider新增 X API 提供商API URL填入https://api.aiseo.one/v1API Key填入前往 X API 创建令牌点击绿框的Fetch同步模型列表点击Save Settings