QwenLMQwen-Agent:大模型Agent开发框架
文章目录QwenLM/Qwen-Agent大模型Agent开发框架1、 核心功能2、 安装使用3、 内置能力4、 适用场景QwenLM/Qwen-Agent大模型Agent开发框架Qwen-Agent 在 GitHub 上已经拿到 16,284 Star 了。阿里巴巴通义千问团队开源了这个框架基于通义千问大模型的指令遵循、工具使用、规划和记忆能力开发LLM应用。框架内置浏览器助手、代码解释器、自定义助手等示例应用目前是通义千问聊天产品的后端服务。1、 核心功能Qwen-Agent提供两类开发组件。原子组件包含LLM类和工具类LLM类继承自BaseChatModel内置函数调用功能。工具类继承自BaseTool可自定义扩展。高级组件包含Agent类衍生出Assistant等实现。框架支持并行多步多轮工具调用适配Qwen2.5、QwQ、Qwen3、Qwen3.5等全系列通义千问模型。2026年2月新增的Qwen3.5支持最新的Agent能力配套的DeepPlanning评估基准也同步开源。2、 安装使用安装可通过PyPI获取稳定版pipinstall-Uqwen-agent[gui,rag,code_interpreter,mcp]也可从源码安装开发版本。可选依赖包含guiGradio界面支持、rag检索增强生成支持、code_interpreter代码解释器支持、mcp模型上下文协议支持按需选择即可。使用前需配置模型服务。可使用阿里云DashScope提供的模型服务设置DASHSCOPE_API_KEY环境变量即可。也可部署自有的Qwen模型服务兼容OpenAI API协议支持vLLM、Ollama等部署方式。开发自定义Agent仅需四步。添加自定义工具配置使用的大模型创建Agent实例运行交互即可。框架内置GUI界面一行代码即可启动Gradio Demo快速验证Agent效果。3、 内置能力代码解释器基于本地Docker容器实现。Agent可自主编写代码在隔离沙箱环境中安全执行返回运行结果。使用前需安装并运行Docker首次启动会自动构建容器镜像。MCP协议支持已内置。可直接对接开源MCP服务器提供的工具配置相关环境即可使用。官方提供SQLite、文件系统、内存等MCP工具的使用示例。长文档问答支持1M Token上下文。框架提供快速RAG方案和并行文档问答Agent在两项基准测试中性能超过原生长上下文模型单针压力测试表现稳定。4、 适用场景开发自定义AI Agent应用的开发者搭建企业内部RAG系统的技术团队需要代码解释器能力的AI应用场景基于多模态大模型开发工具调用能力的项目开源地址https://github.com/QwenLM/Qwen-Agenttps://github.com/QwenLM/Qwen-Agent