我们精心打磨每一篇文章:深度思考、精准测试,坚持用严谨的创作流程确保每篇内容都经得起实践检验。这是我们的创作准则,更是对读者时间的庄严承诺——让您花费的每一分钟,都能收获解决实际问题的真知灼见。
近期一直在做前端项目的适配工作,对dify的优点也是越来越喜欢了。这次Dify升级,没有及时更新,本着对用户负责的原则和系统新功能的更新可能存在bug的思想,进行了几天的功能测试,在这个版本中,至少目前没有发现其他bug,于是,将其更新出来!
Dify对MCP的原生双向支持
Dify已经升级到1.6.0版本了,而这次升级,是真的太卷了,引用官方的一段描述:
在最新版本中,Dify 实现了对 MCP 的原生双向集成。不仅能直接调用外部 MCP 服务,还可以便捷地将 AI 应用发布为 MCP 服务供外部客户端调用
这一功能完全摒弃了第三方插件的安装途径,利用原生支持的功能,最直观的优点就是部署和使用成本进一步降低了。

主要MCP功能的使用方式
-
将MCP服务配置为工具来进行使用: -
将应用发布为MCP服务

-
在workflow和Agent中调用服务

以上便是详细的说明与升级过程了。
聊一聊
近期本地部署了heygem数字人程序,普通使用完全满足需求,推荐需要的伙伴使用,最关键的是本地部署,安全可控,免费使用。都看到这里了,感谢各位推荐与转发!!!
推荐阅读
-
•「11」为什么说Dify或许不是最好的选择,但一定是是目前最适合的应用构建平台?
-
•「10」Docker部署RAGFlow离线和在线两种方式 | Docker 镜像位置更改与下载加速攻略!
-
•「9」如果说Dify 1.4.0是视觉上的改变,那么这次升级到Dify 1.5.0便是核心实锤
-
•「8」DeepSeek本地部署大模型终极解决方案,细到超乎想象!” data-itemshowtype=”0″ linktype=”text” data-linktype=”2″>vLLM+DeepSeek本地部署大模型终极解决方案,细到超乎想象!
-
•「7」Dify平台集成vLLM,实现模型与应用对接
-
•「6」vLLM+Dify+本地DeepSeek轻松将文件上传提问功能应用到实践中 | 结合文件回答问题有这篇就够了!
-
•「5」vLLM+Dify+本地DeepSeek轻松将文件上传提问功能应用到实践中 | 结合文件回答问题有这篇就够了!
-
•「4」Ollama+BGE-M3对接Vllm+Dify+本地DeepSeek大模型详细操作” data-itemshowtype=”0″ linktype=”text” data-linktype=”2″>知识库智能体终极解决方案!Ollama+BGE-M3对接Vllm+Dify+本地DeepSeek大模型详细操作
-
•「3」Dify升级不成功?你只要做对这一步,升级真的太简单了!
-
•「2」实时语音识别 | 语音转文字 | 推荐语音模型部署应用的终极方案!
-
•「1」智能体应用最佳组合,一台主机同时部署Dify和RAGFlow全流程避坑指南 | 实操保姆级记录
