获得徽章 0
- 官方发布|dify v1.3.1正式上线,支持VTT转文档&Vastbase数据库!
大家好,Dify社区!v1.3.1 版本现已发布,带来了多项更新,旨在提升您在大语言模型运维(LLMOps)中的操作和工作流程。让我们来详细看看新版本都包含了什么吧:新功能
• VTT转文档转换:文档提取器现在支持VTT数据格式。
• 高级存储管理:管理员们有福了!您现在可以轻松清理未使用的文件,回收存储空间。
• Vastbase向量数据库支持:享受与Vastbase向量数据库的无缝集成,实现更高效的处理。改进与重构
• 前端时区支持:前端的时间戳现在会根据时区显示。
• 内嵌聊天机器人用户体验增强:内嵌网站中的拖放功能显著提升,支持鼠标和触摸操作。
• 允许上传文件夹至知识库:简化知识库管理,支持直接上传整个文件夹。
🛠 Bug修复
• 模型插件顺序修正:修复了position.yaml中顺序设置不生效的问题。
• 授权及密码自动填充修复:解决了授权插件中不必要的密码自动填充行为。
• 导入模板错误修复:解决导入模板时的错误,感谢开发者们的努力。
以上就是v1.3.1版本所有主要更新!快来体验这些新功能和改进吧,有任何意见和反馈,欢迎在社区论坛或GitHub讨论区告诉我们。我们下次更新再见,祝大家编码探索愉快!🚀展开评论点赞 - openai-python v1.76.0 来了!图像模型支持+递归重构,效率提升
🚀 新功能亮点
1.新增图像模型支持• 本次更新(提交74d7692)为API添加了对新图像模型的支持,这意味着开发者可以更灵活地调用OpenAI的图像生成或处理功能,为多模态应用开发提供更多可能。
🐞 Bug 修复
1.Pydantic v1 注解检查更健壮• 修复了ModelField.annotation检查的稳定性问题(提交7351b12和eba7856),避免在某些边缘情况下出现类型校验错误,提升代码鲁棒性。
⚙ 内部优化与改进
1.递归重构:性能提升• 内部重试逻辑不再使用递归(提交8cb8cfa),改为迭代实现,减少栈溢出风险,尤其适合高频API调用的场景。
2.CI/CD 流程优化• 新增CI作业的超时阈值(提交0997211),避免长时间挂起的任务影响开发效率。
3.代码格式化与测试更新• 统一代码风格(提交aed1d76、b425fb9),并更新模型测试用例(提交870ad4e),确保后续开发更规范。展开评论点赞 - ragflow v0.18.0:VLM模型支持、知识库共享、Langfuse集成,企业级AI新选择
大家期待已久的RAGFlow v0.18.0版本终于隆重登场!这次更新带来了多项核心功能革新和性能优化,助力企业和开发者打造更智能、更高效、更协同的知识管理和问答系统,尤其为宇航装备等复杂系统的数据管理提供了强大支持。
亮点全解析:
1. MCP服务器支持,开启知识库全新访问方式
v0.18.0引入MCP(Multi-Channel Protocol)服务器功能,轻松接入RAGFlow的知识库,轻松实现跨系统、跨应用的数据访问与整合,为顶层数据架构建设打下坚实基础。
2. 深度文档解析,视觉语言模型(VLM)助力PDF图像识别
支持在文档版式识别流程中集成VLM模型,实现PDF内图像的深度语义解析,极大提升文档内容的理解与结构化能力。这对于宇航装备等需要精准数据分析的领域尤为关键。
3. Agent智能体全面升级:版本管理+团队协作
所有智能体更新均有详细版本日志,可导出并回滚,确保项目安全稳定。同时支持智能体与团队成员共享,强化团队协同效能,共享知识和能力更自由便捷。
4. 完美兼容OpenAI API,AI集成无缝对接
新增OpenAI兼容API接口,助力用户快速调用智能体服务,方便开发者基于RAGFlow进行二次开发及应用集成。
5. 用户注册控制,安全管理更灵活
管理员可通过环境变量自由开启或关闭用户注册,保障系统账户安全,满足企业不同安全策略需求。展开赞过评论2 - dify v1.3.0发布:插件自动更新、Mermaid优化,AI开发更高效!
🚀 全新特性
1.LLM 节点支持结构化输出• 现在,语言模型可以返回整齐、易处理的结构化数据了!无论是 API 调用还是数据处理,都更加高效。
2.插件更新提醒• 再也不用担心错过插件更新!新版本会在 UI 中清晰标注可用更新,确保你的环境始终最新。
3.Token 计数优化• 默认 Token 计数规则调整,若提供商未返回 Token 使用量,则默认为 0。如需估算,可通过PLUGIN_BASED_TOKEN_COUNTING_ENABLED=true启用(注意性能影响)。
4.工作流导出为图片• 想分享你的工作流?现在可以直接导出为图片,方便协作和展示!
5.Mermaid 图表分析优化• 对 Mermaid 图表的渲染和分析进行了深度优化,图表爱好者狂喜!展开评论点赞 - 向量数据库新标杆!qdrant v1.14.0深度解析:性能优化+AI推荐黑科技
核心升级:Qdrant v1.14.0的杀手级功能服务器端打分公式(Score Boosting)
• 用户现在可以自定义打分公式,直接通过服务器端计算提升特定向量的权重(比如付费内容置顶)。
•对比竞品:Milvus需要额外插件,Weaviate依赖外部模型,而Qdrant原生支持,性能损耗更低!sum_scores推荐策略
• 新增的sum_scores策略非常适合相关性反馈场景(比如“猜你喜欢”),通过动态调整多向量权重优化结果。
•对比竞品:Faiss和Chroma缺乏原生推荐策略,需手动实现,Qdrant直接内置!增量HNSW构建
• 合并Segment时复用已有HNSW图,减少80%以上的索引重建时间。
•对比竞品:Milvus的索引重建是全量式的,大数据集下延迟爆炸!展开评论点赞 - nginx 1.27.5 重磅发布!QUIC 性能再升级,CUBIC 拥塞控制来了
1.CUBIC 拥塞控制算法支持• 此次更新最大的亮点是 QUIC 协议新增了对CUBIC 拥塞控制算法的支持。CUBIC 是 Linux 默认的 TCP 拥塞控制算法,相比传统的 NewReno 或 BBR,它在高带宽、高延迟网络中表现更优,能有效减少网络拥塞,提升传输效率。
• 对于依赖 HTTP/3 的企业级应用(如视频流、实时通信),这一改进可显著降低延迟,提升用户体验。
2.HTTP/3 的持续优化• 自 Nginx 1.25.0 实验性支持 HTTP/3 以来,Nginx 团队不断优化 QUIC 实现的稳定性。1.27.5 版本进一步修复了与 SSL 会话管理相关的问题,确保在高并发场景下仍能稳定运行。展开评论点赞 - docker v28.1.1 正式发布!修复关键Bug,网络与安全性再升级
核心修复与优化
1. 关键 Bug 修复
•dockerd-rootless-setuptool.sh修复:此前在某些环境下,该脚本会错误报告iptables缺失,导致 rootless 模式配置失败,现已修复。
•containerd镜像存储修复:当使用docker load加载包含零大小 tar 头文件的镜像时,可能导致 Docker 守护进程崩溃,此问题已解决。
2. 网络增强
•DNS 警告提示优化:如果容器的/etc/resolv.conf中未检测到上游 DNS 服务器,Docker 现在会明确发出警告,帮助用户排查网络配置问题。
3. 依赖项升级
•Buildx v0.23.0:优化多平台镜像构建性能,支持更高效的缓存管理。
•Compose v2.35.1:修复编排工具的兼容性问题,提升稳定性。展开赞过评论1 - DeepSpeed v0.16.7震撼发布!AMD GPU支持、性能优化一网打尽,训练效率再飙升!
微软DeepSpeed团队再度发力,推出v0.16.7版本!本次更新虽是小版本迭代,但包含多项关键修复与优化,尤其针对AMD GPU兼容性、DeepCompile稳定性及内存管理进行了重要升级,助力你的大模型训练更高效、更稳定!核心更新亮点
1.AMD GPU 支持修复• 修复了DeepCompile在AMD GPU上的构建问题,AMD用户终于可以无障碍使用DeepSpeed的高性能优化功能!
2.DeepCompile 防御机制增强• 新增无优化器场景下的防御逻辑,避免因配置错误导致意外崩溃,训练过程更鲁棒。
3.CUDA JIT 加载优化• 修复了OpBuilder中jit_load的with_cuda参数传递问题,确保CUDA依赖的算子正确编译加载。
4.内存管理改进• 修复梯度连续缓冲区(contiguous_grad_buffer)的卸载逻辑,防止None值引发错误,提升显存利用率。
5.Z3求解器与性能分析器修复• 解决了Z3求解器和分析器(profiler)的潜在问题,让复杂优化策略更稳定。展开评论点赞 - ollama v0.6.6 重磅更新:更强推理、更快下载、更稳内存
🚀 核心更新亮点
1. 两大全新模型上线
•Granite 3.3(2B & 8B):128K 超长上下文,优化指令跟随与逻辑推理能力,适合复杂任务处理。
•DeepCoder(14B & 1.5B):完全开源代码模型,性能对标 O3-mini,开发者可低成本部署高质量代码生成 AI!
2. 下载速度大幅提升
•实验性新下载器:通过OLLAMA_EXPERIMENT=client2 ollama serve启用,下载更快、更稳定!
•Safetensors 导入优化:ollama create导入模型时性能显著提升。
3. 关键 BUG 修复
•Gemma 3 / Mistral Small 3.1 内存泄漏问题修复,运行更稳定。
•OOM(内存不足)问题优化,启动时预留更多内存,避免崩溃。
•Safetensors 导入数据损坏问题修复,确保模型完整性。
4. API 与兼容性改进
•支持工具函数参数类型数组(如string | number[]),API 更灵活。
•OpenAI-Beta CORS 头支持,方便前端集成。展开评论点赞 - 开源版Coze火力全开!融资超4.6亿,Docker拉取量破亿,狂揽79.1k星!
n8n 宣布新一轮融资,获得79.1k 星标
n8n 最近完成了一轮融资,由 Highland Europe 领投,HV Capital 及之前的投资者 Sequoia、Felicis 和 Harpoon 也参与了此次融资。
n8n 是一款开源、可扩展的工作流程自动化工具,用户可以通过简单的拖放操作,将各种应用程序和服务连接起来,从而创建个性化的自动化流程。该工具支持与超过 400 种应用和服务集成,包括 Google、Slack、GitHub、Trello 等众多流行平台。
n8n 的创始人兼 CEO Jan Oberhauser 表示:“自动化不应被视为一个封闭的过程——企业需要具备透明度、灵活性和经济效益。通过 n8n,我们不仅构建了一个平台,更是建立了一个充满热情和信任的社区。无论是个人开发者还是全球企业,n8n 赋予每个人相当于十倍开发者的能力,这在当今人工智能快速发展的工作环境中显得尤为重要。”
在过去一年里,n8n 经历了显著的增长,目前活跃用户已超过 20 万,年度经常性收入 (ARR) 增长了五倍。
如今,n8n 在 GitHub 上赢得了79.1k 的星标,成为一款备受欢迎的开源软件。
github.com/n8n-io展开赞过11