首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
AI工具
订阅
吴糖茉莉花
更多收藏集
微信扫码分享
微信
新浪微博
QQ
4篇文章 · 0订阅
大模型时代,Java开发者别落伍!LangChain4j让你轻松追上
作为一名31岁的Java开发者,看到Python圈子玩转大模型,难免心痒痒!好消息是:现在有了LangChain4j,Java也能优雅调用OpenAI、Claude、Gemini等主流大语言模型了!本
Dify 1.4.3技术研究报告:新一代AI应用开发平台的核心优势与行业实践
Dify是一款开源大语言模型应用开发平台,采用BaaS与LLMOps融合架构,降低AI应用开发门槛。其1.4.3版本强化了稳定性与体验,修复结构化输出问题,支持Gemini多模态处理,并优化安全机制
Xinference Huggingface常用命令
指定Xinference下载模型的路径 1. 通过环境变量全局设置 修改默认存储路径 在启动Xinference服务前,通过设置环境变量 XINFERENCE_HOME 指定模型和数据的存储目录。例如
5 个开源 MCP 服务器
什么是 MCP 服务器? MCP 代表模型上下文协议。这是像 Claude 这样的 AI 与自身之外的东西(例如网站或代码笔记本)进行交流的一种方式。没有它,你的 AI 就只能靠猜测。有了它,就像说: