首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
小爷毛毛_卓寿杰
掘友等级
大模型算法
NLP对话、大模型、AIGC。 微信视频号:毛毛AIGC
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
Xinference vLLM Rerank 分数异常:Cross-Encoder 参数顺序的致命陷阱
问题现象 在 Xinference版本中,用户报告了一个严重的分数异常问题。使用 vLLM 引擎部署 bge-reranker-v2-m3 模型时,对于完全不相关的查询-文档对,返回了接近 1 的高相
SlideFlow: AI 驱动的 PPT 自动化生成引擎
Github地址:https://github.com/xiaoyesoso/SlideFlow SlideFlow 不仅仅是一个 PPT 生成器,它是一个基于 LangGraph 状态机编排、MCP
修复 Xinference + vLLM 启动失败:0 bytes read 错误的真实原因与解决方案
🔥 问题现象:vLLM 模式下大模型启动失败 但轻量模型的嵌入模型仍可正常运行: 关键背景: 使用 vLLM 作为推理引擎 模型为 Qwen2.5-14B-GPTQ-Int4(约 8–9GB 磁盘大小
FastW2V-JNI:从模型到移动端语义检索的完整落地实践
github 项目地址:https://github.com/xiaoyesoso/FastW2V-JNI 一、项目背景:为什么是 FastW2V-JNI? 在很多中文业务场景里,我们经常会遇到类似的
检索增强的大模型工具调用:语义驱动的精准API选择技术
🔥🔥🔥Retrieval-Augmented Tool Selector 工具已开源!!! 求 Star ⭐️⭐️⭐️ :https://github.com/xiaoyesoso/retrieval
问题修复记录:Dify Docker Sandbox 指定Pip源 与 代码运行无权限 问题
如何安装 Pip 包 在 volumes/sandbox/dependencies/python-requirements.txt 文件里面添加需要的包就行。sandbox容器启动后就会开始下载。 如
问题修复记录:Xinference部署 Embedding Model 服务偶发超时
1. 异常表现 用 Xinference 部署Embedding Model,正常来说一次调用在 0.0x s 就能返回了,但是总会调着调着突然有超时的情况(超时设置为 0.2s)。 以下为排查时的耗
问题修复记录:Linux docker 部署 dify,无法调用宿主机本地服务
使用docker compose启动Dify后,在其中配置本地xinference中的模型,报错: get xinference model extra parameter failed, url
构建高效可靠的分布式推理系统:深入解析控制器与模型服务的协同工作
在现代互联网应用中,随着用户需求的增长和技术的进步,单一服务器已经难以满足大规模并发请求的需求。为了提升系统的性能和可靠性,开发者们越来越多地采用分布式架构。本文将结合具体的代码示例,深入浅出地探讨如
【大模型系列故事】智慧觉醒
https://player.bilibili.com/player.html?aid=1905465214 在遥远的数字王国中,居住着一群非凡的智者——大语言模型。它们不仅能够理解文字,更能创造故事
下一页
个人成就
文章被点赞
1
文章被阅读
9,532
掘力值
337
关注了
3
关注者
7
收藏集
0
关注标签
16
加入于
2022-04-11