首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
LLM工程化实践
Ula6
创建于2026-04-17
订阅专栏
LLM工程化实践
暂无订阅
共4篇文章
创建于2026-04-17
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
Token 就是钱!LLM 长文本处理的截断策略与成本控制实战
调用 LLM API 时,把整段文本全扔进去?不仅费钱,效果还可能更差。本文分享长文本截断策略:固定截断、语义边界截断、结构化清洗,实测节省 50% 成本,准确率反而提升。
别凭感觉写 Prompt!如何构建 LLM 文本分类的“本地评测跑分”系统?
改了一版 Prompt,怎么量化效果?本文手把手教你纯 Python 实现混淆矩阵、Precision、Recall、F1-score,不依赖 sklearn,并绘制热力图可视化。
万级文本数据调用 LLM API 的工程化“防坑防断”指南
跑 demo 没问题,一上万条数据就崩?本文分享处理 14,000 条数据的完整工程方案:API 限速、断点续传、异常处理、数据清洗,让你的批量调用稳如老狗。
大模型输出格式化实战:如何用 Prompt + 后处理让 LLM 稳定输出规范数据
用 LLM 做信息抽取时,模型总爱“自由发挥”怎么办?本文分享一套 Prompt 设计+参数调优+后处理的四层防御体系,让大模型输出像函数返回值一样稳定。