首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
aigc
订阅
agithings
更多收藏集
微信扫码分享
微信
新浪微博
QQ
39篇文章 · 0订阅
大厂LLM应用岗上岸面经:面28家拿offer,拆解“必问考点+避坑指南”
这篇把面试重点(RAG/Agent/微调是核心)、算法题套路、甚至谈薪技巧全拆了,附「面试复盘表」,小白也能照做。
三十亿参数的小宇宙:Ovis-U1-3B,AI界的新晋“全能选手”!
想象一下,一个AI模型,不只是会“看”,还会“说”,更能在“看”与“说”之间自由切换,甚至还能“变魔法”!这不再是科幻片里的情节,而是阿里巴巴AIDC-AI团队带来的最新惊喜——Ovis-U1-3B
一行代码轻松抠图!Python + AI实现智能背景处理,效果堪比PS大神
😅 开篇吐槽:本来准备自己手写这篇技术分享,但突然意识到一个问题——我的整个网站都是用AI编程工具写的,核心代码也是AI帮忙优化的,那我这篇文章干嘛要自己写?索性也让AI来帮忙,毕竟"工具人"和"工具
vLLM 搭配 OpenAI API:如何优雅地解决参数兼容性问题
vLLM 搭配 OpenAI API:优雅地解决参数兼容性问题,你只需要一个extra_body参数!
推荐 10 个受欢迎的 OCR 开源项目
我的公众号的后台接入了 AI 机器人,每天都有人在后台私信查找 OCR 相关的开源项目。 今天一网打尽,直接转发、收藏这篇文章就好了,指定全网找不到更全的了。
京东电商搜索:大模型生成式检索优化实践
详细介绍了基于大模型的生成式检索,从 Lexical based 方向深入探究大模型生成式检索的应用,从 SemanticID based 方向深入探究大模型生成式检索的应用。
RAG分块策略:主流方法(递归、jina-seg)+前沿推荐(Meta-chunking、Late chunking、SLM-SFT)
RAG分块策略:主流方法(递归、jina-seg)+前沿推荐(Meta-chunking、Late chunking、SLM-SFT) 大多数常用的数据分块方法(chunking)都是基于规则的,采用
Qwen1.5模型文本分类微调实战教程
大家好啊!今天咱们来聊聊怎么给大语言模型"调教"一下,让它在文本分类这个任务上玩得更溜。具体来说,我们要用Qwen1.5这个模型来做文章。别看这活儿听着高大上,其实做起来也没那么难。
使用PEFT库进行ChatGLM3-6B模型的LORA高效微调
LORA(Low-Rank Adaptation)是一种高效的模型微调技术,它可以通过在预训练模型上添加额外的低秩权重矩阵来微调模型,从而仅需更新很少的参数即可获得良好的微调性能。
免费使用Kimi的API接口,kimi-free-api真香
Kimi-free-api项目的出现,不仅为AI爱好者和开发者提供了便利,也推动了开源社区的发展。通过这些工具,我们可以更加便捷地探索AI的无限可能,共同期待未来AI技术带来的更多惊喜。