首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Chirp
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
4
文章 4
沸点 0
赞
4
返回
|
搜索文章
最新
热门
代码层面上学习yolo12
总览 对 YOLO 的具体运作原理仍然不甚理解,来读下 ultralytics 库的代码吧。调试 YOLO v12 的推理,以及 YOLO v11 的训练。
bf16权重合并lora出现无法忽略的精度损失
最近在微调 Qwen VL 模型,使用 peft 库的 lora 进行微调。为了更高的推理效率,就把 lora 合并到了基底模型。但合并过后的模型输出效果非常差。
transformers库,把rope编码类型设为dynamic的大坑
用 transformers 库写模型时发现个很离谱的 bug。离谱不在于 bug 本身,而是 transformers 本身已经意识到这个 bug,但因为 “速度更重要” 而搁置不改了。
PDM 避免安装 flash-attn 出现 No Module Named 'torch'
配置 CUDA_HOME,并且传入 no-isolation 参数,就可以正确安装了。 参考来源 https://github.com/Dao-AILab/flash-attention/issues
分布式多卡训练,以及 Lightning 中启用 FSDP
最近有多显卡训练的需求,于是研究了一下分布式训练。 大致来说分为 Data Parallelism 和 Model Parallelism 两种策略。
Windows 下使用 Python 正常读取超长路径的文件
Windows 系统默认的文件路径最大长度被限制在 260 个字符,Python 里像是使用 open() os.path.exists() 都无法正确读取到超出这个限制的路径的文件。
论文笔记:更适合周期性数据的 Snake 激活
论文 Neural Networks Fail to Learn Periodic Functions and How to Fix It 提出了更适合周期性数据 Snake 激活。
Ollama 的系统变量配置项
Ollama 可以说是我遇到过的最简单的部署大语言模型的方式。美中不足的是 Ollama 的文档相当粗糙。具体的配置项只字不提,还得翻项目代码才能看到。
论文笔记:TransMLA,将 kv 映射到低秩空间
留下阅读 (2025) TransMLA: Multi-Head Latent Attention Is All You Need 的痕迹。
论文笔记:Native Sparse Attention,效果比 MHA 还要好的稀疏注意力
留下阅读 (2025) Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention 的痕迹。
下一页
个人成就
文章被点赞
3
文章被阅读
6,638
掘力值
528
关注了
0
关注者
9
收藏集
0
关注标签
9
加入于
2024-07-22