首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
架构师李哲
掘友等级
技术架构师
资深架构师,985硕士,聚焦大模型微调与AI基建,在此记录实战思考,分享LLM落地最后一公里。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
架构师李哲
技术架构师
·
8小时前
关注
告别深夜批改:用Qwen3-VL大模型打造会“理解”的作文阅卷助手
基于Qwen3-VL打造作文阅卷助手,通过对300篇高中作文进行LoRA微调,将教师从繁重批改中解放,更通过即时、客观的反馈助力学生写作能力提升,展现了垂直领域大模型应用的...
0
评论
分享
架构师李哲
技术架构师
·
8天前
关注
当 AI 落地到了“深水区”:到底是 Prompt 不行、RAG 不够,还是该考虑微调了?
大模型效果不稳时,问题往往不在“模型不够强”,而在 Prompt、RAG 和微调怎么配合用。本文给出一套系统性判断思路,并介绍如何借助 LLaMA-Factory Onli...
0
评论
分享
架构师李哲
技术架构师
·
11天前
关注
开源算法能在 2025 年击败 GPT-5 吗?DeepSeek-V3.2 / Speciale 交出了一份答卷
开源大模型已经不再只是“便宜替代品”——DeepSeek-V3.2在综合推理上对齐GPT-5,高算力版本Speciale则在IMO等竞赛题上达到金牌线,让顶i推理能力首次以...
0
评论
分享
架构师李哲
技术架构师
·
21天前
关注
别再烧钱做AI!大模型微调GPU终极指南:从入门到放弃?
本文将从底层逻辑到实战方案,帮你彻底理清选卡思路。 顺带一提,普通人也能接触H卡,只要你的电脑能连上网!...
0
评论
分享
架构师李哲
技术架构师
·
25天前
关注
最佳实践丨让苏东坡“复活”!我用Qwen3-8B实现了与千古文豪的跨时空对话
这不是穿越剧的台词,而是借助大模型技术实现的真实对话。在人工智能的赋能下,千年前的文豪苏东坡以“数字分身”的形式“复活”,与今人吟诗作对、畅谈人生,展开一场跨越时空的交流。...
0
评论
分享
架构师李哲
技术架构师
·
1月前
关注
大模型微调「数据集构建」保姆级教程(超全)
微调成败首在数据。本文手把手教你从目标对齐、多源收集、工业清洗到版本管理,打造高质量数据集,并分享电商客服实战与工具,助你一次把模型调到位。...
0
评论
分享
架构师李哲
技术架构师
·
1月前
关注
Qwen3-Omni多模态微调实战:从通用模型到AI智能博物官
本文介绍大模型微调技术,如何通过LLaMA-Factory Online将通用Qwen3-Omni模型微调为专业文博解说AI,解决领域幻觉问题,实现从“通才”到“专才”的转...
0
评论
分享
架构师李哲
技术架构师
·
1月前
关注
2小时打造专业医疗助手:基于CareGPT与Qwen3-8B的微调实战
基于CareGPT和Qwen3-8B模型,采用LoRA方法在专业医疗数据集上进行微调实践,该技术方案在保持模型通用能力的同时,显著提升了医疗问答的专业性和实用性。...
0
评论
分享
架构师李哲
技术架构师
·
1月前
关注
【大模型微调】一文掌握5种大模型微调的方法
本篇文章深入分析了大模型微调的底层逻辑与关键技术,细致介绍了包括全参数微调、LoRA、QLoRA、适配器调整与提示词调整在内的5种主流方法。...
0
评论
分享
个人成就
文章被阅读
342
掘力值
80
关注了
0
关注者
0
收藏集
0
关注标签
5
加入于
2025-10-22