首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
大模型
订阅
wen酱110586
更多收藏集
微信扫码分享
微信
新浪微博
QQ
305篇文章 · 0订阅
大模型 Claude API 还要申请?那就自己来封装一个吧
0 | 前言 自从 OpenAI 的 chatGPT 出现,被誉为第四次工业革命的开始。语言大模型这个话题,占据了互联网的半壁江山,围绕大模型的上下游生态、竞品大模型层出不穷。除了 chatGPT 外
大模型面试题剖析:大模型微调数据集构建
在大模型技术栈中,微调(Fine - tuning)是使预训练大模型适配特定领域任务的核心手段,而微调数据集作为模型训练的“燃料”,其构建的科学性与工程化程度直接决定微调效果上限。
从零实现 LLM(下):推理生成、常见问题与进阶优化
这篇文章从零实现一个可运行的 mini-GPT,用通俗解释和代码示例带你理解分词、训练和生成,让零基础也能上手训练属于自己的小型语言模型。
从零实现 LLM(上):原理讲透 + 最小可运行 GPT
这篇文章从零实现一个可运行的 mini-GPT,用通俗解释和代码示例带你理解分词、训练和生成,让零基础也能上手训练属于自己的小型语言模型。
文心 X1.1 实测:高端大模型性能新突破(附 Python 简明新手入门教程)
经过为期两周的技术暗访验证,百度文心 X1.1 大模型在核心性能维度展现出显著突破:在 Python 粒子动画生成等场景实现零调试运行,中文热梗解析完整度达 95%,事实性错误率较上一代大幅降低。
大模型工程面试经典(六)—大模型微调与RAG该如何选?
本期分享系统介绍了RAG和模型微调的技术背景和适用场景,帮助大家更好理解模型微调和RAG的本质区别。同时鉴于模型微调的重要性,还补充了三个模型微调有关的面试题,相信大家按如上模板回答一定是加分项!
Google 新 LLM 仅需 0.5GB 内存即可运行——如何在本地对其进行微调
几天前,Google 悄然发布了一款小型 AI 模型,名为 Gemma 3 270M。 它体型极小,甚至能在配置极低的设备上运行。当然,也不是真的能在“土豆”(指完全无法使用的设备)上运行,但它仅需约
大模型工程面试经典(五)—大模型专业领域微调数据集如何构建?
本期分享系统介绍了如何创建大模型微调数据集这一面试热点问题,创建微调数据集是影响微调效果的最关键环节,回答好这一问题非常重要,大家按模板回答一定是加分项!
大模型工程面试经典(四)—如何进行大模型多模态微调?
本期分享系统介绍了如何进行大模型多模态微调这一面试热点问题,不同于语言模型的微调,多模态微调涉及到不同模态的格式对齐和多结构的训练统一,需要具备一定的回答技巧。同时扩展了3个热点问题,涵盖了多模态微调
大模型工程面试经典(三)—如何通过微调提升Agent性能?
本期分享系统介绍了如何通过微调提升Agent性能这一大模型面试几乎必问的关键问题,推荐大家从高效微调和强化学习微调两个角度进行回答,同时扩展了3个热点问题,涵盖了通过微调提升Agent性能的全部内容。