首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
人工智能
订阅
鬓_微霜
更多收藏集
微信扫码分享
微信
新浪微博
QQ
15篇文章 · 0订阅
Qwen2大模型微调入门实战(完整代码)
Qwen2是通义千问团队的开源大语言模型,由阿里云通义实验室研发。以Qwen2作为基座大模型,通过指令微调的方式实现高准确率的文本分类,是学习大语言模型微调的入门任务。 指令微调是一种通过在由(指令,
《深入浅出OCR》前言知识:机器学习基础(一)
✨全新系列《深入浅出OCR》专栏,对标最全OCR教程,每章将分别从OCR技术发展、方向、概念、算法、论文、数据集等角度展开详细介绍,本篇为第一篇前言知识,主要介绍机器学习基础,后续继续更新其他文章。
Transformer 模型的 PyTorch 实现
Google 2017年的论文 Attention is all you need 阐释了什么叫做大道至简!该论文提出了Transformer模型,完全基于Attention mechanism,抛弃了传统的RNN和CNN。 我们根据论文的结构图,一步一步使用 PyTorch …
深入理解Transformer技术原理 | 得物技术
谷歌在2017年发布Transformer架构的论文时,论文的标题是:Attention Is All You Need。重点说明了这个架构是基于注意力机制的。
向量检索核心算法——相似性度量
在我们的日常生活中,搜索和匹配是非常常见的事情。比如,你在网上购物时想找到与某件衣服相似的款式;在听音乐时想找到风格相近的歌曲;或者在阅读一篇文章后,想找到内容相关的其他文章或新闻。这些都离不开一个重
前端高薪岗位之大模型端上部署及训练
端上大模型的可行性和前景已经得到了业内的普遍认可,目前大量工程已在PC端、手机端实现大模型的离线部署,更有部分App登陆应用商店,只需下载即可畅通无阻地对话。
骁龙888实时运行,美团、浙大等打造全流程移动端多模态大模型MobileVLM
大模型涌向移动端的浪潮愈演愈烈,终于有人把多模态大模型也搬到了移动端上。近日,美团、浙大等推出了能够在移动端部署的多模态大模型,包含了 LLM 基座训练、SFT、VLM 全流程。
《深入浅出LLM基础篇》(一):大模型概念与发展
本作者推出全新系列《深入浅出LLM》专栏,分为基础篇、进阶篇、实战篇等,本文为基础篇具体章节如导图所示,分别从大模型模型概念、经典模型、创新点、微调、分布式训练、数据集、RAG、Agent及项目实站!
Python程序打包指南:手把手教你一步步完成
这篇指南将带你深入了解如何将Python程序进行打包。从简单易懂的步骤出发,将手把手地教你完成整个打包过程。无论你是初学者还是有一定经验的开发者,都能从本文中获取实用的知识
一文带你入门LangChain
在人工智能领域的不断发展中,语言模型扮演着重要的角色。特别是大型语言模型(LLM),如ChatGPT,已经成为科技领域的热门话题,并受到广泛认可。