首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
大模型
订阅
luosa
更多收藏集
微信扫码分享
微信
新浪微博
QQ
8篇文章 · 0订阅
LoRA:语言模型微调的计算资源优化策略
随着数据量和计算能力的增加,大模型的参数量也在不断增加,同时进行大模型微调的成本也变得越来越高。全参数微调需要大量的计算资源和时间,且在进行切换下游任务时代价高昂。 本文作者介绍了一种新方法 LoR
使用BERT预训练模型
碎碎念 不知道哪年辈子订阅的书突然上架了,昨天就熬夜看了一遍,今天跑作者仓库看了一下代码。顺路参加一下金石计划。因为作者代码是两年前的了,有的已经跑不通了,所以改了改。 使用BERT预训练模型 第一节
为下游任务微调BERT预训练模型 文本分类
碎碎念 使用BERT预训练模型中讲了如何使用预训练模型,这次我们看一下如何进行微调。 微调模型 首先,我们学习如何为文本分类任务微调预训练的BERT模型。 举个简单的情感分析的例子。 情感分析是自然语
langChain入门2-LCEL基本示例
LangChain Expression Language 既LCEL,是langchain核心中的核心,可以让我们方便的使用最基本的组件构建复杂的chains,并且支持一些开箱即用的功能包括流式输出
Fine-tuning:个性化AI的妙术
随着人工智能(AI)技术的迅猛发展,Fine-tuning作为一项重要而神奇的技术崭露头角。Fine-tuning俗称“微调技术。其本质上是对已有模型进行能力的迁移学习扩展,由于重新训练神经网络模型的
一文读懂大型语言模型参数高效微调:Prefix Tuning与LLaMA-Adapter
在快速发展的人工智能领域中,高效、有效地使用大型语言模型变得日益重要,参数高效微调是这一追求的前沿技术,它允许研究人员和实践者在最小化计算和资源占用的同时,重复使用预训练模型。
Bert模型预训练和微调
「这是我参与11月更文挑战的第27天,活动详情查看:2021最后一次更文挑战」 Bert模型预训练和微调一起学习
ML笔记:预训练(pre-training/trained)与微调(fine tuning)
学习目标: 预训练(pre-training/trained)和微调(fine tuning)这两个词经常在论文中见到,今天主要按以下两点来说明。 什么是预训练和微调? 它俩有什么作用? #一、什么是