首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
开源大模型
订阅
Levie
更多收藏集
微信扫码分享
微信
新浪微博
QQ
7篇文章 · 0订阅
【AI 充电】揭秘大语言模型实践:分布式推理的工程化落地才是关键!
本文将以 Bloom7B1 模型为样例,分享在阿里云容器服务 ACK 上,进行大语言模型分布式推理的具体实践。
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
之前尝试了基于LLaMA使用LaRA进行参数高效微调,有被惊艳到。相对于full finetuning,使用LaRA显著提升了训练的速度。 虽然 LLaMA 在英文上具有强大的零样本学习和迁移能力,但
企业急需:拥有一个属于自身的知识库!
如今,拥有知识库对任何企业来说都是绝对必要的。特别是在软件即服务方面。如果您真的希望您的 SaaS 业务取得成功,您需要从第一天开始构建知识库。为什么?首先,SaaS 公司有一个货币化模型,专注于他们
保姆教程 | 用GPU云主机搭建AI大语言模型并用Flask封装成API,实现用户与模型对话
在本文中,我们将以chatglm-6b为例详细介绍GPU云主机搭建AI大语言模型的过程,并使用Flask构建前端界面与该模型进行对话。
好不容易研究出了ChatGPT,火的却是卖课的!
最近AI界流行一句名言:国内有那么多大厂,投了那么多钱,研究了这么多年,终于推出了一个类ChatGpt的产品,不过恐怕他们还得再研究一下,怎样才能赚到那些卖Chat
免费部署一个开源大模型 MOSS
近日复旦大学自然语言处理实验室邱锡鹏教授团队研发的大语言模型 MOSS 也已公开发布并开源。MOSS 的公开发布无疑加剧了国内 ChatGPT 式产品的竞争。
基于 ChatGLM-6B 搭建个人专属知识库
之前树先生教过大家如何利用微调打造一个垂直领域的 LLM 专属模型。但是微调一方面需要专业知识,通常需要很多计算资源和时间,以便在不同的超参数设置上训练多个模型并选择最佳的一个,另一方面动态扩展比较差