首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
大模型
订阅
用户178524602665
更多收藏集
微信扫码分享
微信
新浪微博
QQ
11篇文章 · 0订阅
私有化实现及部署“chatgpt”对话机器人(三)--chatglm模型详解及部署
本章节主要讲述chatglm相较于transformer的一些改进点,以及在gpu机器上的本地化部署和运行效果。
十分钟安装部署大模型ChatGML-6B
近期大模型可谓是如火如荼,按耐不住也想手动安装部署大模型,近距离接触大模型,废话不多说直接开始安装部署。
大模型实践总结
随着近期ChatGPT的迅速出圈,加速了的大模型时代变革。以Transformer、MOE为代表的大模型,传统的单机单卡训练模式肯定不能满足,这时候我们就需要
基于开源大模型Vicuna-13B构建私有制库问答系统
基于开源大模型和开源大模型应用,部署私有知识库问答系统。大模型选择Vicuna-13B,能力为gpt3.5的90%,DB-GPT,可以多端访问,而且可以使用文档快速构建问答系统
Generative AI 新世界 | Falcon 40B 开源大模型的部署方式分析
本期文章,我们将重新回到文本生成的大模型部署场景,探讨如何在 Amazon SageMaker 上部署具有 400 亿参数的 Falcon 40B 开源大模型。
基于大模型 + 知识库的 Code Review 实践
基于私有化部署的开源大模型,结合内部知识库的 Code Review 实践,实现一个类似代码评审助手(CR Copilot)
New Bing + ChatPDF 论文阅读生产力
为什么不用ChatGPT 我用的ChatGPT是GPT 3.5,不能联网。当然没钞能力,所以不知道GPT-4使用感受如何,所以今天给大家介绍一下如何使用ChatPDF + New bing快速筛论文。
信我!这里有普通人也能理解的 Transformer
你一定听说过当下风靡全球的 ChatGPT,但你知道它是如何利用 Transformer 模型的神奇力量吗?这里将用最通俗易懂的方式,揭秘 Transformer 的来龙去脉,结构原理。
学习大模型应用开发(第二章)
官方地址 如何将官方大模型封装成本地api 由于讯飞星火认知大模型需要使用 websocket 连接来调用,而其他大模型直接使用 request 调用,例如百度文心、ChatGPT 等存在显著差异。不
私有化实现及部署“chatgpt”对话机器人(一)--环境安装
本章节主要从gpu服务器基础驱动环境搭建,cuda与cudnn环境安装,python环境及pytorch安装,建议有条件的可采用云服务器方式,相对要更简单一些。