首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
AI
订阅
陈相成
更多收藏集
微信扫码分享
微信
新浪微博
QQ
10篇文章 · 0订阅
在 Dify 中接入 Flux 和 Stable Diffusion
之前有出过两篇关于本地部署及使用 AI 绘图应用 Stable Diffusion 的文章: MacOS 部署 Stable Diffusion 实现 AI 绘画自由 给 Dify 接入 SD 实现
Coze + 爬虫 = 周末去哪不用愁😆
💁♂️ 是的,你没看错,在扣子上也能耍爬虫!本节涉及:自己采集数据生成自己的知识库,使用代码节点爬取站点数据,知识库使用的一些坑~
CVer从0入门NLP(一)———词向量与RNN模型
NLP的内容很多,你如果在网上搜NLP学习路线的话你会看的眼花缭乱,本系列主要会介绍一些重要的知识点,一些老模型就不介绍了,感觉用处不大,我们的目标是向经典模型看齐,如GPT系列,BERT家族等等。
大模型分布式训练并行技术(二)-数据并行
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,传统的单机单卡模式已经无法满足超大模型进行训练的要求。因此,我们需要基于单机多卡、甚至是多机多卡进行分布式
深度学习模型部署篇——利用Flask实现深度学习模型部署(三)
在前面两节,我为大家介绍了如何将pytocrh模型转换成ONNX格式,进而提高深度学习模型部署速度, 在评论区有小伙伴们问,如何进行服务化,那么今天就为大家介绍介绍通过Flask来实现服务化。
OpenAI开放大模型微调功能!上传自己数据就可定制GPT-3.5Turbo
现在,GPT-3.5 Turbo 支持自定义微调了! 只需上传自己的数据,就可以运行专属的定制大模型。 开发者狂喜!不少人惊呼:Awesome! 早期测试表明,经过微调的 GPT-3.5 Turbo
国内利用Azure OpenAI在Java中使用ChatGPT和DALL-E模型
本文分享在Java和Python环境下,通过Azure OpenAI(不限制国内访问)使用GPT\DALLE大模型,希望帮助大家推动项目创新和提效。
耗时一下午,我终于上线了我的 GPT 终端!(内含详细部署方案记录)
耗时一下午,我终于上线了我的 GPT 终端!详细讲解 GPT Terminal 的部署方案与踩坑记录,并提供体验地址,快速使用 GPT Terminal!
唱唱反调:ChatGPT 的核心局限
相信大家对 ChatGPT 和继任者 GPT-4 能做什么已经非常了解,我们来扮演一个严厉的批评者,看看 Generative Pre-trained Transformer 本身的局限
2023了,再来看看NLP经典之作 - BERT丨论文解读
📕Q:2023年了,我是人工智能小白,该如何入门学习呢? A:不妨从一些经典的论文开始看起吧?本篇介绍NLP领域的划时代之作——BERT,简单易懂,生动有趣!