首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
部署
订阅
Shiym
更多收藏集
微信扫码分享
微信
新浪微博
QQ
10篇文章 · 0订阅
狂追ChatGPT:开源社区的“平替”热潮
目前,不少优质的类ChatGPT模型都只能通过API接入,而一些开源LLM的效果与ChatGPT相比差距不小。不过,近期开源社区开始密集发力了。
微软开源DeepSpeed Chat,人人可快速训练百亿、千亿级ChatGPT大模型
昨日,微软开源的 DeepSpeed Chat 引起了AI社区的广泛关注。 它让我们能够以更低的成本、更快的速度训练类似于ChatGPT的高质量大模型。 链接:https://github.com/m
把React新文档投喂给 GPT-4 后...
大家好,我卡颂。 最近,React新文档终于上线了。从内容上看,新文档包括: 理论知识、学习指引 API介绍 从形式上看,新文档除了传统的文字内容,还包括: 在线Demo 示意图 小测验 可以说是阅读
GPT-4问世;LLM训练指南;纯浏览器跑Stable Diffusion
GPT-4问世;LLM训练指南;纯浏览器跑Stable Diffusion;OpenAI发布通用人工智能路线图
大语言模型(LLMs)和新兴机器学习技术栈
编者按:过去,NLP开发人员依赖于文本分类、命名实体识别和命名实体消歧等技术栈来优化NLP任务。然而,随着大语言模型(LLM)的快速发展,新的技术栈开始出现,以支持和加速这些大型语言模型的实现和应用。
使用Flask部署机器学习模型
作者|LAKSHAYARORA编译|VK来源|AnalyticsVidhya概述部署机器学习模型是每个ML项目的一个关键学习如何使用Flask将机器学习模型部署到生产中模型部署是数据科学家访谈中的一个
微信开源推理加速工具 TurboTransformers,性能超越 PyTorch/TensorFlow 与主流优化引擎
以BERT为代表的Transformer神经网络是近年来NLP领域最重要的模型创新,很多NLP任务,如阅读理解、文章摘要、语义分类、同义改写等,都通过采用BERT获得了显著的效果提升。但是,如下图所示,Transformer带来更高的模型精度的同时也引入了更多的计算量,使用Tr…
模型部署那些事
在工程服务开发中,“部署”的含义是将开发完成的服务或者软件投入到正式环境中使用的过程,包括了相关环境的配置、软件的安装、服务的测试等步骤。类似地,在机器学习和深度学习中,模型部署就是将训练好的模型进行
字节跳动模型大规模部署实战
字节跳动内部模型部署方案,利用编译技术实现了模型前后处理的训推一体化,在字节跳动内部以中台的形式服务了大量核心业务,相关的方案已经开源。
【奶奶看了都会】云服务器部署开源ChatGLM-6B,让你也能拥有自己的ChatGPT
最近ChatGPT不仅发布了GPT-4,而且解除封印可以联网了。不得不赞叹AI更新迭代的速度真快,都跟不上节奏了。但是大家也注意到了吧,随着ChatGPT的每次更新,OpenAI对其开放使用的限制也越