首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
设计
订阅
larrystd
更多收藏集
微信扫码分享
微信
新浪微博
QQ
3篇文章 · 0订阅
使用bRPC和ONNX Runtime把BERT模型服务化
在上文中,我们将BERT的Pytorch模型转换成ONNX模型,并使用onnxruntime完成了python版的ONNX模型预测。今天我们来把预测搬到C++版本的bRPC服务上,模拟一下模型的部署。
实现业务幂等性的常用方案!
文章首发到公众号:月伴飞鱼 文章内容收录到个人网站,方便阅读:http://hardyfish.top/ 文章内容收录到个人网站,方便阅读:http://hardyfish.top/ 资料分享 重复请
本地缓存+分布式缓存多级结构如何协同工作?如何保持一致性?
一、多级缓存协同工作逻辑 多级缓存(本地缓存+分布式缓存)通过“层层拦截请求”降低分布式缓存压力,核心流程如下: 1.优先查本地缓存:应用进程优先读取本地缓存