首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
服务端
订阅
老刘
更多收藏集
微信扫码分享
微信
新浪微博
QQ
3篇文章 · 0订阅
面试官:高并发场景下,你们是怎么保证数据的一致性的?
面试的时候,总会遇到这么一个场景。 1. 场景分析 面试官:你们的服务的QPS是多少? 我:我们的服务高峰期访问量还挺大的,大约是3万吧。 面试官:这么大的访问量,你们的服务器能撑住吗?有加缓存吗?
南瓜电影 7 天内全面 Serverless 化实践
从我们了解 SAE 产品到整体上线一共是 7 天时间。3 天完成核心应用 API 网关上线,第 5 天验证结束 100% 流量打到 SAE 上,第 6-7 天把其余 30 多个系统快
面试官:请谈谈写入消息中间件的数据,如何保证不丢失?【石杉的架构笔记】
看过之前的文章面试官:消息中间件如何实现每秒几十万的高并发写入?的同学,应该都知道写入Kafka的数据是会落地写入磁盘的。 我们暂且不考虑写磁盘的具体过程,先大致看看下面的图,这代表了Kafka的核心架构原理。 所以说,这里就得考虑数据的分布式存储了,其实关于消息中间件的分布式…