首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
想想就想想
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
技术面试中最常见三种致命“软肋”
一:原理理解深度不足 根源分析:这个问题源于“被动学习”和“应试学习”。我们可能为了快速上手工作,只记住了“是什么”和“怎么用”,却懒得去探究“为什么”。当被追问时,自然无法自圆其说。 如何避免(从“
面试题:订单到期关单如何实现?采用延迟队列为主、定时任务补偿的 双保险方案来确保可靠性和实时性
按思路、架构、关键实现点、样例代码和常见坑整理成一份“答案稿”,既能回答高层设计也能展示细节实现能力,方便面试时直接讲或在白板上补图。 核心思路(一句话) 用延迟队列(Delayed Queue)作为
线程池执行流程详解
线程池(Thread Pool)是一种基于池化思想管理线程的并发工具,核心目标是复用线程资源、控制并发数量、降低资源开销。其执行流程涉及任务提交、线程调度、任务排队、拒绝策略等多个环节,是Java并发
深度分页介绍及优化建议:从原理到实战的全链路解决方案
在互联网产品的后台开发中,“分页查询”是最常见的需求之一。无论是电商的商品列表、社交平台的动态流,还是日志系统的历史数据检索,用户都需要通过分页功能逐步浏览海量数据。然而,当数据量突破百万甚至千万级别
高并发下如何防止商品超卖
在电商促销、秒杀、抢购场景中,超卖(oversell) 是最常见也最致命的问题之一:库存在同一时刻被多个请求同时扣减,导致实际销售量超过了真实库存,引发退款、差评、资金损失与品牌伤害。本文从原因、本质
10亿的订单量,如何去重,使用1G内存 ?
好问题。 “10亿条订单数据去重,只能用1GB内存”,这是个典型的大数据内存受限问题。 我们来一步步推导可行方案,不同场景下策略会不同。 🎯 一、明确问题 假设: 订单量:10亿条(10^9) 每条订
你怎么看待满嘴高并发、高可用,编码能力却稀松平常的程序员?
这是一个非常现实的问题。很多团队里确实存在这种现象:嘴上谈“高并发、高可用、分布式、微服务”,结果写起代码来 if/else 都能嵌套三层、for 循环里查数据库、异常不处理、日志不打全。 我来分层说
个人成就
文章被阅读
324
掘力值
106
关注了
37
关注者
4
收藏集
0
关注标签
5
加入于
2019-02-20