首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
超越-env-一份成熟的应用程序配置指南
Hyperlane is a lightweight and high-performance Rust HTTP server library designed to simplify networ
Springboot +Redis
Springboot框架是Java语言的必学框架之一,框架Springboot,dependence的是NOSQL中的Spring data Redis(Redis+driver)
你的测试又慢又不可靠-因为你测错了东西
Hyperlane is a lightweight and high-performance Rust HTTP server library designed to simplify networ
服务器部署的优雅艺术
Hyperlane is a lightweight and high-performance Rust HTTP server library designed to simplify networ
termux如何运行js脚本?
termux如何运行js脚本 Termux如何运行JS脚本:安装Node.js、编写JS脚本、运
生态系统集成-现代Web开发的最佳实践
Hyperlane is a lightweight and high-performance Rust HTTP server library designed to simplify networ
现在的AI大模型的能力到底能做什么?哪些关键技术是必须要掌握的?
现在的AI大模型的能力到底能做什么? 按照个人使用AI当前的能够提高效率的事情包括以下几个点: 1)智能对话运维 如果大模型拥有某个领域的知识,那么进行对话的话,能够快速把知识进行查找和总结。把大模型
es搜索引擎的索引机制原理
Elasticsearch(ES)中的索引(Index) 是存储和管理数据的核心逻辑单元,类比关系型数据库的 “数据库(Database)”,是一组具有相似结构的文档(Document)的集合。以下
幂等性设计的几种解决方案
幂等性是程序设计中保障系统可靠性的核心特性,指同一操作无论执行多少次,结果都与执行一次完全一致,不会重复创建数据、重复扣减金额、重复发送消息等。其核心解决的是网络重试、消息重发、用户重复提交等场景下的
SpringBoot自动配置原理学习与基于原理自定义aliyun-oss-spring-boot-starter依赖
SpringBoot自动配置原理学习与基于原理自定义aliyun-oss-spring-boot-starter依赖。
你的项目一团糟-不是你的错-是框架的锅
Hyperlane is a lightweight and high-performance Rust HTTP server library designed to simplify networ
kafka的消息一致性原理
消息一致性的核心结论是:通过 “分区日志结构 + 副本同步 + 生产 / 消费端机制”,实现 “不丢、不重、有序” 的基础一致性,跨场景一致性需结合幂等 / 事务机制强化,整体可按需灵活配置。 核心维
kafka的高可用核心机制
1. 分区副本机制(数据冗余) 这个是高可用的基础,核心是“将partition的副本分散在不同的Broker中”,由kafka自动分配(replica.assignment.strategy 调整分
kafka导致消息丢失原因及解决方案
Kafka作为分布式消息系统,在消息可靠性方面存在多个可能导致消息丢失的环节,主要有以下三个方面会存在丢失数据的可能性,分别是生产者、消费者以及kafka节点broker三个方面。 生产者端丢失消息原
kafka的负载均衡策略
Kafka 的负载均衡核心目标是 将存储、网络、IO 压力均匀分散到集群所有 Broker,避免单点瓶颈,其设计贯穿 “数据分布、读写路由、动态调整” 全链路,依赖 “Partition 分发 + 副
kafka的日志压缩机制原理
Kafka 日志压缩技术的核心目标是 对 “变更型数据”(如用户信息、订单状态)保留每个 Key 的最新版本,删除历史旧版本,在不破坏消息顺序的前提下大幅减少磁盘存储占用。其设计本质是 “Key 级去
Kafka的零拷贝机制原理
Kafka 能实现 “百万级 / 秒” 吞吐,零拷贝(Zero-Copy)技术是关键支撑之一。其核心目标是 减少数据在 “磁盘→内存→网络” 传输过程中的拷贝次数和用户态 / 内核态切换开销,将传统传
kafka的日志定位原理
Kafka 的日志定位(Log Positioning)核心目标是 根据消息的偏移量(Offset)或时间戳,快速找到其在物理磁盘日志文件中的存储位置,支撑消费者按偏移量读取、业务按时间范围查询等核心
kafka的消息消费有序性怎么保证
Kafka 保证消息消费有序性的核心原则是 “分区内有序,跨分区无序” ——Kafka 本身仅保证单个分区内的消息按生产顺序存储和消费,跨分区的全局有序需额外设计。以下从「生产端、Broker 端、
Kafka的刷盘策略
Kafka 的刷盘策略(Log Flush Policy)核心目标是 将内存中的消息(OS 页缓存 / 应用层缓存)持久化到物理磁盘,其设计核心是 “不追求单条消息的即时持久化,而是通过批量 + 异步
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30