首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
云网络
bobz965
创建于2025-09-14
订阅专栏
一致性网络
等 2 人订阅
共238篇文章
创建于2025-09-14
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
所有节点上都有同样的 mac 对应的网卡会导致 arp 冲突么
不会。 分析: 为什么同 MAC 不会冲突? MAC 冲突的前提是多个节点的同 MAC 接口同时主动发送帧。当前场景: macbond 接口只是 UP,没有配 IP(MetalLB 通过 GARP 代
metalLB 指定 IP 并且共享 IP
注:spec.loadBalancerIP 字段在 Kubernetes v1.24+ 已被标记为 deprecated,MetalLB 推荐使用注解方式指定 IP。 结论:不行。allow-shar
111
注:spec.loadBalancerIP 字段在 Kubernetes v1.24+ 已被标记为 deprecated,MetalLB 推荐使用注解方式指定 IP。 结论:不行。allow-shar
SNAT 前(源头治理)|(边界治理)后限速
从网络架构的第一性原理出发, “为什么不普遍在 SNAT 之前限速” 并不是因为“不能”,而是因为在传统的 Linux 网络栈设计中,限速的目标与内核钩子的位置存在天然的逻辑错位。 结论 不在 SNA
katran 扩展:DNAT + SNAT 实现
❯ LB 使用 EIP1 的情况下,如果再配置 一对一 External IP 和 internal IP DNAT 是冲突的。 最多也就是 LB 使用 EIP1 的情况下,最多只有 SNAT 还可以
cilium 开源版尚未支持 FIP
❯ 分析一个问题,cilium 作为 主 cni 模式,它的 bpf LB 替代 kubeproxy 的功能之外,是不是还支持 一对一 dnat 和 snat,也就是说为 pod 配置 Floatin
metalLB: node.kubernetes.io/exclude-from-external-load-balancers 是什么时候添加的
结论:不是 kubespray 添加的,是 Kubernetes 自身行为。 整个 kubespray 代码库中除了我们刚写的 e2e-metallb,没有任何地方设置过这个标签。 这是 kubead
k8s LB local 模式
❯ 我实际测试 Local 模式,只有 eip 本地能通,其他都通不了。为什么? ● 这是 kube-proxy IPVS 模式 + externalTrafficPolicy: Local 的已知行
metalLB eip 的维护方式
eip 维护于每一个节点的 kube-ipvs0 dummy 网卡上,但是只有一个节点上的 metalLb speaker 会相应该 apr
metalLB: 如何查看某个 eip 由哪个节点的 speaker 在宣告?
❯ 如何查看某个 eip 由哪个节点的 speaker 在宣告? ● 有几种方式,按易用性排列: 查看 Service 的 Events(最简单) 查看 Speaker 的 metrics 在任意节点
metalLB: AVOID BUGGY IPS 具体是指什么意思?
即跳过以 .0 和 .255 结尾的 IP 地址。 原因:某些老旧的网络设备或软件会把 .0 当作网络地址、.255 当作广播地址,即使在非 /24 子网中也会误判,导致流量异常。
metalLB 地址池:三种配置方式
metallb 支持的三种格式 ❯ metalLB 维护的 ip 的掩码都是/32 么? 另外谁维护的 metalLB 的 LB 的公网 ip 的配置?不是纯控制器模式么?如何维护的? 问题一:Met
kubeovn non-primary-cni-mode
分析 - --non-primary-cni-mode=true 使用场景和相关代码作用位置和基本原理。 我想把 kube-ovn 以这种模式部署于一个 calico 作为 主 cni 的环境 官方文
neutron metadata agent 链路分析
我的环境 openstack neutron network(vpc) 对应一个 本地的 netns Metadata API 完整访问链路 关键代码路径 核心设计思想 安全隔离: HAProxy 运
kube-ovn harpin snat 的优化
我之前被 snat 的逻辑限制住了。 关于 harpin-snat 就是 vpc 内的资源访问了 nat gw (pod)上的一个 eip:经过了 snat 和 dnat,然后又回到 vpc 内部。
docker buildx 使用 host network 模式 build
docker buildx create --use --name host-builder --driver-opt network=host
openstack ovn 和 kube-ovn 可以部署在同一个物理机上么?不能
这是个复杂的共存问题。先说结论: 改端口理论上可以,但两套 OVS 无法真正共存 原因:OVS 内核模块 (openvswitch) 是全局唯一的,一台机器只能运行一个 OVS 数据面实例。两个 ov
haproxy 对照 envoy
在 Cilium 的架构语境下,Envoy Proxy 与传统的 HAProxy 存在显著的差异。这种差异不仅体现在功能集上,更体现在设计哲学、云原生集成方式以及在 OSI 模型中所处位置的实现逻辑。
透明代理:cilium dns proxy
根据 Cilium 官方文档以及其核心架构设计,DNS Proxy 是实现基于域名(FQDN)网络策略的核心组件。其本质是通过 eBPF 透明拦截与**用户态代理(Envoy)**协作,动态地将域名解
kubeovn vpc 网关
网关: 集中式 分布式 subnet GatewayType 指的是公网网关类型: 内网网关都是(ovn 原生)分布式的。 vpc: 默认 vpc 自定义 vpc 结论:自定义 VPC 下的 subn
下一页