首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
容器
bobz965
创建于2023-02-03
订阅专栏
容器基础
等 5 人订阅
共399篇文章
创建于2023-02-03
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
strongSwan chart
安装 Strongswan Helm Chart helm 添加仓库 安装 Strongswan chart 注意 没有设置 cpu ram requst|limit 的负载是有安全漏洞的
strongSwan 入门
旧的 strongSwan 由 ipsec ipsec start 命令控制,然而现在 由 swanctl vici 控制 路由 在 linux 上, strongSwan 默认会将路由配置在 tab
Quagga/NHRP 是什么
最近在搞 strongSwan ipsec vpn相关的东西,遇到一个 Quagga/NHRP 关键词 nhrpd 是一个守护进程,该进程用于提供 下一跳路由协议。 NHCR 于 RFC2332中详细
yum 安装 containerd
1. 加载内核模块 2. 添加 Yum Repo 3. 安装 Containerd 4. 配置 cgroups Configure the systemd cgroup driver: 5. 启动 c
operator sdk 为什么目前还不能默认使用 klog
https://github.com/operator-framework/operator-sdk/issues/2887
自定义控制器成熟度等级划分
在 operator-framework 官网有一个页面详细阐述了自定义控制器的成熟度等级划分,可以看到大致分为5个等级: 实现业务的基本部署 实现业务的无缝升级 实现业务的整个生命周期管理:app的
为什么有 backstage
Backstage 是在 Spotify 的需要下诞生的。随着公司的发展,基础设施会变得越来越分散,工程师的生产力也越来越低。 (工程师在刚来的时候),耗费时间最多的不是构建和测试代码,团队花费更多的
kube-ovn vpc 子网中 运行openvpn server
目前我有一个docker镜像已经安装了openvpn,目前想基于该镜像运行一个openvpn 服务,并梳理出该过程中的关键配置 1. 首先基于helm 运行一个openvpn server https
kube-ovn libovsdb mockgen 以及 test 编写
gomock 是官方提供的 mock 框架,同时还提供了 mockgen 工具用来辅助生成测试代码。 关于libovsdb mockgen 生成 ovs interface相关代码 补充接口测试相关代
尝试使用ovs-dpdk 对ovn ovs fip snat dnat 场景的南北向带宽进行性能优化
准备两个网关节点 在网关节点部署dpdk 其他业务节点无需部署dpdk,东西向隧道流量足够 当前任务,熟悉dpdk的部署脚本和简单应用
kube-ovn slr vip 无法使用后端pod同一子网ip
``` bash (vv) root@wk:~/dev/tests/kube-ovn/ovn-vip-slr# k ko nbctl show ovn-default switch 887cf610-
gopls serve 耗费2G内存 ???
gopls serve 耗费2G内存??? https://github.com/golang/go/issues/47855 https://www.modb.pro/db/87143 2c4G的服
OVN-k8s 网络
overlay pod 到 overlay pod overlay pod 到 cluster ip overlay pod 到 node 以上功能基于 分布式网关端口、基于策略的路由策略和 1对1
关于如何控制 ovn fip 分布式或集中式
已经确认 只有ovn neutron 有dvr 相关的代码,且neutron 默认部署也是集中式的,可以通过一个参数 enable_distributed_floating_ip 配置为分布式的 DV
kube-ovn headless 使用前后端不同子网不通问题
``` bash [root@rongqi-1 ~]# k get po -A -o wide | grep -e cn0504-deploy01 -e cn0504-deploy02-7797d6d
ipvlan macvlan l2 子接口和主网卡无法直通
这两种驱动的l2模式,bridge模式,其子接口是无法通主网卡的ip的。 必须要交换机开启发卡hairpin模式,让流量走到交换机,交换机再发回来。
brew 切换为阿里源
``` bash # 查看 brew.git 当前源 $ cd "$(brew --repo)" && git remote -v origin https://github.com/Homebrew
ovn 原生 fip snat dnat 转发路径
跟踪下 ovn eip snat dnat 转发路径,顺便简单介绍下kube-ovn 这些资源的使用方式 环境: 首先看下我的环境的逻辑网络资源 1. ovn-eip的使用 ovn-eip 仅用于分配
ip pool 实现参考
metalLB 的 ippool 功能相当完善,且具备冲突检查,同时配置多网段,跨网段,ipv4 ipv6 子网。 后面实现ip pool的逻辑可以具体详细分析下
arp 检查冲突问题
环境: 基于provider network, vlan ,subnet 运营商网络创建vm, net1归属 underlay provider network。 然后会必现一个问题,目前怀疑是arp
下一页