kube-proxy iptables 和 ipvs 模式的工作原理及示例
客户有个好几年前的k8s老环境,部署新的应用就出问题了,从部署的服务pod里访问k8s svc地址端口 172.16.0.1:443 不通,宿主机上访问都是通的,kube-proxy mode是 iptables 模式,endpoints检察都正常,svc 后端apiserver 6443 也都能正常访问,重建kube-proxy、kubernetes svc 后 pod 访问 svc 依然不通,...
客户有个好几年前的k8s老环境,部署新的应用就出问题了,从部署的服务pod里访问k8s svc地址端口 172.16.0.1:443 不通,宿主机上访问都是通的,kube-proxy mode是 iptables 模式,endpoints检察都正常,svc 后端apiserver 6443 也都能正常访问,重建kube-proxy、kubernetes svc 后 pod 访问 svc 依然不通,...
最近在给客户部署一套 k8s 集群时,主节点master1安装完后,master2 join时提示 etcd 证书报错,铲掉重装后问题还是稳定复现,客户提供的机器操作系统为Ubuntu 22.04、Kernel:Linux 5.15.x,报错信息节选如下:
Continue reading >>error execution phase control-plane-prepare/certs: error creating PKI as...
踩了个研发建表没有设置主键的坑,mark一下。数据库实例是 tdsql mysql 5.7,服务建表的时候直接报错:ERROR 1173 (42000):This table type requires a primary key,最后乖乖加上主键解决。
tdsql中设置建表必须需要显式主键的参数为 reject_table_no_pk
至于为什么建表必须创建主键应该是主要有两个原因,一个是...
Continue reading >>最近遇到一个客户k8s测试集群经常崩溃,最终定位是etcd磁盘IO性能不足,最终替换成ssd盘解决,记录一下排查过程。
集群是跑在客户的共享虚机上,磁盘是机械硬盘,问题现象如下:
kube-system下涉及高可用的组件 kube-apiserver、kube-controller-manager、kube-scheduler 频繁重启,某些选主模式的组件、服务反复重启,频繁CrashLoopBack...
gdb:调试神器,线上原则上禁用,太重,多用于开发调试或测试环境,危险系数:高
strace:跟踪程序当前的系统调用,线上慎用,可能造成进程hang死,崩掉,或搞成僵尸,危险系数:中
lstrace:跟踪程序当前的库调用,线上慎用,危险系数:中
perf:不影响稳定性的情况下可以使用,危险系数:低
valgrind/AddressSanitizer:内存泄露检测,线上慎用,会降低程序性能,asan &nb...
Continue reading >>