本站文章除注明转载/出处外,均为本站原创或翻译,转载前请务必署名原文链接~~~

Ceph 集群维护

通过套接字管理服务、重启或停止集群、时钟漂移、添加新节点、删除节点、配置文件、存储池、PG 与 PGP、删除存储池、PG 的状态

Ceph RBD、RGW 与 CephFS 的基础应用

块设备RBDRBD(RADOSBlockDevices)为块存储的一种,RBD通过librbd库与OSD进行交互,RBD为KVM等虚拟化技术和云服务(如OpenStack和CloudStack)提供高性能和无限可扩展性的存储后端。这些系统依赖于libvirt和QEMU应用程序与RBD进行集成。客户端

从零部署一个高可用 Ceph 集群

使用 Ubuntu 18.04 部署一个高可用 Ceph 集群。

Ceph 基础概念与介绍

Ceph是一个开源的分布式存储系统,同时支持对象存储、块设备、文件系统。Ceph是一个对象(object)式存储系统,它把每一个待管理的数据流(文件等数据)切分为一到多个固定大小(默认4MB)的对象数据,并以其为原子单元(原子是构成元素的最小单元)完成数据的读写。对象数据的底层存储服务是由多个存储主

Ubuntu 18.04 修改网卡名为 ethx

查看当前网卡名是ens33:$ipa1:lo:<LOOPBACK,UP,LOWER_UP>mtu65536qdiscnoqueuestateUNKNOWNgroupdefaultqlen1000link/loopback00:00:00:00:00:00brd00:00:00:00:00

kubectl 复用上次使用的命名空间

如果你也是kubectl重度使用患者,肯定也经常有做类似如下操作:$kubectlgetpod-ninfra$kubectlgetsvc-ninfra$kubectlgetdeployment-ninfra在上述操作中,我查看了同一个命名空间下的Pod、Service、Deployment资源列表,

kube-proxy 的三种代理模型

本质上来讲,一个Service对象对应于工作节点内核之中的一组iptables或ipvs规则,这些规则能够将到达Service对象的ClusterIP的流量调度转发至相应Endpoint对象指向的IP地址和端口之上。内核中的iptables或ipvs规则的作用域仅为其所在工作节点的一个主机,因而生效

开箱即用的 Kubernetes 持久化存储!

Longhorn是由Rancher实验室创建的一款云原生的、轻量级、可靠且易用的开源分布式块存储系统,后来由CNCF孵化。它借助CSI存储卷插件以外置的存储解决方案形式运行。Longhorm遵循微服务的原则,利用容器将小型独立组件构建为分布式块存储,并使用编排工具来协调这些组件,从而形成弹性分布式系

使用 Python 修改 Apollo 密码

公司的配置中心使用的是Apollo,并且为开发人员开了专门的账号,所以开发人员都知晓Apollo密码。由于频繁有开发人员离职,为保证密码的安全性,所以准备定期更新Apollo密码。但因公司有多个Apollo实例对应多个环境,频繁手动更新肯定不合适,所以就要研究一下如何通过程序修改密码。方案有如下

Pod 服务质量类别

Kubernetes允许节点的Pod对象过载使用资源,这意味着节点无法同时满足绑定其上的所有Pod对象以资源满载的方式运行。因而在内存资源紧缺的情况下,应该以何种次序终止哪些Pod对象就变成了问题。事实上,Kubernetes无法自行对此做出决策,它需要借助于Pod对象的服务质量和优先级等完成判定。

删除处于 Terminating 状态的命名空间

有时候,名称空间的正常删除操作可能会莫名卡在Terminating状态。常用的解决方案是获取并保存目标Namespace对象的JSON格式的配置清单,将spec.finalizers字段的值置空,而后手动终止相应的名称空间对象即可。以名为demo的Namespace对象为例,首先获取其当前配置:$k

Kubectl 插件使用详解

kubectl插件简介kubectl插件是指能够由kubectl调用的外部独立应用程序,这类应用程序都以kubectl-<plugin_name>格式命名,表现为plugin_name是kubectl的子命令。例如,应用程序/usr/bin/kubectl-whoami就是whoami插

公众号:zze_coding

Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×