1. 云栖社区>
  2. 全部标签>
  3. #ceph#
ceph

#ceph#

已有1人关注此标签

内容分类:
博客 | 问答 | 视频 | 资料 |

Ceph分布式存储系统-性能测试与优化

# 测试环境 部署方案:整个Ceph Cluster使用4台ECS,均在同一VPC中,结构如图: 以下是 Ceph 的测试环境,说明如下: - Ceph 采用 10.2.10 版本,安装于 CentOS 7.4 版本中;系统为初始安装,没有调优。

数据存储与数据库 分布式系统与计算 性能 阿里技术协会 集群 性能测试 分布式存储 ceph

ceph设计哲学与一些思考

ceph最终要的设计哲学是:一切都可以被扩展。无论是在上层组件设计,还是底层硬盘的设计上,ceph都要求每个组件都能做到水平横向扩展。当某些资源不够用时,都需要能添加硬件的方式来提升集群的可用资源、性能。

数据存储与数据库 linux 架构 算法 云存储技术 性能 levelDB 集群 对象存储 索引 虚拟目录 存储 ceph

Grafana+Prometheus实现Ceph监控和钉钉告警

Grafana+Prometheus实现Ceph监控和钉钉告警 获取软件包 最新的软件包获取地址 https://prometheus.io/download/ Prometheus 1、下载Prometheus $ wget https://github.

监控 Golang Go 配置 集群 浏览器 钉钉 ceph grafana prometheus webhook dingtalk AlertManager dingding ceph_exporter

Ceph RGW bucket 自动分片介绍和存在的问题

工作中存储集群使用了 Ceph 技术,因为刚刚上手 Ceph,不少概念和问题也都是头一次听说,比如这次的自动分片(auto resharding)。不得不说,Ceph 对象存储目前还是不够完善,Luminous 对于 bucket 中存储大量数据的支持还是不够理想,这造成了不小的使用不便。

性能 集群 对象存储 索引 file 存储 分片 ceph sharding rgw

Ceph Jewel 手动升级Luminous

# ceph mgr module enable dashboard # ceph mgr module ls { "enabled_modules": [ "balancer", "dashboard", "restful", .

yum 集群 node update ceph Luminous jewel

MDS多活配置

MDS多活配置 默认情况下,cephfs文件系统只配置一个活跃的mds进程。在大型系统中,为了扩展元数据性能,可以配置多个活跃的mds进程,此时他们会共同承担元数据负载。   要配置mds多活,只需要修改cephfs系统的max_mds参数即可。

配置 cluster MDS ceph cephfs mds多活

Ceph-disk手动添加OSD

Ceph-disk手动添加OSD   最近部署了L版的ceph,在进行扩容时,发现手动使用ceph-disk命令出现了问题,根据ceph官网说明,L版要用ceph-volume,然而目前生产环境并未使用这种方式来进行配置,但是L版的使用ceph-disk prepare时创建出来的osd和journal分区效果并不会像J版那样根据配置文件里面的配置来进行创建。

配置 uuid 磁盘 ceph osd ceph-disk

CentOS7.5 手动部署ceph

1  环境配置 1.1  设备列表   功能 主机名 IP mon node1 192.168.1.10 mon node2 192.168.

配置 cluster 集群 service ceph

Ceph-ansible 部署Ceph

Ceph-ansible 部署Ceph   1、安装notario yum install -y python-pip pip install notario 这个包用yum装的版本是不符合要求的,需要使用pip进行安装   2、下载ceph-ansible的代码到本地 git clone https://github.

ADD Create ceph Ansible MGR rgw ceph-ansible osd

CentOS7.5 手动部署Ceph RGW

目    录 1     设备列表... 1 2     Ceph RGW 部署... 1 2.1     使用civetweb配置... 2 2.2     使用nginx配置... 5   本文主要记录一下手动部署rgw的过程,环境是使用的之前手动部署的ceph环境,之前的环境部署可以参考以下链接https://yq.aliyun.com/articles/604372   Ceph RGW(即RADOS Gateway)是Ceph对象存储网关服务,是基于LIBRADOS接口封装实现的FastCGI服务,对外提供存储和管理对象数据的Restful API。

nginx LOG 配置 对象存储 service ceph CentOS7.5

Ceph Cache tier配置

简单了解Cache tier Cache tier 是Ceph服务端缓存的一种方案可以提升存储在后端存储层的I/O性能Cache tier 的创建需要一个由高速而昂贵的存储设备如SSD组成的存储池作为缓存层以及一个相对廉价设备组成的后端存储池作为经济存储层。

配置 Cache 存储 ceph cachetier

【转】Ceph对象存储(rgw)的IPv6环境配置

在搭建成功Ceph集群后,对于如何使用,其实我还是一脸MB的,心想竟然提供三种存储接口(对象,文件,快),口气也未免太大。在结合项目需求之后,我选择了对象存储接口。那么问题又来了,如何配置IPv6的对象存储?

云计算 配置 cluster 对象存储 IPv6 ceph rgw

使用 ELK 查看 Ceph 读写速度(二)

上一篇 使用 ELK 查看 Ceph 读写速度(一) 里,我们通过 ceph monit api 接口,抓取到了需要的数据。接下来,我们就要把这些数据图形化展示出来了。 首先我们使用还在实验阶段的 Visual Builder 建立一个曲线图。

cluster code visual ruby read ceph Ansible

使用 ELK 查看 Ceph 读写速度(一)

最近用 ELK 解析 Ceph 的性能状态,metricbeat 6.x 版本里放出了测试中的 ceph 模块,但是居然没有读写速度参数。所以我们就改用 logstash 的 http_poller 模块,定时去查 ceph api,解析出需要的数据并绘出图形(我们将在第二章里讲到如何建立 kibana 看板)。

模块 cluster 集群 logstash Elasticsearch index read input ceph Ansible

ceph驱动引起的内核Crash分析

大家好,今天跟大家分享一个Linux core dump分析的案例。

函数 exception Core page dump 函数调用 ceph 服务器不定期重启 CentOS云服务器 PANIC Lunix pagefault

ceph iscsi (SCST)

配置 node Driver session update ceph

ceph monitor功能的兼容性管理

软件需要兼容旧版本 --------------- ceph是在一个不断进化的软件,会增加功能也会取消旧的功能,如何在ceph monitor的不同版本间保持兼容或者防止不兼容而产生错误,是需要认真思考的问题。而我们阅读代码时往往忽略了兼容性管理的代码,而重点关心它的业务代码,所以这里特别写一篇文章谈谈兼容性的管理。 ceph monitor兼容主要包括两方面: * 通讯时检查对方

分布式 阿里技术协会 paxos 兼容性 安全性 ceph

2
GO