ceph-生产环境-配置文件 发表于 2018-04-10 | in ceph | | 访客 部署一套可供生产环境使用的ceph集群,考虑的问题比较多,特别是配置文件的配置量参数。这里记录调试后的配置参数: mon使用了3个节点123456789101112131415161718192021222324252627282930[global]fsid = 1235bE62-8ae1-difg-893a-892a675757c6mon_initial_members = ceph-node01,ceph-node02,ceph-node03mon_host = 192.168.170.11,192.168.170.12,192.168.170.13auth_cluster_required = cephxauth_service_required = cephxauth_client_required = cephxpublic_network = 192.168.170.0/22 #管理网络cluster_network = 192.168.180.0/22 #集群网络mon_pg_warn_max_per_osd = 1000 #每个osd上pg数量警告值,这个可以根据具体规划来设定osd_pool_default_size = 3 #默认副本数为3osd_pool_default_min_size = 2 #最小副本数为2,也就是只能坏一个mon_osd_full_ratio = .85 #存储使用率达到85%将不再提供数据存储mon_osd_nearfull_ratio = .70 #存储使用率达到70%集群将会warn状态osd_deep_scrub_randomize_ratio = 0.01 #随机深度清洗概率,值越大,随机深度清洗概率越高,太高会影响业务[osd]osd_max_write_size = 1024 #默认90M,一次写操作最小值osd_recovery_op_priority = 1 #默认为10, 1-63 osd修复操作的优先级, 。值越小,优先级越低osd_recovery_max_active = 1 #限定每个osd上同时有多少个pg可以同时进行recoverosd_recovery_max_single_start = 1 # 和osd_recovery_max_active一起使用,要理解其含义。假设我们配置osd_recovery_max_single_start为1,osd_recovery_max_active为3,那么,这意味着OSD在某个时刻会为一个PG启动一个恢复操作,而且最多可以有三个恢复操作同时处于活动状态。 osd_recovery_max_chunk = 1048576 #默认为8388608, 设置恢复数据块的大小,以防网络阻塞osd_recovery_threads = 1 #恢复数据所需的线程数osd_max_backfills = 1 #集群故障后,最大backfill数为1,太大会影响业务osd_scrub_begin_hour = 22 #清洗开始时间为晚上22点osd_scrub_end_hour = 7 #清洗结束时间为早上7点osd_recovery_sleep = 0 #默认为0,recovery的时间间隔,会影响recovery时常,如果recovery导致业务不正常,可以调大该值,增加时间间隔osd_crush_update_on_start = false # 新加的osd会up/in,但并不会更新crushmap,prepare+active期间不会导致数据迁移