智匯華雲|Ceph的正確玩法之指定SSD為主OSD,HDD為從OSD

尋夢新聞LINE@每日推播熱門推薦文章,趣聞不漏接❤️

加入LINE好友

隨著雲計算業務的快速發展,國內外雲計算企業的專利之爭也愈發激烈。在雲計算這樣的技術領域,專利儲備往往代表著企業最新的技術實力。華雲數據本期「智匯華雲」專欄將針對「Ceph的正確玩法之指定SSD為主OSD,HDD為從OSD」技術,與大家共同分享雲計算領域的最新技術與解決方案。

該文章為本系列的第五篇文章,我們將在之後繼續推出本系列的其他文章,敬請關注!

智匯華雲|Ceph的正確玩法之指定SSD為主OSD,HDD為從OSD

場景一:

當前集群環境中混用了 SSD 與 SATA 磁盤。

場景二:

當前具有一批大小一樣的 SATA 磁盤,其中 OSD.0 已經使用了很多年,其他OSD磁盤都是新採購,性能會比 OSD.0 更加好。

實驗室中有兩批SAS磁盤,一批是7200轉磁盤,一批是10000轉磁盤。

期望結果:

智匯華雲|Ceph的正確玩法之指定SSD為主OSD,HDD為從OSD

集群中存在多種性能不一樣的磁盤與主機,為了保證CEPH 集群吞吐與性能可以得到更好的優化。保證了磁盤的數據容量一致的情況下優先使用性能更好的磁盤作出 IO 處理。

智匯華雲|Ceph的正確玩法之指定SSD為主OSD,HDD為從OSD

總結

Ceph 會認為每個磁盤能力一樣,會平均每個磁盤的 IO 能力(primary affinity)與存儲空間能力(weight) primary affinity。參數可以在不改變磁盤存儲能力的情況下, 降低在 Ceph 集群使用過程中對該OSD的認購 primary pg 能力。

從上圖看出來, primary OSD 在每次 peering 時, 都會比 secondary OSD 具有更多的 IO。

/etc/ceph/ceph.conf

[mon]

mon_osd_allow_primary_affinity = true

重啟ceph-mon

ceph osd primary-affinity osd.4 0.5

驗證: 修改權限之前:

ceph pg dump | grep active+clean | grep ‘\[4’ | wc -l

48

修改權重之後

ceph pg dump | grep active+clean | grep ‘\[4’ | wc -l

8

About 尋夢園
尋夢園是台灣最大的聊天室及交友社群網站。 致力於發展能夠讓會員們彼此互動、盡情分享自我的平台。 擁有數百間不同的聊天室 ,讓您隨時隨地都能找到志同道合的好友!