ceph nautilus相对于minic的主要改动
生活随笔
收集整理的這篇文章主要介紹了
ceph nautilus相对于minic的主要改动
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
改動信息 詳情可以查看ceph官網nautilus
Dashboard功能
增加的新功能
- 支持多用戶
- 使用SSO的用戶驗證模式
- 支持審計模式
- 新的登錄頁,可以展示更多的集群健康指標
- 使用swagger api的rest api文檔
增加的新的管理特性
- 對于OSD的管理(將osd標記為down,out,修改osd的config ,恢復配置文件)
- 可以對集群配置(ceph.conf)進行編輯
- 資源池的管理(創建/修改/刪除)
- ECP(開源云計算平臺)的管理
- rbd鏡像的配置
- 針對ceph指標的服務器Embedded Grafana可視化顯示
- crush map的查看器
- NFS Ganesha 管理
- iscsi鏈接管理
- rbd服務質量(qos)的配置
- mgr模塊配置
- Prometheus(用于為監控平臺服務的軟件) alert管理
關于ceph dashboard已經被獨立分割為單獨的包,叫做ceph-mgr-dashboard
RADOS
- 現在每個資源池的pg數量可以隨意減少,并且集群可以根據集群利用率或者管理員自己去調整集群pg數量
- 新的msgr2協議并支持線路加密
- osd和mon消耗的物理存儲設備現在可以由集群(SMART)跟蹤健康指標,集群可以通過預先訓練的預測模型或基于云的預測來對未來可能消耗的hdd或者ssd進行告警
- ceph可以通過
ceph osd numa-status命令很容易得監控到numa()節點,并且通過配置via來對numa階段osd配置進行更改NUMA(非一致內存訪問,Non-Uniform Memory Access) 技術將多個 CPU 劃分為不同的 NUMA 節點,在物理分布上,每個 NUMA 節點的處理器和內存塊的物理距離更小,訪問它自己的本地內存比非本地內存的速度更快。對于進程來說如果讓其運行在已經分配內存的 NUMA 節點上,那么其訪問效率可以最大化
使用如下子命令可以進行numa節點配置
osd_numa_node: 用于手動綁定 OSD 和 NUMA 節點
osd_numa_auto_affinity: 如果網絡和存儲在同一 NUMA 節點上會自動設置 affinity
osd_numa_prefer_iface: OSD 選擇 IP 時會盡量選同一 NUMA 節點上的
ceph osd numa-status 命令顯示所有 OSD 的 NUMA 信息 - 使用bluetore osd的時候空間利用率的計算會結合當前對象數據,omap數據,核心元數據在資源池中壓縮器和壓縮后的大小進行計算
- 在backfill和recovery的時候osd可以更有效地篩選出最重要的pg并優先其處理
- 在設備出現問題之后,像recovery這種長時間在臺運行的pg狀態現在可以由
ceph status命令查看進度 - 添加了實驗性的Coupled-Layer “Clay” erasure code插件,可以有效減少大多數recovery操作所需要的io帶寬
RGW
- 在S3生命周期可以在緩存pool和數據pool之間進行轉換
- Beast取代了civetweb成為默認的網絡前端,對整體性能有提高
- 一個新的支持發布/訂閱功能的基礎架構,該架構允許rgw將事件無償提供給無服務框架,像kafka或者數據管道knative
- 新增一系列身份驗證功能,使用OAuth2和OpenID :: connect的STS聯合以及OPA(開放策略代理)身份驗證委派原型
- 新的歸檔合并功能,可以在一個單獨的區域內保留所有的對象(其中包括歷史對象)
CephFs
- MDS的穩定性已經得到了巨大的改善,尤其是針對于ram的大型緩存以及長期運行的客戶端。緩存功能的回收以及客戶端功能的回調可以有效防止MDS的過載。
- 通過ROOK管理環境中的NFS-Ganesha集群可以導出cephfs,這種方式的ceph集群管理可以保證高可用性以及擴展性。該功能的演示如下introduction關于該功能更多的自動化特性將會在將來N版本的小版本中合入
- MDS的部分配置
mds_standby_for_*,mon_force_standby_active和mds_standby_replay配置已經過時了,并且由allow_standby_replay對cephfs的文件系統設置新的標記。此設置會讓文件系統由等待狀態變為等待回應狀態,并且該設置在任何可用序列中都會生效。 - MDS支持客戶端釋放緩存的同時釋放自己的存儲端緩存,這個過程可由命令MDS 套接字命令
cache drop來完成 - 能夠支持查看在MDS中正在進行的srcub進度,此外,可以終止或暫停正在運行的scrub。查看the scrub documentation來了解詳細信息。
- 支持使用
ceph volume接口來為via創建新的volume空間 - 支持使用一個cephfs腳本工具在不用掛載文件系統的前提下進行文件系統的配置
- 在命令
ceph status中關于Cephfs的相關輸出已經重新格式化,更加簡潔,清晰和有用 - 信息量較少的IO被重新改造。該修改主要體現在客戶端使用新的標記
CEPH_O_LAZY來打開文件或者通過via的配置選項client_force_lazyio - cephfs現在可以通過
ceph fs fail命令將文件系統設置為down,從而不接受數據??梢酝ㄟ^the administration page來擦看詳細信息
RBD
- rbd鏡像可以在最小的集群down時間內進行遷移,由資源池遷移到新的布局中
- 新的命令
rbd perf image iotop和rbd perf image iostat命令可以對所有的鏡像提供像iostat和iotop一樣的監控管理 ceph-mgr組件為普羅米修斯告警平臺為所有rbd鏡像導入io moniter- 在一個資源池內為不同的rbd鏡像分割出對應的用戶組空間
總結
以上是生活随笔為你收集整理的ceph nautilus相对于minic的主要改动的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 鼋头渚在无锡哪个位置
- 下一篇: 修改ceph crush map,并指定