日韩精品国产精品|97国产成人精品视频|国产精品手机在线亚洲|天天爱天天做天天添天天欢|国产在线91精品观看首页|亚洲AV永久无码精品成人|久久综合给合久久狠狠狠97|无码国产精品一区二区免费久久

Ceph:一個新時代的開始

文章來源:本站 發(fā)布時間:2016-09-01 點(diǎn)擊數(shù):

小編說:開放性、可擴(kuò)展性和可靠性,使Ceph 成為了存儲行業(yè)中的翹楚。這是云計(jì)算和軟件定義基礎(chǔ)設(shè)施的時代,我們需要一個完全軟件定義的存儲,更重要的是它要為云做好了準(zhǔn)備。無論你運(yùn)行的是公有云、私有云還是混合云,Ceph 都非常合適。

目前Ceph 是一種已經(jīng)震撼了整個存儲行業(yè)的最熱門的軟件定義存儲技術(shù)。它是一個開源項(xiàng)目,為塊存儲、文件存儲和對象存儲提供了統(tǒng)一的軟件定義解決方案。Ceph 旨在提供一個擴(kuò)展性強(qiáng)大、性能優(yōu)越且無單點(diǎn)故障的分布式存儲系統(tǒng)。從一開始,Ceph 就被設(shè)計(jì)為能在通用商業(yè)硬件上運(yùn)行,并且支持高度擴(kuò)展(逼近甚至超過艾字節(jié)的數(shù)量)。

如今的軟件系統(tǒng)非常智能,已經(jīng)可以最大限度地利用商業(yè)硬件來運(yùn)行規(guī)模龐大的基礎(chǔ)設(shè)施。Ceph 就是其中之一;它明智地采用商業(yè)硬件來提供企業(yè)級穩(wěn)固可靠的存儲系統(tǒng)。

Ceph 已被不斷完善,并融入以下建設(shè)性理念:

每個組件能夠線性擴(kuò)展

無任何單故障點(diǎn)

解決方案必須是基于軟件的、開源的、適應(yīng)性強(qiáng)的

運(yùn)行于現(xiàn)有商業(yè)硬件之上

每個組件必須盡可能擁有自我管理和自我修復(fù)能力

對象是Ceph 的基礎(chǔ),也是Ceph 的構(gòu)建部件,并且Ceph 的對象存儲很好地滿足了當(dāng)下及將來非結(jié)構(gòu)化數(shù)據(jù)存儲需求。相比傳統(tǒng)存儲解決方案,對象儲存有其獨(dú)特優(yōu)勢;我們可以使用對象存儲實(shí)現(xiàn)平臺和硬件獨(dú)立。Ceph 謹(jǐn)慎地使用對象,通過在集群內(nèi)復(fù)制對象來實(shí)現(xiàn)可用性;在Ceph 中,對象不依賴于物理路徑,這使其獨(dú)立于物理位置。這種靈活性使Ceph 能實(shí)現(xiàn)從PB(petabyte)級到EB(exabyte)級的線性擴(kuò)展。

Ceph 性能強(qiáng)大,具有超強(qiáng)擴(kuò)展性及靈活性。它可以幫助用戶擺脫昂貴的專有存儲孤島。Ceph 是真正的在商業(yè)硬件上運(yùn)行的企業(yè)級存儲解決方案,是一個低成本但功能豐富的存儲系統(tǒng)。Ceph 通用存儲系統(tǒng)同時提供塊存儲、文件存儲和對象存儲,使客戶可以按需使用。

數(shù)據(jù)存儲需求在過去的幾年中爆發(fā)性增長。研究表明,大型組織中的數(shù)據(jù)每年以40到60的速度增長,許多公司的數(shù)據(jù)規(guī)模每年會增加一倍。IDC 分析師估計(jì),2000 年全球共有數(shù)字?jǐn)?shù)據(jù)54.4 艾字節(jié)(Exabyte);到2007 年,達(dá)到295 艾字節(jié);到2020 年,有望達(dá)到44 澤字節(jié)(Zettabyte)。傳統(tǒng)存儲系統(tǒng)無法應(yīng)對這種數(shù)據(jù)增速,我們需要像Ceph 這樣的分布式可擴(kuò)展系統(tǒng),而且最重要的是它經(jīng)濟(jì)實(shí)惠。Ceph 專門用來應(yīng)對當(dāng)今以及將來的數(shù)據(jù)存儲需求。

SDS(軟件定義存儲)

SDS 可以降低你存儲基礎(chǔ)設(shè)施的TCO (Total Cost of Ownership,總體擁有成本)。除降低存儲成本外,SDS 還具有靈活性、可擴(kuò)展性和可靠性。Ceph 是一個真正的SDS 方案,它運(yùn)行在無廠商鎖定的商業(yè)硬件之上,并使每GB 數(shù)據(jù)存儲成本降至很低。不像傳統(tǒng)存儲

系統(tǒng)硬件必須和軟件綁定在一起,在SDS 中,你可以自由地從任何制造商那里選擇商業(yè)硬

件,可隨意按自己的需要設(shè)計(jì)異構(gòu)的硬件解決方案。Ceph 基于這些硬件,通過軟件定義存儲的方法來全方位地滿足你的各種需求,并在軟件層中提供了所有企業(yè)級存儲特性。

云存儲

云基礎(chǔ)設(shè)施的難點(diǎn)之一是存儲。每一個云基礎(chǔ)設(shè)施都需要可靠的、低成本、可擴(kuò)展、與云其他模塊相比更緊密集成的存儲系統(tǒng)。有很多號稱云就緒的傳統(tǒng)存儲解決方案已經(jīng)在市場上出現(xiàn)了,但如今我們的存儲不僅要能夠與云系統(tǒng)結(jié)合,還有很多其他需求。我們需要能和云系統(tǒng)完全集成、可提供更低TCO 且具有完全可靠性和可擴(kuò)展性的存儲系統(tǒng)。云系統(tǒng)是軟件定義的,建立在商業(yè)硬件之上;類似地,云所需要的存儲系統(tǒng)也必須采用同樣方式,也就是基于商業(yè)硬件以及軟件定義,而Ceph 是云存儲的最佳選擇。

Ceph 已迅速發(fā)展,并逐步成為真正的云存儲后端。它已入駐各個大型開源云平臺,比如OpenStack、CloudStack 和OpenNebula。此外,Ceph 已成功與云計(jì)算廠商如Red Hat、Canonical、Mirantis、SUSE 等建立互利伙伴關(guān)系。這些公司正幫助Ceph 經(jīng)歷重要時刻,包括使其作為他們Openstack 云平臺的指定存儲后端,這些都正逐漸使Ceph 成為云存儲技術(shù)領(lǐng)域中炙手可熱的技術(shù)。

OpenStack 開源項(xiàng)目是公有云和私有云領(lǐng)域的最佳范例之一。它已經(jīng)被證明是一個純粹的開源云解決方案。 OpenStack 包含很多項(xiàng)目,如Cinder、Glance 和Swift,可為OpenStack提供存儲功能。這些OpenStack 組件需要具備像Ceph 這樣可靠、可擴(kuò)展、統(tǒng)一集成的存儲后端。出于這個原因,OpenStack 和Ceph 社區(qū)已經(jīng)在一起合作很多年,開發(fā)了完全兼容OpenStack 的Ceph 存儲后端。

基于Ceph 的云基礎(chǔ)設(shè)施提供了服務(wù)供應(yīng)商急需的靈活性,來建立存儲即服務(wù)和基礎(chǔ)設(shè)施即服務(wù)的解決方案。這是他們無法從其他傳統(tǒng)企業(yè)存儲解決方案中獲得的,因?yàn)檫@些方案并不旨在滿足云計(jì)算需求。通過使用Ceph,服務(wù)提供商可以提供低成本的可靠的云存儲給他們的客戶。

統(tǒng)一的下一代存儲架構(gòu)

近來,統(tǒng)一存儲的定義已經(jīng)發(fā)生變化。幾年前,所謂“統(tǒng)一存儲”指的是由一個單一的系統(tǒng)來提供文件存儲和塊存儲,F(xiàn)在,因?yàn)樽罱募夹g(shù)進(jìn)步,例如云計(jì)算、大數(shù)據(jù)、物聯(lián)網(wǎng),新類型的存儲一直在演變,對象存儲也隨之出現(xiàn)。因此,所有不支持對象存儲的存儲系統(tǒng)都不是真正的統(tǒng)一存儲解決方案。真正的統(tǒng)一存儲是像Ceph 這樣的——能在一個系統(tǒng)中統(tǒng)一地提供塊存儲、文件存儲和對象存儲。

在Ceph 中,“統(tǒng)一存儲”這個概念比現(xiàn)有存儲廠商所宣稱的更有意義。從設(shè)計(jì)上,Ceph已經(jīng)完全為未來做好了準(zhǔn)備,被構(gòu)造為能夠處理海量數(shù)據(jù)。我們強(qiáng)調(diào)Ceph“為未來做好了準(zhǔn)備”,是特指其對象存儲功能,它比塊存儲和文件存儲更適合當(dāng)今的非結(jié)構(gòu)化數(shù)據(jù)。Ceph不僅支持塊存儲和文件存儲,更重要的是可以基于對象來實(shí)現(xiàn)塊存儲和文件存儲。對象通過消除元數(shù)據(jù)操作來提供更好的性能和極大的擴(kuò)展。Ceph 使用算法來動態(tài)地計(jì)算對象應(yīng)當(dāng)被儲存和獲取的位置。

SAN 和NAS 系統(tǒng)的傳統(tǒng)存儲架構(gòu)是非常局限的;旧,它們具有傳統(tǒng)控制節(jié)點(diǎn)的高可用性,也就是說,一個存儲控制節(jié)點(diǎn)出現(xiàn)故障后,將從第二個控制節(jié)點(diǎn)提供數(shù)據(jù)。但是,如果第二個控制節(jié)點(diǎn)同時出現(xiàn)故障呢?甚至更糟糕的情況,如果整個磁盤柜發(fā)生故障呢?在大多數(shù)情況下,最終會丟失數(shù)據(jù)。這種存儲架構(gòu)無法承受多次故障,因此絕對不是我們想要的。傳統(tǒng)存儲系統(tǒng)的另一個缺點(diǎn)是其數(shù)據(jù)存儲和訪問機(jī)制。它擁有一個中心元數(shù)據(jù)查找表,每次在客戶端發(fā)送一個讀寫操作請求后,存儲系統(tǒng)首先在巨大的元數(shù)據(jù)表中進(jìn)行查找,在確定實(shí)際數(shù)據(jù)的位置后再執(zhí)行客戶端操作。對于較小的存儲系統(tǒng),你可能不會注意到性能問題,但對于一個大型存儲集群,你一定會被這種方法的性能限制約束,它甚至?xí)拗颇愕目蓴U(kuò)展性。

Ceph 不拘泥于這樣的傳統(tǒng)存儲架構(gòu);事實(shí)上,它的架構(gòu)已經(jīng)完全被革新了。它不再存儲和處理元數(shù)據(jù),而是引入了一個新的方法:即CRUSH(Controlled Replication UnderScalable Hashing)算法。CRUSH 表示數(shù)據(jù)存儲的分布式選擇算法。CRUSH 算法取代了在元數(shù)據(jù)表中為每個客戶端請求進(jìn)行查找,它計(jì)算系統(tǒng)中數(shù)據(jù)應(yīng)該被寫入或讀出的位置。通過計(jì)算元數(shù)據(jù),就不再需要管理元數(shù)據(jù)表了,F(xiàn)代計(jì)算機(jī)速度驚人,可以非常迅速地執(zhí)行CRUSH 查找。此外,其計(jì)算量通常不大,還可以分布到集群的多個節(jié)點(diǎn)上。除此之外,CRUSH 還獨(dú)具基礎(chǔ)架構(gòu)感知功能。它能理解基礎(chǔ)設(shè)施各個部件之間的關(guān)系。CRUSH保存數(shù)據(jù)的多個副本,這樣即使一個故障域的幾個組件都出現(xiàn)故障,數(shù)據(jù)依然可用。正是得益于CRUSH 算法,Ceph 可以處理多個組件故障,以保證可靠性和持久性。

CRUSH 算法使Ceph 實(shí)現(xiàn)了自我管理和自我修復(fù)。在一個故障域內(nèi)某組件發(fā)生故障時,CRUSH 能感知到是哪個組件出了故障,并判斷該故障對集群的影響。在沒有任何管理干預(yù)情況下,CRUSH 自我管理并通過恢復(fù)因故障丟失的數(shù)據(jù)而自愈。CRUSH 從集群所維護(hù)的副本中重新產(chǎn)生數(shù)據(jù)。如果你已經(jīng)正確配置了Ceph CRUSH map,它就會確保你的數(shù)據(jù)至少有一個副本始終可以訪問。通過使用CRUSH,我們能設(shè)計(jì)出一個無單一故障點(diǎn)的高度可靠的存儲基礎(chǔ)設(shè)施。它使Ceph 成了一個面向未來的高可擴(kuò)展和高可靠的存儲系統(tǒng)。

Ceph 架構(gòu)概述

Ceph 內(nèi)部架構(gòu)非常直接,下圖將幫助我們理解:

Ceph 架構(gòu)概述

Ceph 內(nèi)部架構(gòu)非常直接,下圖將幫助我們理解:


圖片描述

 

Ceph monitor(監(jiān)視器,簡稱MON):Ceph monitor 通過保存一份集群狀態(tài)映射來維護(hù)整個集群的健康狀態(tài)。它分別為每個組件維護(hù)映射信息,包括OSD map、MONmap、PG map(會在后面的章節(jié)中討論)和CRUSH map。所有群集節(jié)點(diǎn)都向MON節(jié)點(diǎn)匯報(bào)狀態(tài)信息,并分享它們狀態(tài)中的任何變化。Ceph monitor 不存儲數(shù)據(jù);這是OSD 的任務(wù)。

Ceph 對象存儲設(shè)備(OSD):只要應(yīng)用程序向Ceph 集群發(fā)出寫操作,數(shù)據(jù)就會被以對象形式存儲在OSD 中。這是Ceph 集群中唯一能存儲用戶數(shù)據(jù)的組件,同時用戶也可以發(fā)送讀命令來讀取數(shù)據(jù)。通常,一個OSD 守護(hù)進(jìn)程會被捆綁到集群中的一塊物理磁盤上。所以,在通常情況下,Ceph 集群中的物理磁盤的總數(shù),與在磁盤上運(yùn)行的存儲用戶數(shù)據(jù)的OSD 守護(hù)進(jìn)程的數(shù)量是相同的。

Ceph 元數(shù)據(jù)服務(wù)器(MDS):MDS 只為CephFS 文件系統(tǒng)跟蹤文件的層次結(jié)構(gòu)和存儲元數(shù)據(jù)。Ceph 塊設(shè)備和RADOS 并不需要元數(shù)據(jù),因此也不需要Ceph MDS守護(hù)進(jìn)程。MDS 不直接提供數(shù)據(jù)給客戶端,從而消除了系統(tǒng)中的故障單點(diǎn)。

RADOS(Reliable Autonomic Distributed Object Store):RADOS 是Ceph 存儲集群的基礎(chǔ)。在Ceph 中,所有數(shù)據(jù)都以對象形式存儲,并且無論是哪種數(shù)據(jù)類型,RADOS 對象存儲都將負(fù)責(zé)保存這些對象。RADOS 層可以確保數(shù)據(jù)始終保持一致。

要做到這一點(diǎn),須執(zhí)行數(shù)據(jù)復(fù)制、故障檢測和恢復(fù),以及數(shù)據(jù)遷移和在所有集群節(jié)點(diǎn)實(shí)現(xiàn)再平衡。

librados:librados 庫為PHP、Ruby、Java、Python、C 和C++這些編程語言提供了方便地訪問RADOS 接口的方式。同時它還為諸如RBD、RGW 和CephFS 這些組件提供了原生的接口。Librados 還支持直接訪問RADOS 來節(jié)省HTTP 開銷。

RADOS 塊設(shè)備(RBD):眾所周知,RBD 是Ceph 塊設(shè)備,提供持久塊存儲,它是自動精簡配置并可調(diào)整大小的,而且將數(shù)據(jù)分散存儲在多個OSD 上。RBD 服務(wù)已經(jīng)被封裝成了基于librados 的一個原生接口。

RADOS 網(wǎng)關(guān)接口(RGW):RGW 提供對象存儲服務(wù)。它使用librgw(Rados Gateway Library)和librados,允許應(yīng)用程序與Ceph 對象存儲建立連接。RGW 提供了與Amazon S3 和OpenStack Swift 兼容的RESTful API。

CephFS:Ceph 文件系統(tǒng)提供了一個使用Ceph 存儲集群存儲用戶數(shù)據(jù)的與POSIX兼容的文件系統(tǒng)。和RBD、RGW 一樣,CephFS 服務(wù)也基于librados 封裝了原生接口。


會員展示

  • 撫順石化北天悟松化工有限公司
  • 沈陽諾思真空技術(shù)有限公司
  • 撫順市盛達(dá)工業(yè)產(chǎn)品綜合利用有限公司
  • 遼寧卓侖科技有限公司
  • 撫順歐力石化有限公司
  • 撫順天成環(huán)?萍加邢薰
  • 撫順振興化工工程設(shè)計(jì)有限公司
  • 遼寧天舜環(huán)保工程有限公司
  • 撫順華興石油化工有限公司
  • 遼寧拜斯特復(fù)合材料有限公司
  • 遼寧云帆機(jī)械制造有限公司
  • 遼寧壓克力塑膠有限公司
  • 純銀桃花
  • 撫順亞飛安全裝備有限公司
  • 撫順市秀霖化工有限公司
  • 撫順通博財(cái)稅有限公司
  • 撫順合祥新能源科技有限公司
  • 遼寧兆利高新路面材料有限公司
  • 撫順撫天科技服務(wù)有限公司
  • 撫順宏瑞科技服務(wù)有限公司
  • 服務(wù)熱線:024-58170305
  • 技術(shù)支持:024-58170305
  • fshr2724779@163.com
  • Copyright © 2015 撫順宏瑞科技服務(wù)有限公司 All Rights Reserved 地址:遼寧省撫順市新?lián)釁^(qū)民主一街18號 ICP備案號:遼ICP備13015950號
  • 咨詢電話:024-58170305、13304133970 網(wǎng)址:m.geweida.com 在線訪問:
  • 遼公網(wǎng)安備21040202000166號