超大型計算機

超大型計算機

超大型計算機是用來進行複雜計算的,如大型油田勘探數據處理、天文模擬數據計算、核武器爆炸模擬等,是用儘量少的硬體資源,提高計算機的運算速度。目前的超級大型計算機普遍還是通過把大量的中央處理器(多達上萬個)並聯起來,在軟體系統的統一指揮下,提高運行速度。

基本介紹

  • 中文名:超大型計算機
  • 用於:複雜計算
  • 類別:計算機
  • 套用:大型油田勘探數據處理等
中國曙光,虛擬化實施,性能突破,

中國曙光

曙光5000A 曙光5000A高性能計算機是國家863計畫高性能計算機及其核心軟體重大專項支持的研究項目,是面向格線的高性能計算機,可以為格線提供計算服務,同時 也是面向信息服務的超級伺服器,可以提供多目標的系統服務。曙光5000A採用格線技術,體系結構以構件性(Component)、標準性 (Standard)、協作性(Coordinate)為基準,採用服務化(Service)、安全化(Security)、專業化 (Specialization)、智慧型化(Intellengce)的3SI技術路線。
該系統的計算節點機採用四路四核AMD Barcelona (主頻2.0GHz)處理器,每個節點64GB記憶體,胖節點機採用八路四核AMD Barcelona(主頻 2.0GHz)處理器,每個節點128GB記憶體,整個系統由1650個節點組成龐大機群,共有6000顆CPU與100T海量記憶體,其理論浮點峰值為每秒 230萬億次,採用20GB,延遲小於1.3us的Infiniband高速網路進行互聯,採用了WCCS + SuSe Linux 雙操作的系統。

虛擬化實施

虛擬化提供的靈活性、效率和減少的擁有成本使它對大型企業和小型企業都非常有吸引力。越來越多的IT機構正在考慮在所有的平台上實施虛擬化。
隨著這種趨勢越來越深入到數據中心,機構正開始利用虛擬化技術消除控制一個應用程式應該在哪一個平台上運行的許多局限性。不同類型的應用程式有不同的工作量的“個性”。這些個性對於一個應用程式如何在一個指定的虛擬模式中很好地運行有很大的影響。
一些工作量具有某些特點,非常適合整合到大型計算機中。本文將討論這些特點以及分析現有的IT環境惡整個流程,以便確定把工作量整合到大型計算機平台的最佳化的方法。
分析轉移到大型計算機的工作量
可以使用分區、監視程式、容器和其它方法使許多工作量在一個統一的平台上共存。考慮到平台類別的相對優點和弱點,當在這些平台之間實施整合的時候,需要做大量的工作。這些工作包括理解哪些應用程式將在大型計算機上運行,哪些應用程式通過轉移能夠獲得最大的好處,在過渡之後這些應用程式看起來將是什麼樣子。實際上,更重要的是理解這種過渡的細微差別,特別是當整個目標是把風險減小到最低限度的同時最佳化這種好處的時候。
通過建模控制它們的局限性,可以描繪一個達到最終目標的路線圖,同時在這個過程中將不偏離方向。這些局限性可以分為以下三類:
1、技術局限性:什麼東西能夠集成在一起。
2、業務和流程的局限性:什麼東西應該集成在一起。
3、工作量分析:什麼東西能夠相互適合。
技術局限性分析
技術局限性分析一般處理硬體與軟體組件之間的兼容性和密切關係的問題。什麼能夠在什麼上運行,什麼與什麼對話,等等。對於大型計算機來說,這個步驟關係到哪些應用程式能夠在大型計算機上運行,什麼能夠從這個轉移中得到最大的好處,應該如何組織這些應用程式才能夠最佳化地利用這些好處。
硬體和軟體兼容性
除了理解哪些應用程式能夠相互對話和哪些應用程式相互之間有密切的關係之外,理解應用程式及其套用如何驅動中間件軟體的行為也是很重要的。同樣,任何跨平台的過渡都必須考慮到源系統使用的特殊硬體是否很難一起轉移,如令牌環、傳真和USB設備。如果這些硬體中的任何東西影響這個應用程式在大型計算機環境中的設定,在整合的候選名單中就應該取消這個硬體。
網路連線能力和延遲
一個應用程式的空間拓撲位置中的任何改變都可能引起通信延遲的改變,從而影響到應用程式的性能。如果這些變化在錯誤的地方引起延遲,如在套用伺服器與資料庫之間引起延時,性能就會受到不利的影響。因此,開始採用其資料庫已經在大型計算機中的目標應用程式是一個很好的戰略。
應用程式連線性能
不要僅尋找已經與大型計算機對話的應用程式,機構應該尋找相互對話的應用程式。通過整合到同一個系統,這些應用程式通過促進不會對網路產生任何影響的“對話”來實現巨大的好處。不過,需要提醒的是,這種策略有時候能夠繞過重要的網路安全控制措施,因此要認真處理崩潰的套用層和通信路徑的問題。
業務和流程局限性分析
由於管理規定、內部政策或者其它現實世界的整合,這些局限性幫助機構從技術的角度確定什麼能做什麼不能做。
面向流程的局限性
生產IT環境的適當的功能通常依靠嚴密的流程控制。變化凍結、維護視窗和其它控制措施必要要尊重。IT環境的任何轉變必須要考慮到已經制定的規則。
這對於大型計算機整合是一個好訊息,因為大型計算機過去的流程非常嚴格,這種流程目前僅在數據中心使用。
遵守安全和管理規定
為了保護智慧財產權和其它敏感的信息,許多環境隔離數據類型,並且相應地使用安全和接入控制政策。企業應該避免可能引起安全漏洞的虛擬化情況。即使這台大型計算機的安全模型支持反應分散式環境的政策,設法採用不跨越安全區和可能引起潛在的管理或者安全問題的更簡單的方法也許更可行。
一般業務和局限性
機構通常不願意在各個部門之間共享基礎設施,部分原因是缺乏能夠實現跨部門託管的chargeback(退款)模式。可能對虛擬化產生影響的另一個問題是運行環境。把生產環境與非生產環境結合到一個共享的環境中也許是不理想的。把在同一個系統上的開發和測試的不可預見的方式作為重要的生產工作量許多大量的技巧,特別是對於工作量管理。
工作量分析
分析大型計算機虛擬化的最具有挑戰性的問題之一是適當地實現系統虛擬化方式的正常化。因為數據中心出現的多重工作量個性和平台的各種不同的特點,得到正確的答案並不是一件很容易的事。處理器使用率必須要適當地實現正常化,必須要考慮到I/O速率,記憶體使用率和環境轉換,以保證準確的結果。
要解決這個問題,許多發表的測試基準取消了工作量的高頻寬和高同步化部分。因此,有必要創建一個能夠準確地捕捉不同平台種類相對優點的特殊的測試基準。換句話說,使用標準的整數基準實現中型計算機和大型計算機平台之間的工作量的正常化並不能提供這個正確的答案。
這個問題並不僅僅是大型計算機遇到的問題。許多虛擬化技術都受到這樣的問題的影響,有的是由於沒有適當的基準,有的是這種標準剛剛出現。在許多情況下,需要一種靈活的基準單獨地根據工作量的具體個性和與其相適應的目標平台的性能實現工作量的正常化。
處理器正常化和基準
最然構成工作量在大型計算機上運行的東西的理論是複雜的,獲得這個答案的實際方法是很簡單的。通過使用代表指定工作量個性的源系統和目標系統相對性能的多個基準,有可能進行一次單項的分析,用一個步驟最佳化使用多個源/目標組合。然後,每一個源工作量能夠根據獨特的個性單獨實現正常化,目標端點(大型計算機分區)根據合理地準確預測的利用率填補這個工作容量。雖然這種方法的好處是巨大的,但是,這個挑戰變成了確定每一個源工作量的確切的個性是什麼。幸運的是有一些關鍵的指標能夠用來把不同類型的活動分開。
I/O分析
雖然大型計算機平台的實力之一是其I/O性能,但是,分析源工作量的I/O特點仍是很重要的。在任何整合情況下,把能夠促進平衡利用資源的工作量結合在一起是很理想的。因此,I/O局限性應該使用處理器和其它指標進行並行分析,以便提供一個最佳化利用目標資源的平衡的結果。
記憶體分析
當確定一個系統中能夠虛擬化多少了應用程式的時候,記憶體通常是一個決定性的因素。不過,這種分析比較複雜,因為一個應用程式真正的記憶體需求並不是由系統上使用的物理記憶體決定的。使用測量的記憶體使用率來確定什麼能夠適合目標的要求將提供一個穩妥的答案。但是,它需要使用的記憶體將超過實際的需求。
結論
所有這些局限性最終必須都要在一起進行分析以便確定實施虛擬化的最佳化方法。當針對一系列源伺服器和目標伺服器考慮這些局限性的時候,這個分析就變成了一個三維的最佳化問題。
把應用程式工作量整合到一個大型計算機平台上是許多IT環境中要考慮的一個偉大的戰略。通過恰當地評估要進行整合的應用程式的適應性、這些整合提供的結果以及這個解決方案的擁有總成本,有可能發現一些重大的機會來簡化IT基礎設施、提高彈性、減少耗電量並且最終減少為這些工作量提供的服務的相關成本。

性能突破

IBM公司近日訊,美國政府已聘請IBM建造一種更為強大的超級計算機,其運算能力超過全球500強名錄上超級計算機能力的總和。這一雄心勃勃的計畫被稱為Sequoia(美洲杉)系統,擬建於明尼蘇達州的羅切斯特,運算速度為20 petaflops(1 petaflops是指每秒千萬億次即10的15次方浮點數運算),將用於美國能源部核儲備研究。
當今速度最快的計算機系統2008年才達到1 petaflop。目前,美國有兩個Petaflop級系統,即IBM用於阿拉莫斯國家實驗室的Roadrunner系統和Cray公司用於美國橡樹嶺國家實驗室的XT Jaguar系統。
按照契約計畫,IBM第一階段將建造Dawn(黎明)系統,運算速度500 teraflop(每秒500萬億次浮點數運算),將在2009年年中推出。在此基礎上,研究人員將建造更強大的Sequoia系統。Sequoia系統大約使用160萬個處理器核心,使用所有的IBM Power晶片,運行Linux作業系統。為此,IBM還在開發45納米晶片。Sequoia系統將擁有1.6TB記憶體,將被安置在相當於96個冰櫃大小的機架中。相應的電力系統也要提升,僅Sequoia系統預計使用6百萬瓦電力。IBM預計該系統將在2012年啟動運行。 超大型計算機系統的運用可以改善氣候研究、天氣預報、龍捲風跟蹤和相關研究,幫助研究人員減少不確定性和仿真的精確度。

相關詞條

熱門詞條

聯絡我們