【中國傳動網(wǎng) 行業(yè)動態(tài)】 據(jù)外媒CNBC報道,F(xiàn)PGA巨頭Xilinx就收購Mellanox事宜,聘請巴克萊銀行為其謀劃。消息人士透露,該交易近期不會達成,并有可能以流產(chǎn)告終。其中兩名消息人士稱,如果交易最終能夠達成,則預計將在12月對外宣布。
Mellanox是一家總部位于以色列的公司,該公司成立于1999年。公司官網(wǎng)介紹,他們是一家在全球范圍內(nèi)為服務器和存儲提供端到端Infiniband和以太網(wǎng)互聯(lián)解決方案的領軍企業(yè)。他們提供的互連解決方案通過低延遲、高吞吐量的強大性能,可以極大的提升數(shù)據(jù)中心效率,在應用和系統(tǒng)之間快速的傳遞數(shù)據(jù),提升系統(tǒng)可用性。Mellanox為業(yè)內(nèi)提供了加快內(nèi)部設備互聯(lián)的技術和產(chǎn)品,包括網(wǎng)絡適配器、交換機、軟件和芯片,這些產(chǎn)品都可以加速應用的執(zhí)行,并最大化的提升HPC、企業(yè)數(shù)據(jù)中心、Web2.0、云計算、存儲以及金融服務的效率。
據(jù)媒體報道,收購邁絡思可令賽靈思獲得更多可在數(shù)據(jù)中心市場上出售的產(chǎn)品。
我們知道,隨著在服務器,存儲和嵌入式系統(tǒng)中使用多個多核處理器,I/O帶寬不能跟上處理器的進步,造成性能瓶頸。快速數(shù)據(jù)訪問已成為利用微處理器增加的計算能力的關鍵要求。此外,互連延遲已成為集群整體性能的限制因素。
另外,集群服務器和存儲系統(tǒng)作為關鍵IT工具的不斷增長的使用導致了互連配置的復雜性的增加。EDC中的配置和連接數(shù)量也有所增加,使得系統(tǒng)管理變得越來越復雜,操作昂貴。另外,使用不同的互連基礎設施管理多個軟件應用程序已變得越來越復雜。
再者,隨著附加的計算和存儲系統(tǒng)或節(jié)點被添加到集群中,互連必須能夠擴展,以便提供集群性能的預期增加。此外,對數(shù)據(jù)中心能源效率的更多關注正在導致IT經(jīng)理們尋求采用更節(jié)能的方法。
同時,大大多數(shù)互連解決方案不是設計為在大型集群環(huán)境中使用時提供可靠的連接,從而導致數(shù)據(jù)傳輸中斷。由于EDC中的更多應用程序共享相同的互連,因此需要高級流量管理和應用程序分區(qū)來保持穩(wěn)定性并減少系統(tǒng)停機時間。大多數(shù)互連解決方案不提供此類功能。
據(jù)維基百科,Mellanox正在深耕的InfiniBand是一個用于高性能計算的計算機網(wǎng)絡通信標準,它具有極高的吞吐量和極低的延遲,用于計算機與計算機之間的數(shù)據(jù)互連。InfiniBand也用作服務器與存儲系統(tǒng)之間的直接或交換互連,以及存儲系統(tǒng)之間的互連。總體來看,這個技術有以下優(yōu)點:
首先,被設計為嚴重依賴通信處理的其他互連技術相比,InfiniBand被設計用于在IC中實現(xiàn),以減輕CPU的通信處理功能。InfiniBand能夠相對于其他現(xiàn)有的互連技術提供優(yōu)越的帶寬和延遲,并且每個連續(xù)的產(chǎn)品都保持了這一優(yōu)勢。例如,我們目前的InfiniBand適配器和交換機提供高達100Gb/s的帶寬,端到端延遲低于微秒。此外,InfiniBand還充分利用了PCIExpress的I/O功能,即高速系統(tǒng)總線接口標準。
其次,根據(jù)獨立的基準測試報告,InfiniBand解決方案的延遲不到測試以太網(wǎng)解決方案的一半。光纖通道僅用作存儲互連,通常不會在延遲性能上進行基準測試。HPC通常需要低延遲互連解決方案。此外,云,Web2.0,存儲,機器學習和嵌入式市場中對延遲敏感的應用程序越來越多,因此,使用10Gb/s和更快的行業(yè)標準InfiniBand和以太網(wǎng)解決方案有趨勢,能夠提供比1Gb/s以太網(wǎng)更低的延遲。
第三,雖然其他互連需要使用單獨的電纜連接服務器,存儲和通信基礎設施設備,但InfiniBand允許在單個電纜或背板互連上整合多個I/O,這對于刀片服務器和嵌入式系統(tǒng)至關重要。InfiniBand還通過單個連接整合了集群,通信,存儲和管理數(shù)據(jù)類型的傳輸。
第四,InfiniBand被開發(fā)為提供多個系統(tǒng)的高可擴展性。InfiniBand在硬件中提供通信處理功能,減輕了該任務的CPU,并使得添加到集群的每個節(jié)點的全部資源利用率得以實現(xiàn)。
第五,InfiniBand是唯一在硅硬件中提供可靠的端到端數(shù)據(jù)連接的行業(yè)標準高性能互連解決方案之一。此外,InfiniBand還促進虛擬化解決方案的部署,從而允許多個應用程序在專用應用程序分區(qū)的同一互連上運行。因此,多個應用程序在穩(wěn)定連接上同時運行,從而最大限度減少停機時間。
Mallanox公司擁有的從光模塊、網(wǎng)卡、交換機、服務器到有源光纜的全系列200G產(chǎn)品,同時他們還提供RDMA(RemoteDirectMemoryAccess,遠程直接內(nèi)存訪問)技術、GPUDirectRDMA技術、SHARP(ScalableHierarchicalAggregationandReductionProtocol)技術、NVMeOverFabricTargetOffload技術、SHIELD(Self-HealingTechnology)技術和SocketDirect和Multi-Host技術,相信也是Xilinx看中他們的一個原因。
但我們應該看到,作為互連技術,IB與以太網(wǎng)、光纖通道和其他專有技術(例如克雷公司的SeaStar)有強烈的競爭關系。缺少服務器核心CPU的Mellanox被Xilinx收購,也許是一個不錯的選擇。