メラノックス テクノロジーズ ジャパン株式会社 - プレスリリース・イベント・セミナー最新情報


ニュース

 
SC'13関連ニュース
 
InfiniBand製品情報
 
Ethernet製品情報
 
ソリューション

 

 

 

 

 

 

 

2013年6月20日 プレスリリース

NVIDIA GPUDirect RDMAテクノロジー対応のメラノックスのFDR InfiniBandソリューションにより、GPUベースクラスタでこれまでにないパフォーマンスを実現

小規模メッセージのスループットが3倍に向上されるとともにMPIレイテンシーが69%短縮

 

本プレスリリースのpdf版はこちら

 

データセンターにおけるサーバやストレージシステム向けにエンドトゥエンドのインターコネクトソリューションを提供するトップベンダーであるメラノックステクノロジーズ社(Mellanox® Technologies, Ltd., NASDAQ: MLNX; TASE: MLNX)は、本日、同社のFDR InfiniBandソリューションがNVIDIA® GPUDirect™ Remote Direct Memory Access(RDMA)テクノロジーに対応したことにより、GPU間通信が新たな領域へと大きく進歩したことを発表しました。
 
次世代のNVIDIA GPUDirectテクノロジーにより、GPUアクセラレータベースのハイパフォーマンスコンピューティング(HPC)クラスタ環境に業界をリードする優れたアプリケーションパフォーマンスおよび効率性がもたらされます。NVIDIA GPUDirect RDMAテクノロジーによって、メラノックスのスケーラブルなHPCアダプタおよびNVIDIAのGPUとの間に直接ピアトゥピア通信用データパスが提供されるため、GPU間の通信速度が飛躍的に向上します。
 
この優れた機能により、GPU間通信のレイテンシーが大幅に短縮されるとともに、ネットワーク全体に渡るすべてのGPU間通信の負荷がCPUおよびシステムメモリサブシステムから完全にオフロードされます。オハイオ州立大学における最新の性能データでは、InfiniBandで接続されたGPU間でデータを移動する場合のMPIレイテンシーが19.78マイクロ秒から6.12マイクロ秒へと69%短縮されるとともに、小規模メッセージの総合スループットが3倍に向上し、大規模メッセージのバンド幅性能は26%向上することが実証されています。
 
“小規模および中規模メッセージを利用するMPIアプリケーションでは、メラノックスのInfiniBandインターコネクトソリューションおよびNVIDIA GPUDirect RDMAテクノロジーによって大幅なパフォーマンス向上が実現されることが期待されています”と、オハイオ州立大学のダーブルスワー・K.(DK)・パンダ教授は語っています。
 
このテストは、オハイオ州立大学コンピュータサイエンスおよびエンジニアリング学部のMVAPICH2ソフトウェアを利用して実施されました。このソフトウェアにより、InfiniBandが利用されているハイエンドコンピューティングシステムおよびサーバにワールドクラスのハイパフォーマンス、スケーラビリティおよび耐障害性能がもたらされます。MVAPICH2ソフトウェアは、メラノックスのFDR 56Gb/s InfiniBandで接続された204,900コアによって数ペタフロップスクラスの高い処理能力が実現し、今回7位にランクされたTexas Advanced Computing Center(TACC)のStampedeシステムをはじめ、TOP500リストに登場する数多くのスーパーコンピュータで利用されています。

 

“GPUメモリとデータが直接やり取りできるようになることにより、システムおよびアプリケーションのパフォーマンスは飛躍的に向上します。その結果、従来よりも短時間で計算処理集約型のコードを実行し、結果を出すことが可能になります”と、メラノックステクノロジーズ社マーケティング担当副社長ギラッド・シャイナーは述べています。“NVIDIA GPUDirect RDMA対応のメラノックスのFDR InfiniBandソリューションにより、GPUベースクラスタでトップレベルのアプリケーションパフォーマンス、スケーラビリティおよび効率性が実現されます。”
 
“クラスタにおけるアプリケーションのスケーリング性能は送信メッセージの増加によって制約を受けており、メッセージサイズが小さくなるとその制約は次第に大きくなります”と、NVIDIA社GPUコンピューティングソフトウェア担当ジェネラルマネージャのイアン・バック氏は語っています。“MVAPICH2およびGPUDirect RDMAの組み合わせにより、複数のGPUの間およびメラノックスのInfiniBandネットワークファブリック間で、小規模メッセージのレイテンシーとバイセクションバンド幅が大幅に改善されます。”

 

GPUベースのクラスタは、地震データ処理、数値流体力学ならびに分子動力学など、計算処理集約型のタスクで広く採用されています。GPUでは非常に多くのコアを使用して浮動小数点演算が高速実行されるため、プラットフォーム間の接続には、GPUクラスタリングの効率的な運用ならびにGPU間通信パスのボトルネックの解消に必要となる高バンド幅および低レイテンシーの高速インターコネクトが不可欠です。

 

メラノックスのConnectXおよびConnect-IBベースのアダプタ製品は、CPU処理への割込み、データのコピーおよびシステムノイズをすべて回避するために不可欠なフルオフロード機能が提供されるとともに、効率性の優れたGPUベースクラスタの運用を可能にする、世界で唯一のInfiniBandソリューションです。最新のNVIDIA GPUDirect RDMAテクノロジーとメラノックスのInfiniBandソリューションの組み合わせにより、HPC環境にこれまでにないハイレベルのパフォーマンスおよびスケーラビリティがもたらされます。

 

メラノックスは、本日よりGPUDirect RDMA機能を利用可能にするアルファコードの提供を開始します。このアルファコードには、既存のMPIアプリケーションを利用可能にするオハイオ州立大学のMVAPICH2-GDRリリースのアルファ版などが含まれています。正式な出荷は2013年第4四半期に開始される予定です。詳しくは、 までお問い合わせください。

 

関連情報
 
 
 
メラノックスについて
メラノックステクノロジーズ社は、サーバやストレージを対象にInfiniBandならびにEthernetのエンドトゥエンドインターコネクトソリューションを提供するリーディングカンパニーです。メラノックス社の製品により、最高のスループット、最小のレイテンシーが提供され、データセンターの効率性が向上します、また、アプリケーションにデータが高速に伝達されるため、システムのパフォーマンスを最大限向上させることができます。メラノックスは、アダプタ、スイッチ、ソフトウェア、ケーブル、シリコンといった高速インターコネクト製品を提供しており、これらの製品により、アプリケーションのパフォーマンスが向上し、HPC、データセンター、Web 2.0、クラウド、ストレージや金融といったさまざまな市場において業績を最大化する一翼を担っています。
 
メラノックステクノロジーズに関する詳しい情報は、www.mellanox.co.jp または www.mellanox.com でご確認ください。
 
Mellanox, BridgeX, ConnectX, CORE-Direct, InfiniBridge, InfiniHost, InfiniScale, PhyX, SwitchX, Virtual Protocol Interconnect, Voltaireはメラノックステクノロジーズ社の登録商標です。Connect-IB, CoolBox, FabricIT, Mellanox Federal Systems, Mellanox Software Defined Storage, MetroX, MLNX-OS, ScalableHPC, Unbreakable-Link, UFM, Unified Fabric Managerはメラノックステクノロジーズ社の商標です。記載されているその他の会社名および製品名は、各社の商標または登録商標です。

Home  |  会社概要  |  採用情報  |  プレスリリース・最新情報  |  プライバシーポリシー  |  国内パートナー  |  本社サイト