400Gb への移行はあなたが考えているよりも近い将来に訪れます

 
データセンターの管理者が視野に迫る中、クラウドベースの進化の兆候は至る所に:より高性能な仮想化サーバー、より高い帯域幅と低遅延要件、より高速なスイッチからサーバーへの接続を実現します。現在、稼働しているのが 10Gb または 100Gb のいずれでも、400Gb への移行は、あなたが気付いているよりも近づいています。

400G/800G 以上への推進を担うのは多くの要因があります。データセンターは、複数の異なるネットワークから、より仮想化されたソフトウェア駆動型環境に移行しました。同時に、データセンターはより多くのマシン間接続数を展開し、それらの間のスイッチの数を減らしています。明日のクラウド規模のデータセンターをサポートするその要素のほとんどが存在します。欠けているのは、それらすべてを結びつける物理層のインフラストラクチャーを構築するための包括的な戦略です。

では、どうやってそこにたどり着くのでしょうか?選択肢を知ってください。  

data center image

トランシーバー

400Gb へと飛び込むには、現在の SFP、SFP+、または QSFP+ トランシーバーの密度を 2 倍にする必要があります。これが、QSFP-ダブル密度(QSFP-DD)と octal 小型フォームファクタプラグ着脱可能(OSFP)技術が存在する場所です。いずれも 4 レーンではなく 8 レーンを使用し、1RU パネルの 32 ポートにフィットします。この唯一の大きな違いは、後方互換性と電力処理能力にあります。MSA は、さまざまな光接続オプションについて言及しています。サポートされるアプリケーションに応じて、LC、mini-LC、MPO 8、12、16、SN、MDC、CS コネクタが選択できます。コネクタについて—

コネクタ

さまざまなコネクタオプションにより、octal ベースの容量を分散する方法が増えます。12 芯ファイバー MPO は従来、6 本の 2 芯レーンをサポートしていました。40GBase-SR4 など、4 レーン(8 芯ファイバー)のみを使用する多くのアプリケーションでは、MPO16 は octal モジュールでの使用に適しています。他に検討する価値のあるのは、1.25 mm フェルール技術を組み込んだ SN コネクタと MDC コネクタです。これらは高速光モジュールに柔軟なブレークアウト・オプションを提供します。最終的な質問は、どのトランシーバーが将来どのコネクタを使って利用可能になるかということです。

チップ

もちろん、帯域幅の需要に制限はありません。現在、制限している要因は、スイッチの前面にどれだけプラグを差し込めるかではなく、内部のチップセットがどれだけの容量を供給できるかです。より高いラディックスとより高い SERDES 速度を組み合わせ、正味でさらに高い容量を実現します。100Gb アプリケーションをサポートする一般的な 128 年あたりのアプローチでは、2015 - 25Gb レーンを使用し、3.2Tb のスイッチ容量を実現します。400Gb にするには、ASIC を 256 50Gb レーンに増やす必要があり、12.8Tb のスイッチ容量を生み出しました。次の進歩、256 100Gb レーンにより、25.6Tbs に到達します。今後の計画では、車線速度を 200Gb に増やす計画が検討されています。これは難しい作業であり、完璧までには数年かかります。

400G/800 へと深く掘り下げる(パート1)

明らかに、私たちはデータセンター管理者が 400G/800G への移行戦略やスケジュールを検討する上で、考慮すべき事項のほんの一端を紹介したに過ぎません。この技術がどこにあるか、どこに向かっているかについては、さらに多くのことが言えます。現在の状況について詳しくは、このトピックのファクト・ファイルをご覧ください。また、コムスコープの情報を頻繁に確認して、進化の状況を把握してください。

400G/800G への移行:ファクト ファイル - パート 1

ハイパースケールとマルチテナント・データセンターでは、400G/800G への移行を計画する必要があります。光学機器、ファイバー、ケーブル設計など、準備に必要な洞察が得られます。

詳細

最新情報を常に入手

エンタープライズソースを購読すると、新しい記事が投稿されたときに最新情報を受け取ることができます。

カテゴリ
記事