400Gb への移行はあなたが考えているよりも近い将来に訪れます
データセンターの管理者が視野に迫る中、クラウドベースの進化の兆候は至る所に:より高性能な仮想化サーバー、より高い帯域幅と低遅延要件、より高速なスイッチからサーバーへの接続を実現します。現在、稼働しているのが 10Gb または 100Gb のいずれでも、400Gb への移行は、あなたが気付いているよりも近づいています。
400G/800G 以上への推進を担うのは多くの要因があります。データセンターは、複数の異なるネットワークから、より仮想化されたソフトウェア駆動型環境に移行しました。同時に、データセンターはより多くのマシン間接続数を展開し、それらの間のスイッチの数を減らしています。明日のクラウド規模のデータセンターをサポートするその要素のほとんどが存在します。欠けているのは、それらすべてを結びつける物理層のインフラストラクチャーを構築するための包括的な戦略です。
では、どうやってそこにたどり着くのでしょうか?選択肢を知ってください。
トランシーバー
400Gb へと飛び込むには、現在の SFP、SFP+、または QSFP+ トランシーバーの密度を 2 倍にする必要があります。これが、QSFP-ダブル密度(QSFP-DD)と octal 小型フォームファクタプラグ着脱可能(OSFP)技術が存在する場所です。いずれも 4 レーンではなく 8 レーンを使用し、1RU パネルの 32 ポートにフィットします。この唯一の大きな違いは、後方互換性と電力処理能力にあります。MSA は、さまざまな光接続オプションについて言及しています。サポートされるアプリケーションに応じて、LC、mini-LC、MPO 8、12、16、SN、MDC、CS コネクタが選択できます。コネクタについて—
コネクタ
さまざまなコネクタオプションにより、octal ベースの容量を分散する方法が増えます。12 芯ファイバー MPO は従来、6 本の 2 芯レーンをサポートしていました。40GBase-SR4 など、4 レーン(8 芯ファイバー)のみを使用する多くのアプリケーションでは、MPO16 は octal モジュールでの使用に適しています。他に検討する価値のあるのは、1.25 mm フェルール技術を組み込んだ SN コネクタと MDC コネクタです。これらは高速光モジュールに柔軟なブレークアウト・オプションを提供します。最終的な質問は、どのトランシーバーが将来どのコネクタを使って利用可能になるかということです。
チップ
もちろん、帯域幅の需要に制限はありません。現在、制限している要因は、スイッチの前面にどれだけプラグを差し込めるかではなく、内部のチップセットがどれだけの容量を供給できるかです。より高いラディックスとより高い SERDES 速度を組み合わせ、正味でさらに高い容量を実現します。100Gb アプリケーションをサポートする一般的な 128 年あたりのアプローチでは、2015 - 25Gb レーンを使用し、3.2Tb のスイッチ容量を実現します。400Gb にするには、ASIC を 256 50Gb レーンに増やす必要があり、12.8Tb のスイッチ容量を生み出しました。次の進歩、256 100Gb レーンにより、25.6Tbs に到達します。今後の計画では、車線速度を 200Gb に増やす計画が検討されています。これは難しい作業であり、完璧までには数年かかります。
400G/800 へと深く掘り下げる(パート1)
明らかに、私たちはデータセンター管理者が 400G/800G への移行戦略やスケジュールを検討する上で、考慮すべき事項のほんの一端を紹介したに過ぎません。この技術がどこにあるか、どこに向かっているかについては、さらに多くのことが言えます。現在の状況について詳しくは、このトピックのファクト・ファイルをご覧ください。また、コムスコープの情報を頻繁に確認して、進化の状況を把握してください。
400G/800G への移行:ファクト ファイル - パート 1
ハイパースケールとマルチテナント・データセンターでは、400G/800G への移行を計画する必要があります。光学機器、ファイバー、ケーブル設計など、準備に必要な洞察が得られます。