Sun Feb 04 2024
従来、データセンターのトラフィック フローのほとんどはサウス-ノースであり、リーフ/TOR (トップ オブ ラック) - スパイン アーキテクチャ (トポロジーと呼んでもいいかもしれません。こちらのほうが適切に聞こえます) を使用して、データセンター内のトラフィックを外部インターネットに、またはその逆に転送します。
FSの提供
AI 内では、遅延を減らすために LLM データをサーバー間で送信する必要があるため、バックエンド ネットワークと呼ばれる巨大な東西トラフィックに対処する相互接続の需要が生じます。このバックエンド ネットワークは、800G スイッチ、800G 光トランシーバー、サーバー間の Nvidia InfiniBand、サーバー内の Nvidia NVLink で構成されます。 Infiniband であろうとイーサネットであろうと、よりハイスペックでより多くのスイッチやトランシーバーに対する需要の高まりは変わりません。 NIC (ネットワーク インターフェイス カード) の支援が必要な場合もあります。イーサネット大手の Broadcom、Marvell、データセンター スイッチのリーダーである Arista、Celestica、Edgecore、トランシーバーのリーダーである Innolight、Finisar はすべて恩恵を受けるでしょう。
コヒレント社提供
どれくらいのボリューム増加のメリットが得られるでしょうか?それは難しい部分です。参考になるのはマーベルの見解だ。マーベルは、高速スイッチ ポート用の光トランシーバーの主要チップである PAM4 DSP で優位に立っており、GPU とトランシーバーの関係は 1 以上であると公に述べています。現在の市場見通しでは 2024 年に 320 万から 400 万の Nvidia GPU が登場するのはまだ先のことです。 Innolight によれば、高速トランシーバーの数が多いほど、この関係はほぼ正しいようです。
はい、今週はここまでです。ご質問がございましたら、 [email protected]までメールしてください。