AI サーバー向け小型超高容量 MLCC (1005mm, 47㎌ & 1608mm, 100㎌) 開発
要約
▷ AI サーバーは GPU Module を複数接続した baseboard を積層する構造で設計されています。Rack 1 台に数十個の ASIC/GPU が集積されるにつれ発熱量が増加し、熱の放熱が難しくなるため X6S 特性以上の MLCC 採用が必要となります。(X6S : −55℃〜105℃ 温度領域での容量変化率 : ±22%)
▷ サムスン電機は AI サーバーに要求される MLCC ニーズに合わせ、小型・超高容量 MLCC CL05X476MS6N9W# (1005mm, 47㎌, X6S, 2.5V)、CL10X107MS8NZW# (1608mm, 100㎌, X6S, 2.5V)(以下、「本製品」)を開発しました。
AI サーバーの MLCC 要求容量の増加
▷ AI サーバーの場合、電力消費量が一般サーバーの 5〜10 倍以上となり、より多くの MLCC 搭載が要求される一方、GPU 付近に装着されなければならないため MLCC の実装面積は制限的です。このようなCaseで小型・超高容量 MLCC を採用すると、基板設計の最適化および発熱管理の効率向上が可能です。 [Figure1]
サムスン電機 AI サーバー用小型超高容量 MLCC
▷ さらに AI サーバーに本製品を採用することで設計の自由度を高め、ESL を低減できます。
▷ 下記 [Figure 2] のように 2012mm, 100㎌ MLCC 1 個の実装面積に 1005mm, 47㎌ (CL05X476MS8N9W#) MLCC を 3 個適用した場合、実装面積が減少すると同時に ESL 特性も改善されます。
Product Specifications
Samsung | Size (mm/inch) | Capacitance | TCC | Related Voltage | Sample |
---|---|---|---|---|---|
CL05X476MS6N9W# | 1005/0402 | 47㎌ | X6S | 2.5Vdc | Available |
CL10X107MS8NZW# | 1608/0603 | 100㎌ | X6S | 2.5Vdc | Available |
(X6S : −55℃〜105℃ 温度領域での容量変化率 : ±22%)
サンプルリクエストを含む他のお問い合わせは、こちらをクリックしてお問い合わせ