Cerebrasとは何者か?次世代AIチップ企業の概要と背景:NVIDIAキラー候補として注目される理由

目次

Cerebrasとは何者か?次世代AIチップ企業の概要と背景:NVIDIAキラー候補として注目される理由

シリコンバレー発のスタートアップであるCerebras Systems(セレブラス・システムズ)は、AI向けに特化した次世代半導体チップを開発する企業です。2016年にアンドリュー・フェルドマン氏らによって創業され、創業メンバーは以前にエネルギー効率の高いマイクロサーバー企業SeaMicroを立ち上げAMDに売却した実績を持ちます。巨額のベンチャー資金を調達し、早期にユニコーン企業(評価額10億ドル超)入りを果たしたことで注目を集めました。同社は従来の常識を覆す「ウエハーサイズ」の巨大チップWafer Scale Engine (WSE)を中核としたAIコンピュータを開発しており、その革新的技術から「NVIDIAキラー」や「ポストNVIDIA」の有力候補として業界関係者やメディアの期待を集めています。

セレブラス・システムズ創業の背景:2016年シリコンバレーでの誕生と創業者のビジョンに迫る

Cerebras Systemsは2016年にカリフォルニア州シリコンバレーで誕生しました。CEOのアンドリュー・フェルドマン氏はじめ共同創業者たちは、前職のSeaMicroで低消費電力サーバーを手掛けた経験を持ち、次はAI革命を加速する独自チップの開発に挑戦するためCerebrasを立ち上げました。創業当時、ディープラーニングの計算需要が爆発的に高まる一方で、その処理の多くを担うGPUには限界がありました。フェルドマン氏らは「AI計算を根本から高速化するには半導体アーキテクチャ自体を刷新する必要がある」と考え、ウエハーまるごと一枚を用いた前代未聞の巨大チップ開発に乗り出したのです。創業期にはベンチマークやCoatue等の著名VCからシリーズAで約2700万ドルの資金調達を行い、以降も順調に出資を集めました。創業者たちのビジョンは「従来不可能だったサイズのチップでAI計算の高速化に革命を起こす」ことであり、その大胆な計画が業界内で大きな期待を持って迎えられました。

AIチップ市場でCerebras(セレブラス)が注目される理由:独自技術がもたらす革新性を解説

ディープラーニング向け半導体と言えばNVIDIAのGPUが圧倒的シェアを握ってきましたが、その中でCerebrasは異彩を放つ存在です。同社は創業直後から「世界最大の半導体チップ」というインパクトのある技術ビジョンを掲げ、AIチップ市場に新風を吹き込みました。従来のGPUや他社のAIチップとは一線を画すCerebras独自のアプローチ(後述のWSEアーキテクチャ)は、AI計算のスピードと効率を飛躍的に高める可能性を秘めています。事実、Cerebrasの登場は「GPU依存からの脱却」を模索する産業界に歓迎され、大型資金調達の成功もあいまって業界内で早くから注目を集めました。2020年代に入り生成AIブームが起こると、AIインフラ需要が急増しGPU不足が問題化しましたが、その際にも「GPUの代替候補」としてCerebrasの名が挙げられるなど、一層存在感を高めています。独創的な技術とその潜在力こそが、CerebrasがAIチップ市場で特別視される理由と言えるでしょう。

従来アーキテクチャとの違い:Cerebrasが追求する新アプローチとは何か?

Cerebrasの技術アプローチは、従来の半導体アーキテクチャと大きく異なります。一般的なGPUやCPUは多数の小さなチップを組み合わせて計算を行いますが、Cerebrasは「1ウエハー=1チップ」という破天荒なコンセプトを採用しました。これにより、ウエハー全体を使った超大型の単一プロセッサ上に数十万規模のコアと大容量メモリを統合しています。従来は歩留まり(製造時の欠陥)や配線遅延の問題からチップは小さく分割されてきましたが、Cerebrasは独自の設計でそれらの課題を解決しました。この新アプローチでは、チップ間通信のオーバーヘッドを排除し、すべてが一つのシリコン上で直結されているため、極めて高速なデータ処理が可能になります。さらに、プロセッサ設計だけでなく電源・冷却・ソフトウェアまで含めたシステム全体を最適化して開発している点も特徴です。つまりCerebrasは、ハードからソフトまで専用設計した“AI計算専用マシン”を生み出しており、これが従来アーキテクチャにはないブレークスルーとなっています。

製品ラインナップとWSEの位置付け:CS-2システムに見る戦略と役割

CerebrasはWSEを搭載した完成品のコンピュータシステムを提供しています。初代製品「CS-1」は2019年に発表され、世界初のWSE搭載AIコンピュータとして注目されました。CS-1には第1世代WSE(WSE-1)が組み込まれ、ラックに収まるサイズでありながら当時世界最大規模のAI計算能力を持つシステムでした。実際、米国アルゴンヌ国立研究所などの研究機関ではCS-1が導入され、がん治療研究や天文学研究に活用されています。2021年には後継の「CS-2」システムが登場し、第2世代WSE(WSE-2)を搭載して性能とメモリ容量が大幅に向上しました。CS-2は従来のデータセンターラック1/3ほどのスペースで設置でき、単体で複数のGPUクラスタに匹敵する処理性能を発揮します。これら製品ラインではWSEが中核プロセッサとして機能し、その周辺を補完する高帯域のI/Oや冷却機構、ソフトウェアスタックが一体となって構築されています。Cerebrasの戦略は、自社開発チップWSEをハード・ソフト統合システムとして提供することでユーザーが容易に利用できるようにし、AI計算インフラ全体のソリューションを握ることにあります。なお2022年末には16基のCS-2を相互接続した大規模クラスタ「Andromeda」を発表するなど、単体のみならずスケーラブルなシステム展開も視野に入れています。

初期の評価と期待:メディア報道や投資家から注目を集める理由

創業当初からCerebrasはその壮大なビジョンと技術力で大きな期待を集めました。2019年にWSE-1を発表した際には「世界最大のチップ誕生」として各種メディアが報道し、WIRED誌やIEEE Spectrumなど業界専門誌もCerebrasを取り上げています。ベンチャー投資の面でも、シリーズB以降にCoatueやVY Capital、ソフトバンク系基金など著名投資家が名を連ね、2021年のシリーズFでは評価額40億ドル超に達しました。こうした資金力に支えられた開発のスピード感も評価され、2022年には第2世代チップWSE-2が計算機史に残る成果としてコンピュータ歴史博物館に収蔵される栄誉を得ています。またビジネス誌や市場アナリストからは「ポストNVIDIAの本命」と目されるようになり、ForbesのAI企業50やTIME誌の影響力企業100にも選出されるなど存在感を高めました。さらに2023年には大手企業との提携や収益急増も伝えられ、いよいよ具体的な実績を伴ってCerebrasへの期待は現実味を帯びています。「NVIDIAに挑むスタートアップ」としてCerebrasが脚光を浴びる背景には、このように技術革新性・資金調達力・市場の後押しという三拍子が揃っていることが挙げられるでしょう。

NVIDIAキラーとなるか?「ポストNVIDIA」筆頭候補CerebrasのAIチップ市場での挑戦に迫る

Cerebras Systemsが目指すのは、AIチップ市場におけるNVIDIAの牙城に風穴を開けることです。現在、生成AIブームによりGPU需要は爆発的に伸び、NVIDIAは時価総額で世界有数の企業となるなど圧倒的な支配力を持っています。しかしその一方で、ChatGPTに代表される大規模AIの隆盛はGPU供給不足や性能限界への懸念も生んでおり、新たな計算アーキテクチャの必要性が論じられています。こうした中、「NVIDIAに取って代わりうる存在」としてCerebrasは大きな挑戦を続けており、その行方は業界の注目を集めています。ここではCerebrasが挑む市場環境と、技術的・ビジネス的な戦略、そして直面する課題について解説します。

GPU市場を席巻するNVIDIAの存在感と課題を分析

現在のAI計算インフラ市場では、NVIDIAのGPUが事実上の標準となっています。データセンター向けGPU「A100」「H100」などは高い演算性能と成熟したソフトウェアエコシステム(CUDAなど)により、研究から産業応用まで幅広く利用されています。ChatGPTブーム以降、NVIDIAの株価は2023年に約140%も上昇し、同社は世界で最も価値のある企業の一角に食い込むほどです。しかし一方で、AI需要の急拡大に供給が追いつかず「GPU不足」が深刻化しました。この状況はクラウド事業者や研究機関にとってボトルネックとなり、解決策としてNVIDIA製品以外の選択肢を模索する動きが出ています。また技術面でも、数十~数百枚のGPUを並列動作させる現在の方式には通信遅延や消費電力といったスケーリング上の課題があります。そのため「ポストNVIDIA」を見据えた新アーキテクチャへの期待が高まっており、Cerebrasを含む複数のスタートアップがGPUに代わるAIチップを提案しているのが現状です。

Cerebrasが掲げる「NVIDIAキラー」像とは何か:AI計算の新潮流を探る

「NVIDIAキラー」とは煽り的な表現ですが、Cerebras自身も「従来のGPUでは不可能な性能と効率を実現する」ことを目標に掲げています。同社のWafer Scale Engineは、まさにGPUには真似できないアプローチでAI計算の新潮流を築こうとするものです。例えばCerebras公式サイトでは「世界最速のプロセッサ。いかなる数のGPUも我々の速度には敵わない」と謳われており、既存GPUとの差別化を前面に出しています。言い換えればCerebrasの狙いは、GPUが得意とする汎用計算ではなく、「AI専用に最適化された圧倒的ハードウェア」を武器にニッチから核心へ食い込むことにあります。そのビジョンは、単に演算性能を伸ばすだけでなく、AIモデル開発の効率を飛躍的に高める新たなプラットフォームを提供することです。実際、後述するようにCerebrasの大規模チップは従来GPUクラスタでは避けられなかった複雑な分散学習を単純化し、AI開発プロセス自体の革新を目指しています。こうした次世代像はAI研究者やエンジニアからも注目されており、Cerebrasは「GPUありき」の現状に一石を投じる存在として期待されているのです。

巨大チップWSEによる性能アプローチの違い:GPUクラスタとの比較

Cerebras最大の武器であるWSEは、アプローチの根本からGPUと異なります。一般に、大規模AIモデルの学習には数十~数百枚のGPUを相互接続したクラスタが用いられます。一方Cerebrasは、一枚のWSEでそれら多数GPUクラスタに匹敵する性能を発揮できると主張しています。その象徴的な比較として、CerebrasのWSEは物理サイズがフットボールほどもある「フットワイド(1フット≒30cm)のチップ」であり、NVIDIAのハードウェアは多数の小チップを「寄せ集めた」形で計算するという対比がよく引き合いに出されます。実際、Cerebrasによれば自社の巨大チップ1基で数百枚規模のGPUクラスタに相当する仕事をこなし、かつ必要とする電力や設置空間はGPUクラスタより格段に小さいとされています。このようにWSEベースのアプローチは、従来のGPU並列処理とは全く異なるスケーリング法則に従います。WSE内部では超高速のオンチップネットワークで数十万コアが密結合しており、外部との通信遅延を最小限に抑えつつ一体的に動作します。そのため、GPUクラスタで問題となるノード間通信のボトルネックが存在せず、理論的にはクラスタ規模をそのまま性能向上に反映できるのです。このアプローチの違いにより、CerebrasはGPUには難しいリニアな性能スケーリングと高エネルギー効率を実現し、巨大AIモデルの学習時間短縮などで大きなアドバンテージを発揮しようとしています。

Cerebrasの強み:大規模モデル処理に特化した設計と高効率性

Cerebras WSEアーキテクチャの強みは、何よりも大規模AIモデルの処理に最適化されている点です。WSE上には数十万ものコアと大容量のSRAMメモリが一体化して搭載されており、モデル全体を単一チップ内に載せて高速に計算することが可能です。例えばWSE-2ではオンチップメモリが40GBにも達し、メモリ帯域は毎秒20ペタバイト(20,000兆バイト)と驚異的で、GPUのHBMメモリをはるかに凌駕します。このような設計により、GPUではメモリ容量制約から複数デバイスに分割せざるを得なかった巨大モデルも、Cerebrasならシンプルな手法(データ並列のみ)で学習可能となります。実際Cerebrasは、16基のCS-2クラスタ(Andromeda)上で数百億パラメータ規模のGPT言語モデルを数週間で学習し、そのモデル群をオープンソース公開してみせました。この成果は、従来数千枚のGPUでも困難だった大規模モデル学習をはるかに効率よく達成できることを示し、Cerebrasハードウェアの高い潜在能力を証明しています。さらに電力効率の面でも、数百枚のGPUクラスタと比較してWSEベースのシステムは消費電力あたりの性能が高いとされます。これは冷却や電源供給まで含め一体設計している利点でもあります。以上のように、巨大モデル時代に求められる計算力と効率性を兼ね備えた点こそCerebrasの大きな強みであり、他社にはない差別化ポイントとなっています。

「ポストNVIDIA」時代に向けた課題と展望を考察

もっとも、Cerebrasが直面する課題もあります。第一にソフトウェアとエコシステムの問題です。AI研究者コミュニティは長年GPU向けに最適化されたソフトウェアスタック(CUDAやTensorFlowなど)を使っており、Cerebrasの新アーキテクチャが広く普及するには開発者の習熟やツール類の成熟が不可欠です。Cerebrasも独自のソフトウェアSDKを提供し主要フレームワークに対応していますが、GPUのエコシステムと比べれば発展途上と言えます。また商業的にも、NVIDIAは圧倒的な市場シェアと製造スケールメリットを背景に製品展開しており、単純な性能以外の面(価格やサポート、人材の慣れ)で優位です。Cerebrasは当初ターゲットとする市場を研究機関や大企業の先端用途に絞り込み、実績作りと信頼獲得を進めていますが、NVIDIAの牙城を崩すには時間がかかるでしょう。さらに技術面では、WSEの製造コストや歩留まり管理、さらなる微細化への対応といった課題があります。現在第3世代のWSE-3ではTSMCの5nmプロセスを採用していますが、将来より高度な製造技術が必要となった際に大量生産とコスト低減を両立できるかは未知数です。しかし展望として、AI計算需要の高まりはCerebrasのような革新的技術の活躍余地を広げています。既にGPUだけでは追いつかない特殊用途も出始めており、Cerebrasはそうした領域から市場を切り拓いていく戦略と見られます。今後、クラウドプロバイダや国策プロジェクトでの採用が進めばエコシステムも整い、「ポストNVIDIA」の一角としてCerebrasが台頭してくる可能性は十分にあるでしょう。

世界最大規模のお皿サイズ巨大AIチップWSE:「1ウエハー=1チップ」アーキテクチャの革新に迫る

Cerebras Systemsの技術の核となるのが、ウエハーまるごと一枚を使った世界最大のAIプロセッサWSE(Wafer Scale Engine)です。通常、シリコンウェハーは数百個の小さなチップに切り分けられますが、Cerebrasはあえてウェハーを切らず直径約21cm(8インチ)の一枚シリコン上に超巨大なチップを形成しました。文字通り「お皿サイズ」のこのチップには数百万個もの演算ユニットが集積されており、WSEこそがCerebrasの競争力の源泉です。このセクションではWSEの物理的特徴と技術的革新点、それがもたらすインパクトについて詳しく見ていきます。

WSEの驚異的な物理サイズ:ウエハ級AIチップの基本スペック

Wafer Scale Engine(WSE)は名の通り一枚のシリコンウェハー全体を使った巨大チップです。その物理サイズは実に約46,225平方ミリメートルにも及び、これは従来最大級のGPUと比較しても56倍以上の面積になります。初代WSE(WSE-1)は台形状の300mmウェハー上に約1.2兆個(1,200,000,000,000個)のトランジスタを集積し、約40万個の演算コアと18GBのオンチップメモリを備えていました。2021年登場の第2世代WSE-2ではプロセス微細化(16nm→7nm)によりトランジスタ数が2.6兆個、コア数も85万個へと倍増し、オンチップメモリも40GBに拡張されています。最新の第3世代WSE-3(2024年発表)は5nmプロセスで4兆個のトランジスタと90万個のコアを実現し、ピーク演算性能はAI計算で125ペタフロップス(毎秒125京回の計算)にも達すると報じられています。このようにWSEシリーズはいずれも桁違いの規模を誇り、文字通り「世界最大のコンピュータチップ」と称されています。サイズが大きいだけでなく、チップ上には演算コア・メモリ・通信網が一体化された「自己完結型」の構造になっている点もWSEの基本的特徴です。

従来GPUとの規模・性能ギャップ:チップ面積は56倍以上、性能面での優位性

WSEの圧倒的スケールは、従来のGPUとの比較でより鮮明になります。例えばNVIDIAの最強クラスGPU(例えばA100やH100)のダイサイズは600〜800平方ミリ程度ですが、WSE-2のチップ面積は46,225平方ミリメートルと実に50倍以上にも達します。その結果、WSE-2にはGPUに比べて約3,000倍ものオンチップメモリと10,000倍のメモリ帯域が搭載されており、計算資源とデータ供給能力で桁違いの差を生んでいます。これは性能面の大きなアドバンテージです。実際、Cerebrasの創業者フェルドマン氏によれば「WSEは既存ソリューション(GPUなど)に比べ、ワークロードによっては数百倍から数千倍の性能を発揮し、消費電力や設置スペースもごくわずかで済む」という結果が得られているといいます。さらに独立系調査でも「Cerebrasの巨大チップはタスクによっては数百台のGPUクラスタを代替し、エネルギー消費とスペースを大幅に削減できる」と報じられています。もちろん全ての用途でGPUを上回るわけではありませんが、特に超大規模なAIモデルの学習や推論において、WSEは従来GPUクラスタにはない性能スケーリングと効率性を発揮できる可能性が高いと言えます。

「1ウエハー=1チップ」実現の仕組み:85万個のコアと独自ネットワーク

なぜCerebrasだけが「1ウエハー=1チップ」を実現できたのでしょうか。その鍵は独自のチップ設計とネットワーク技術にあります。通常、大面積チップは製造上の歩留まり問題(欠陥が発生しやすい)から避けられますが、Cerebrasは冗長構成によって多少の欠陥があっても機能するWSEを設計しました。具体的には、WSE上のコアは格子状に配置され、高速な通信網(スケーラブル・メッシュネットワーク)で全コアが結合されています。仮に一部のコアや配線に欠陥があっても周囲の迂回経路で通信できるため、チップ全体としての動作を維持できます。またCerebrasはウェハー内の複数のフォトマスク領域(レティクル)をまたぐ配線技術を開発し、「ウエハー全体を一つの巨大なシリコン」として機能させることに成功しました。このため数十万個ものコアが協調し、一つのプロセッサとして動作します。第2世代WSE-2の場合、そのコア数は先述の通り85万個にも達し、TSMCの7nmプロセス上で密集配置されています。各コアはディープラーニング演算に特化した設計で、ローカルに高速メモリを持ちつつ、隣接コア間で数十Tb/s級の帯域でデータ交換できます。さらにチップ外部との入出力も1チップ用に最適化されており、標準的なイーサネット等で他システムと接続可能です。こうした仕組みにより、WSEは破綻することなく「一枚ウエハーのスーパーチップ」として機能し、従来にはなかった計算アーキテクチャを実現しています。

巨大チップ製造の課題:歩留まり問題を克服する冗長設計とコスト対策

WSEを語る上で避けて通れないのが、巨大チップゆえの製造課題です。一般にチップが大きくなるほど製造中に欠陥が混入する確率が高まり、歩留まり(良品率)が低下します。そのため従来は極力ダイサイズを小さく保ち、欠陥が出ても影響を局所化するのが半導体の常識でした。Cerebrasは前述の通り冗長設計で歩留まり問題に挑みましたが、それでも完全な解決には至りません。実際、初代WSE-1は16nmプロセスを採用したこともあり、かなりの部分で冗長領域を確保しつつ動作させていたとされています。しかし7nmのWSE-2ではプロセス技術の進歩もあり欠陥率が減少、さらに緻密な冗長回路制御により実用上問題ないレベルに達しました。もっとも最新5nm世代のWSE-3では製造コストも跳ね上がっていると考えられ、経済性とのトレードオフが新たな課題です。1枚のWSEチップはシリコンウェハー1枚を丸ごと使うため、その製造コストは通常のチップ何百個分にも相当します。Cerebrasは自社システムの高性能ぶりでそのコストを正当化しようとしていますが、大量生産して単価を下げることは難しく、販売戦略としては少数を高価格で売るモデルになります。幸いにも需要側では「GPUが入手困難でもっと高性能な計算資源が欲しい」という声が強く、そうしたニーズに対してはWSEの高コストも許容される可能性があります。さらにCerebrasはWSEを長寿命に設計し、ソフトウェア更新で性能向上を図ることで投資対効果を高める方策も取っています。今後、製造面ではTSMCなどパートナーと協力しつつ450mmウェハー対応やチップレット技術導入など改善策も模索されるでしょう。いずれにせよ、巨大チップゆえの歩留まり・コスト問題は常に付き纏うため、Cerebrasは技術革新とビジネスモデル工夫の両面でこの課題に取り組んでいます。

大規模単一チップがもたらす利点:低レイテンシ通信と高速演算処理

WSEのような大規模単一チップ構造がもたらす最大の利点は、超低レイテンシのデータ通信高い並列演算効率です。前述の通りWSE内部ではコア間通信が同一シリコン内で行われるため、従来のマルチチップ・マルチノード環境に比べて桁違いに通信レイテンシが低減されています。GPUクラスタではノード間通信に高速ネットワーク(InfiniBandなど)を用いても数十マイクロ秒程度の遅延が発生し、大規模になるほど同期待ち時間が増大していました。これに対しWSE内部通信はナノ秒オーダーで完結するため、数百万の演算ユニットが一斉に同期して動作しても大きなペナルティがありません。これにより、例えば勾配降下法によるモデル学習でも大規模並列時の効率低下が小さく、ほぼリニアに性能が向上します。またオンチップメモリが大容量で帯域も非常に太いため、メモリアクセスの遅延も極小化されています。さらにWSEは単一チップ内で計算が完結するためデータ移動のエネルギーロスが少なく、結果的に演算あたりの消費エネルギーが抑えられる利点もあります。総じて、巨大チップは「速い・効率が良い・スケールしやすい」という三拍子そろった特性を発揮できるのです。ただし、そのポテンシャルを最大限引き出すにはソフトウェア側での最適化も重要です。Cerebrasはコンパイラやライブラリを自社開発し、ユーザープログラムをWSE上で効率よく動かせるよう努めています。結果としてユーザーは分散並列を意識せず従来と同じようにモデルを記述するだけで、WSEの持つ莫大な計算資源を活用できる仕組みが整えられています。以上のように、大規模単一チップのWSEはAI計算における根本的な利点をもたらし、従来にはない高速・高効率な計算基盤を提供しているのです。

進化し続けるWSE(Wafer Scale Engine):更なる性能向上と大規模AIモデルへの挑戦

CerebrasのWSEアーキテクチャは登場以来、着実に進化を重ねてきました。初代WSE-1から最新のWSE-3に至るまで、トランジスタ数やコア数は飛躍的に増大し、対応できるAIモデルの規模も格段に拡大しています。また、より巨大なAIモデルを扱うための新技術やクラスタ構成も導入されつつあります。ここでは各世代のWSEの特徴と、その進化が大規模AIモデルにもたらす可能性について見ていきましょう。

初代WSE-1の登場:1.2兆トランジスタがもたらしたAI計算の革命

2019年8月、Cerebrasは初代Wafer Scale Engine(WSE-1)を発表しました。WSE-1は1.2兆個ものトランジスタと約40万個のAI最適化コアを集積した世界初のウェハースケールプロセッサであり、その衝撃は計り知れないものでした。WSE-1を搭載したCS-1システムはスーパーコンピュータ並みの性能を19インチラックサイズで実現し、「世界最速のAIコンピュータ」として当時記録的な計算速度を叩き出しました。例えば、ある自然言語処理モデルのトレーニングでは従来GPUクラスタで数日かかっていた処理をCS-1がわずか数時間で完了したケースも報告されています(具体的な数値は非公開ですが、HPC分野のカンファレンスで成果が共有されました)。WSE-1は比較対象だったGPU(2017年時点で最強のV100など)に比べダイサイズが56倍、コア数が桁違いであることから「モンスター・チップ」と称され、AI計算に革命を起こす可能性を示したのです。実際、WSE-1の性能は特定の条件下ではGPU数百枚規模を置き換えるほど高く、初号機は前述のアルゴンヌ国立研究所やCerebras社内の研究で大規模モデルを高速学習するデモンストレーションに成功しました。もっともWSE-1は16nmプロセスということもあり消費電力が大きく(最大20kW以上)冷却の難しさも指摘されましたが、それらは次世代での改善課題として残されました。初代WSE-1の登場は、AI専用チップの可能性を一気に押し広げた歴史的な出来事と言えるでしょう。

第2世代WSE-2の改良点:性能向上とメモリ容量の拡大

2021年4月、Cerebrasは第2世代チップとなるWSE-2を搭載したCS-2システムを発表しました。WSE-2はTSMCの7nmプロセスで製造されており、トランジスタ数は2.6兆個へと倍増、演算コアも約85万個に増強されています。最大メモリ容量も従来の18GBから40GBへと大きく拡大し、メモリ帯域は20PB/s(ペタバイト毎秒)に達しました。これらの改良により、WSE-2搭載のCS-2はWSE-1/CS-1に比べてほぼあらゆる面で2倍以上の性能向上を遂げています。実際Cerebrasは「第2世代でAI演算性能を2倍以上に高めた」と発表しており、大規模言語モデルの学習時間短縮などで顕著な効果を確認しています。またWSE-2ではプロセス微細化に伴って消費電力あたりの効率も改善し、1チップでの学習可能モデル規模も飛躍的に拡大しました。Cerebrasは2022年6月、WSE-2を用いて単一CS-2システムで200億パラメータ(200億の重み)を持つTransformerモデルの学習に成功したと発表しています。従来、1台のマシンで訓練できるモデルは数億パラメータ程度が限界だったため、これは画期的な成果でした。WSE-2の登場によって、Wafer Scaleアーキテクチャが本格的に実用段階へ移行したと言えます。CerebrasはWSE-2について「世界最大のチップがさらに大きくなり、AI研究者がこれまで不可能だった規模のネットワークを扱えるようになった」と述べ、コンピュータ歴史博物館もこれを「集積回路製造の歴史的偉業」と評価しました。第2世代WSE-2は、初代で見えた課題を着実に克服しつつAI計算の新たな可能性を切り拓いたと言えるでしょう。

最新WSE-3のスペック:4兆トランジスタでGPT-4の10倍モデルを視野に

2024年には第3世代となるWSE-3が登場しました。Cerebrasは「世界最速のAIチップ」としてWSE-3を発表し、その性能はさらに飛躍しています。WSE-3はTSMCの5nmプロセスを採用し、トランジスタ数はついに4兆個の大台に達しました。演算コア数も約90万個と前世代比で約6%増加し、オンチップメモリ容量は44GB前後と推定されています。Cerebrasによれば、WSE-3は現行の最先端AIモデル(GPT-4やGoogleのGeminiなど)よりも10倍規模で大きなモデルを訓練できるよう設計されているといいます。実際、WSE-3の登場によって1チップで扱えるパラメータ数は数百億から数千億へと拡大し、従来は巨大クラスタが必要だったモデルも単一または少数のCS-3システムで学習できる可能性が出てきました。性能面でもWSE-3は125PFLOPSものピーク演算性能(半精度AI計算)を持ち、これは単体でH100 GPU約100枚分に相当する計算力です。さらにCerebrasはWSE-3を搭載した新システムCS-3を複数連結し、かつてないスケールのAIスーパーコンピュータネットワークを構築する計画を明らかにしています(後述のCondor Galaxy参照)。つまりWSE-3によって、Cerebrasは単体性能とスケーラビリティの両面でGPUを大きく凌駕するプラットフォームを提示しつつあります。現在WSE-3はまだ試作機段階ですが、今後量産と顧客への提供が進めば、GPT-4の10倍を超える超巨大モデルの学習も視野に入ってくるでしょう。

WSEアーキテクチャが可能にする大規模AIモデルの高速学習

このように進化を続けるWSEアーキテクチャは、これまで不可能だった大規模AIモデルの高速学習を可能にしつつあります。Cerebrasが2023年に公開した一連の実証では、16台のCS-2(WSE-2搭載)をクラスタ化した「Andromeda」を用いて、最大130億パラメータのGPTモデル7種類をわずか数週間で訓練しきりました。従来であれば130億パラメータ級モデルの学習には大規模GPUクラスタを用いても数ヶ月を要することがありましたが、Cerebrasは独自のアーキテクチャとクラスタリング技術で大幅な時間短縮を実現したのです。特筆すべきは、その際にCerebrasが特殊なモデル並列やパイプライン並列を用いず、データ並列のみでスケーラブルに学習できた点です。GPUによる大規模学習では、モデルを複数GPUに分割する複雑な手法が必要でしたが、Cerebrasではソフトウェア的に単純な手法で同等以上の規模に対応できることを示しました。これにより研究者はモデル分割の煩雑さから解放され、開発サイクルを加速できます。またAndromedaのように複数WSEを連結する構成でも性能がリニアに向上することが確認されており、将来的には数十〜数百台のWSEを統合した超大規模AIコンピューティングも実現可能と見られます。実際、Cerebrasはパートナー企業のG42と協力してCondor Galaxyという世界最大級の分散AIスーパーコンピュータ網を構築中であり、将来的に36エクサフロップス(毎秒36垓回)の性能をクラウド上で提供する計画です。このようにWSEアーキテクチャは単体性能だけでなく大規模クラスタ構成でも威力を発揮し、AIモデルのスケールを飛躍させる基盤となりつつあります。

ウェハースケール技術が拓くAI研究の新時代と今後の課題

ウェハースケールエンジン(WSE)の登場と進化は、AI研究・開発に新時代をもたらそうとしています。従来は計算資源の制約からモデルサイズや学習データ量に妥協が必要でしたが、Cerebrasのような極端なスケールの計算基盤が実用化すれば、AIモデルを「大きく作って高速に学習させる」アプローチがこれまで以上に容易になります。実際、オープンソースで公開されたCerebras-GPTモデル群は各種サイズのGPTを短期間で学習した成果であり、コミュニティに大きなインパクトを与えました。ウェハースケール技術によって、AI研究者はモデル設計上の自由度を拡大でき、より複雑で高性能なAIシステムの探求が可能になります。一方で課題も残ります。まず、WSEはハード・ソフト一体の専用機であるため、その活用が特定の用途(主に大規模言語モデルや画像生成など)に限られる可能性があります。汎用性の面ではGPUのように幅広いワークロードに対応するには工夫が必要でしょう。また、WSEを支える半導体技術のさらなる進展も不可欠です。将来的に数十兆トランジスタ級のチップを実現するには、EUVリソグラフィの高度化や新材料の導入などが必要となるかもしれません。さらに、競合他社も黙っているわけではなく、NVIDIA自身もより大規模なGPUやマルチチップモジュール戦略で対抗してくるでしょう。そうした中でCerebrasが技術リードを維持するには、継続的なイノベーションと迅速な製品化が求められます。とはいえ、ウェハースケール技術が開いた可能性は非常に大きく、AI計算アーキテクチャの選択肢を増やした意義は計り知れません。今後はこの技術を産業界・学術界がどう受け入れて活用するかが問われる段階に来ています。CerebrasはIPOを経てさらなる資金を得ることで研究開発を加速し、AI研究の新時代をリードする存在として期待されています。

Cerebrasにとって2023年は「絶好調の年」:AIチップからモデルサービスまでのビジネスモデル変化と成長

2023年はCerebras Systemsにとって飛躍の年となりました。同社はこの年、収益が前年の3倍以上に急増し、大口顧客との提携やビジネスモデル転換によって事業の幅を大きく広げました。また、自社のAIモデルをオープンソース公開するなど新たな取り組みも行い、市場での存在感を一段と高めています。ここでは2023年のCerebrasの好調ぶりと、それを支えたビジネス上の変化について見ていきます。

2023年に収益が急拡大:売上高3倍増を支えた要因を分析

Cerebrasは2023年に劇的な業績向上を遂げました。同社の発表によれば、2023年通年の売上高は約7870万ドルに達し、前年(約2460万ドル)から3倍以上に急増しました。この売上急拡大の背景には、生成AIブームによる需要増と大口顧客からの大型案件獲得があります。特に後述するUAEのテック企業G42との提携により巨額の収入を得たことが大きく寄与しました。また2023年前半には、Cerebras製システムのクラウド提供を開始したことも新たな収益源となりました。さらに世界的な半導体不足の中で、従来GPUに頼っていた一部顧客がCerebrasの製品に活路を見出したことも売上増の一因です。実際、同社の2024年IPO申請書によれば「ある大口顧客からの受注が売上の大半を占めた」と記されています。これら複合的な要因によって2023年の収益は飛躍的に伸び、Cerebrasにとってまさに“絶好調”とも言える年になりました。

UAE企業G42との大型契約:年間売上の83%を占めた提携の威力

2023年の業績を牽引した最大の要因が、アラブ首長国連邦(UAE)のテック企業G42との戦略的パートナーシップ契約です。Cerebrasは2023年7月、G42との間で総額1億ドル規模の大型契約を締結しました。この契約では、Cerebras製のAIスーパコンピュータシステム(後述のCondor Galaxyシステム)の第1号機をG42に提供し、さらに最大9システムの追加提供の可能性が含まれていました。実際、2023年中にCerebrasは3基の「Condor Galaxy」AIスーパーコンピュータを米国で製造し、その最初の1基(Condor Galaxy 1)を同年内に稼働させています。このG42向けプロジェクトが同社にもたらした売上は絶大で、2023年のCerebras総収入の約83%がG42関連によるものでした。つまり売上の大半を単一顧客が占めた形ですが、それだけG42との提携はCerebrasにとって重要な意味を持ちます。G42は政府系ファンドMubadalaの出資を受けるAI企業グループであり、ヘルスケアやエネルギーといった産業向けにAIサービスを提供する計画を掲げています。G42はCerebrasのシステムを活用してそうした産業向けAIクラウドサービスを構築する考えで、両社は単なる顧客とサプライヤーを超えた「戦略的パートナーシップ」を築いています。CerebrasにとってG42との協業は、自社技術を大規模に展開し収益化する絶好の機会となりました。実際、契約締結に伴いCEOのフェルドマン氏自ら数ヶ月間UAEに滞在してプロジェクトを指揮するなど、Cerebrasは総力を挙げてG42との取り組みにコミットしています。この提携の成功が、2023年のCerebrasの飛躍的成長を支えた最大の原動力だったのです。

ビジネスモデル変革:ハード販売からAIモデル提供サービスへの転換

2023年、Cerebrasはビジネスモデルの変革にも踏み出しました。当初同社の収益源は主にハードウェア(CS-1/CS-2システム)の販売でしたが、次第にクラウド経由の計算サービス提供へ軸足を移しつつあります。これは「ハードを売り切り」から「計算能力をサービスとして提供」するモデルへの転換です。具体的には、Cerebras自身が保有するAIスーパコンピュータ(例えば前述のAndromedaや、G42と構築するCondor Galaxy)をクラウド上で外部企業・研究者に貸し出し、その利用料で収益を得る形です。2022年末に同社は「Cerebras AI Model Studio」というクラウドサービスを発表し、ユーザーが自社のCSシステムを購入せずともCerebrasの計算資源を使ってモデル開発できるようにしました。さらに2023年には「Cerebras Cloud」として推論(インフェレンス)特化のクラウドサービスも開始し、OpenAIの公開モデルを高速実行するプラットフォームを提供しています。このように、Cerebrasはハードウェア販売だけに頼らず、自社クラウド上で計算サービスやモデル提供を行う方向へビジネスを多角化しています。背景には、ハード自体の高価さから潜在顧客が手を出しにくいという課題がありましたが、クラウド提供なら初期投資なしで利用できるため顧客層の拡大が見込めます。実際、「Cerebras Cloud」の開始後、複数の企業が従来GPUで行っていたAI推論をCerebras上に移行し始めています。総じて2023年は、Cerebrasがビジネスモデルをハード販売主体からクラウドサービス主体へと変革し始めた重要な年となりました。

Cerebras AI Model Studioと「ホワイトグローブ」サービスの展開

上述のビジネスモデル転換を支える具体策が、Cerebras AI Model Studioと呼ばれるサービスおよび「ホワイトグローブ」サービスと称する手厚い顧客支援です。Cerebras AI Model Studioは、クラウド上でユーザーが自社のデータやモデルを持ち込み、Cerebrasの計算資源を使ってモデル訓練や推論を行えるプラットフォームです。料金はモデル規模や時間に応じた定額制が採用され、従来GPUクラウドと比べ高速かつ低コストで利用できる点を売りにしています。特に超大規模モデルの訓練ではGPUクラウドより半分のコスト・8倍の速度と謳われており、コスト削減を重視する企業にアピールしています。一方「ホワイトグローブ(白手袋)サービス」とは、Cerebrasのエンジニアチームが直接顧客を支援し、システム導入からモデル最適化まで密接にサポートするサービスです。G42のクラウド部門CEOは「Cerebrasのホワイトグローブサービスのおかげで容易にAIシステムを構築できた」と語っており、高度な専門知識を持つCerebrasスタッフが顧客企業と協働することで、導入のハードルを下げています。これは高価な新技術を売り込む上で極めて有効な手法で、単にハードを渡すだけでなく使いこなしまでフォローする姿勢は顧客から好評を博しています。総じて、Cerebras AI Model Studioというクラウドサービスとホワイトグローブの手厚い支援によって、Cerebrasは従来以上に顧客に寄り添った形で自社技術を提供できるようになりました。これらの展開は、売り切り型ビジネスからサービス型ビジネスへの移行をスムーズにし、2023年の成長を下支えした重要な要素です。

顧客層の拡大とユースケース:医療・エネルギー分野への適用

2023年にはCerebrasの顧客層とユースケースも広がりました。従来、Cerebrasシステムの導入は主にAI研究機関やクラウド大手など限られた範囲でしたが、G42との提携をきっかけに産業分野への適用が進みつつあります。G42は医療(ヘルスケア)やエネルギー産業向けにAIサービスを展開すると発表しており、その基盤としてCerebrasのCondor Galaxyシステムを活用しています。例えば医療分野では膨大な画像診断データの解析や新薬開発のシミュレーションなどにCerebrasの高速計算が役立つと期待されています。またエネルギー分野では、探鉱データの分析や気象シミュレーションなど計算負荷の高い課題に適用する計画です。さらに製造業や金融業界でも、大規模言語モデルや生成AIをビジネスに活用する動きに合わせ、Cerebrasシステムの導入検討が始まっています。加えて、従来は手が届かなかった中規模企業やスタートアップにも、クラウド経由でCerebras計算資源を提供することで利用が広がり始めました。実例として、ある創薬スタートアップが自社でGPUクラスタを持たずにCerebras Cloud上で新薬候補分子のAIモデル開発を行い、大幅なコスト削減と期間短縮を達成したケースがあります。このように2023年を通じて、Cerebrasの活用シーンは研究室の特殊用途から産業界の実務へと広がりを見せました。ユースケースが増えるほどフィードバックが蓄積し製品も洗練されていくため、この顧客層拡大の流れはCerebrasにとって追い風と言えます。

Cerebras Systems(セレブラス):ユニコーンAIチップ企業のIPO計画の行方と将来展望

急成長を遂げたCerebras Systemsは、いよいよ株式公開(IPO)による新たな資金調達と事業拡大を視野に入れています。同社は2024年に米国での上場申請を行い、AIブームの追い風を受けてユニコーン企業(非上場評価額10億ドル超企業)から公開企業への転身を図ろうとしています。本セクションでは、Cerebrasの資金調達の歴史と企業価値、IPO計画の概要と進捗、そして上場後の展望について整理します。

累計7億ドル超の資金調達:評価額40億ドルでユニコーン入り

創業以来、Cerebrasは大型の資金調達を重ねてきました。2015〜2016年のシリーズA~Cで合計数千万ドルを調達したのち、2018年11月のシリーズDでは8800万ドルの出資を受け企業評価額が初めて10億ドルを超え、晴れてユニコーン企業の仲間入りを果たしました。その後も資金調達は順調で、2019年のシリーズEでは2億7000万ドルを追加し評価額24億ドルに到達。2021年11月のシリーズFではさらに2億5000万ドルを調達し、評価額は約40億ドルと報じられています。主要な投資家にはBenchmarkやCoatue、ソフトバンク系Vision Fund、そしてAbu Dhabi Growth Fund(ADG)など国際色豊かな顔ぶれが並びました。累計調達額は2023年時点で約7億2千万ドルに達し、これはAIチップ分野のスタートアップとしても最大級の一つです。潤沢な資金のおかげでCerebrasは大規模な開発投資を継続でき、3世代にわたるWSE開発や自社クラウド立ち上げなどを実現してきました。ユニコーンとして非上場のままでも事業遂行は可能でしたが、市場のAI熱狂と業績拡大を背景に、さらに資金を得て成長を加速すべくIPOに踏み切ったと言えます。

IPO市場の回復と上場タイミングの模索:市場環境を分析

2022年~2023年前半はハイテク企業のIPO件数が減少し、新規株式公開にはやや逆風の時期でした。しかし2023年後半から米国IPO市場は好転の兆しを見せ始め、ソフトランディング(景気軟着陸)への期待感や株価上昇を背景に投資家のリスク許容度が戻りつつありました。特にAI関連企業への関心は非常に高く、「AI企業こそ次のIPOラッシュを牽引する」との見方も出ていました。Cerebras経営陣はこうした市場環境を注意深く見極め、上場のタイミングを探っていたとされています。実際、2023年時点でもCerebrasはまだ赤字経営であり(2023年純損失1億2,720万ドル)、収益面から見ると急いで公開する必要はないようにも思えました。しかし、株式市場のAIブームがいつまで続くかは読めず、先行して上場した同業のAI企業(例えばオープンソースAIモデル企業など)が高い時価総額を得た事例も出てきました。そこでCerebrasは、2024年に入りIPO市場が持ち直したタイミングで一気に公開準備を進めたと考えられます。特に2024年はArmやInstacartなど大型テックIPOが成功し市場心理が改善したことも追い風となりました。つまり、Cerebrasは自社業績の伸長と市場環境の好転が交差する絶好のタイミングを捉え、IPOを決断したのです。

2023年業績の好転:売上急増と赤字縮小で上場に弾み

IPOに踏み切る上で、2023年の業績好転も重要な追い風となりました。前述の通り2023年の売上は3倍以上に成長し、年間約78百万ドルに達しました。また損益面でも、純損失が前年の約1億7,770万ドルから1億2,720万ドルへと縮小しています。さらに2024年前半(1〜6月)の売上は1億3,640万ドルに達し、前年同期(870万ドル)から桁違いの増収となりました。赤字幅も前年同期の7,780万ドルから6,660万ドルへ縮小しています。このように、数字の上でCerebrasの事業は急成長局面にあり、将来の黒字化も射程に入ってきました。IPOの投資家にとって、成長率が高く損失が縮小傾向にあることは魅力的なポイントです。CerebrasはIPO目論見書の中で「AI需要の拡大で市場は今後も成長する見通し」であること、そして自社がその波に乗って業績を伸ばしていることを強調しています。実際、2024年以降もG42との大型案件やクラウドサービス収入などでさらなる増収が期待されています。これらの好材料により、Cerebrasは投資家に「物語」を語りやすくなりました。すなわち「当社はAIチップ市場のリーダー候補であり、収益も急拡大中。IPO資金でさらなる成長を遂げられる」という将来像を提示できたのです。2023年の好業績は、上場に向けた絶好のアピール材料となりました。

SECへのIPO申請概要:NASDAQ市場に「CBRS」で上場準備

Cerebras Systemsは2024年9月に米証券取引委員会(SEC)へIPO申請書(S-1書類)を提出しました。申請書によれば、同社はナスダック市場への上場を予定しており、ティッカーシンボルは「CBRS」を希望しています。公開時の発行株数や価格帯は当初明らかにされませんでしたが、報道によれば最大10億ドルの資金調達を目指す可能性があるとされています。主幹事(リードアンダーライター)にはシティグループとバークレイズが選定され、他にもUBSやウェルズ・ファーゴ、三菱UFJ(みずほ)証券など複数の投資銀行が参加する大型IPO体制が敷かれました。S-1書類からは、Cerebrasの事業内容や財務状況も詳細に読み取れます。そこでは「AIチップ市場が2024年の1310億ドルから2027年には4530億ドル規模に成長する」との予測が示され、巨大全体市場の中でCerebrasが十分なシェアを得られる余地が強調されています。またリスク要因として、売上の大部分が特定顧客(G42)に依存していることや、NVIDIAなど強力な競合の存在、製造パートナーTSMCへの依存などが挙げられました。これらは投資家への情報開示として欠かせない事項です。IPO申請によりCerebrasは事実上市場デビューに向けた透明性を確保し、投資家コミュニティからの評価を受ける段階に入りました。なお申請直後、米外国投資委員会(CFIUS)がG42からの出資について安全保障上の審査を行っているとの報道があり、上場スケジュールに影響する可能性も伝えられました。しかし2025年5月にはフェルドマンCEOがインタビューで「CFIUSの承認を得た」と述べ、G42株式問題も解決に向かったことが明らかになっています。現在Cerebrasは、2025年内の上場を目指し着々と準備を進めている状況です。

IPOで調達予定の資金用途と今後への期待

最後に、CerebrasがIPOで得る資金の用途と将来への期待について展望します。同社はIPOを通じて数億〜10億ドル規模の資金を調達し、それを研究開発や事業拡大に投入するとみられます。具体的には、第4世代以降のWSE開発やプロセス微細化対応への投資、クラウド事業の設備増強、そして人材採用などに充てる計画でしょう。またM&Aの余力を得て、関連するソフトウェア企業や人材の買収に乗り出す可能性もあります。市場からは、上場後のCerebrasがさらに技術リーダーシップを強化し、NVIDIAに次ぐAIハード企業として確固たる地位を築くことが期待されています。実際、IPOは知名度の向上にも寄与し、大企業との取引や政府プロジェクト参画など新たなビジネス機会を呼び込むでしょう。例えば各国のAIスーパーコンピュータ計画にCerebrasシステムが採用されるシナリオも考えられます。一方で上場企業となることで四半期ごとの業績プレッシャーも高まりますが、Cerebrasの場合は長期的ビジョンを示しやすいAIブームの文脈があるため、市場も成長重視で評価する可能性が高いです。投資家からは「AIチップ初の大型IPO」としてCerebrasに熱い視線が注がれており、ChatGPT公開以降初のジェネレーティブAI関連IPOとして話題性も十分です。今後、Cerebrasが無事上場を果たせば、調達資金を追い風にさらなる技術開発と市場開拓を進めることになるでしょう。ポストIPOのCerebrasが、GPUに続く新たなAI計算インフラの柱としてどこまで成長できるか、そしてAI業界全体にどんなインパクトを与えるか、今後も目が離せません。

Cerebras Systems、オープンソースGPTモデル公開とIPO申請で注目を集める最近の動向を解説

ここまでCerebras Systemsの技術やビジネスについて解説してきましたが、最後にごく最近のトピックをまとめます。Cerebrasは2023年前後から、自社で訓練した大規模言語モデル(GPTモデル)のオープンソース公開という大胆な施策を打ち出し話題をさらいました。また上述の通り2024年にはIPO申請を行い、世間の注目をさらに集めています。これら最近の動向が持つ意味と、Cerebrasの今後の展望について解説します。

GPTモデルのオープンソース化を決断した背景と理由

2023年3月、Cerebrasは独自に訓練した大規模言語モデル群「Cerebras-GPT」をオープンソースで公開するという驚きの発表を行いました。背景には、AI研究コミュニティへの貢献と自社ハードウェアの宣伝という二つの狙いがありました。当時、OpenAIのChatGPTがブームとなる一方で、その基盤モデルであるGPT-3はブラックボックスであり、多くの研究者が大規模モデルへのアクセスに制約を感じていました。Cerebrasは自社の高性能計算基盤を使えば、オープンにモデルを開発・公開できることを示し、AI開発の民主化に貢献しようと考えたのです。また同時に、Cerebrasのハードウェアがいかに高速に大規模モデルを訓練できるかを実証し、潜在顧客にアピールする意図もありました。実際、Cerebras-GPT公開に際し同社は「多くの企業がNVIDIA GPU代替を謳う中、Cerebrasは世界で初めてGPU以外のシステムで大規模モデルを訓練・公開した」と強調しています。この決断は、自社の技術力への自信と、オープンテクノロジーでAIを前進させようとする姿勢の表れと言えます。

公開された7つのGPTモデル:最大130億パラメータモデルの特徴を紹介

Cerebrasが公開したCerebras-GPTは、パラメータ数1.11億から130億まで計7種類のGPTベース大規模言語モデル群です。最大のモデルは130億パラメータ(130億の重み)を持ち、OpenAIのGPT-3(1750億パラメータ)には及ばないものの、当時オープン公開されたモデルとしては最大級でした。これらモデルはすべてCerebrasの16台構成クラスタ「Andromeda」でChinchillaの法則(計算最適なデータ量)に沿って訓練されており、各モデルサイズにおける高い精度を実現しています。特徴として、トランスフォーマーの標準アーキテクチャに基づきながらも学習効率を最適化している点や、Apache 2.0ライセンスで商用利用も可能な点が挙げられます。特に130億モデルは、推論において当時一般公開されていたGPT-3系モデルに匹敵する性能を示しつつ、モデルと学習レシピが公開されているためコミュニティでの検証や改良が可能です。CerebrasはGitHubやHugging Face上でこれらモデルを公開し、誰でもダウンロードして試せるようにしました。この公開によって、研究者らは大規模モデルのスケーリング法則を研究したり、自分のデータで微調整したりといった実験を自由に行えるようになりました。Cerebras自身もこれらモデル公開を通じて得られたフィードバックをハード/ソフトの改善に活かすとしています。総じて、Cerebras-GPTの公開は単なるマーケティングに留まらず、オープンソースAIの発展に資する重要な貢献となりました。

業界の反応とオープンソース化の意義:競合との差別化ポイント

CerebrasのオープンソースGPTモデル公開は業界に強いインパクトを与えました。多くの専門家やメディアは「GPU以外のハードウェアでこれほど大規模なモデルを訓練し公開したのは初」と評価し、Cerebrasの技術力を改めて印象付ける結果となりました。Karl Freund氏(Cambrian-AIリサーチのアナリスト)は「今回の公開はCerebrasのシステムが一流のAIトレーニング基盤であることを示すと同時に、同社がAIコミュニティのトップ集団に加わったことを意味する」とコメントしています。また競合他社との差別化という点でも意義深い動きでした。他のAIハードウェア企業、例えばGraphcoreやGoogle(TPU開発元)などは、ハードの性能デモは行っても自社で大規模モデルを開発・公開するところまでは踏み込んでいませんでした。Cerebrasはあえて自らモデルを公開することで「ハードからモデルまで手掛ける包括的なAI企業」という印象を与え、単なるチップベンダー以上の存在感を示しました。さらにオープンソース化により、多くの研究者・企業がCerebrasのモデルを試す中で、自然とCerebrasハードウェアやクラウドへの関心も高まります。この相乗効果はマーケティングとしても成功だったと言えるでしょう。一方でOpenAIやNVIDIAなどは最新大型モデルを公開しない方向に動いており、開発競争がクローズドになる懸念もあります。その中でCerebrasが公開路線を取ったことは、AIの民主化に資する戦略として賞賛する声も多く聞かれました。総合すると、業界の反応はおおむね好意的で、Cerebrasは技術力アピールとブランド強化に大きく貢献した形です。これは競争の激しいAIハード市場で他社と一線を画す差別化ポイントにもなっており、同社の戦略眼の確かさを示しています。

IPO申請の事実公表:投資家が注目するポイントと市場の反応

2024年9月末、Cerebrasが米国IPO申請を公表すると、投資家や市場関係者から大きな注目が集まりました。投資家が注目したポイントの一つは、前述したG42からの収益集中でした。IPO申請資料によれば、2023年の売上の大半(83%)がG42関連であることが明かされ、一社依存のリスクが指摘されました。しかし同時に、これほどの大型契約を取れるCerebrasの営業力や技術優位性が評価された面もあります。また投資家はCerebrasの成長ポテンシャルにも注目しています。市場規模の予測(2027年にAIコンピューティング市場4,530億ドル)から逆算すると、現在のCerebrasの売上は極めて小さく、伸び代が大きいと映ります。さらに「ChatGPT以降初のジェネレーティブAI関連IPO」という物語性もあり、市場には新規公開銘柄への期待感が高まりました。実際、CerebrasのIPOニュースが流れた直後には一部報道で「AIチップのユニコーン企業上場へ」「ポストNVIDIAとして注目」といった見出しが躍り、株式投資系フォーラムでも話題となりました。もっとも、公開時のバリュエーション(評価額)が適正かについては議論もあります。2021年時点で評価額40億ドルだった同社が、IPOでどの程度の時価総額を狙うのかは不透明です。AIバブル的な熱狂を織り込んで高い価格が付けば、上場後の値動きに警戒も必要でしょう。しかしCerebrasの場合、その技術的独自性から投機的な人気が集まりやすく、短期的には活発な取引が見込まれます。市場の反応としては、おおむね「満を持しての上場」「AIブームを象徴するIPO」と好意的に受け止められており、Cerebras株の登場を心待ちにする声も多く聞かれます。今後、正式なIPO価格レンジや日程が決まればさらに注目度は増すでしょう。

上場見通しとCerebrasの今後:AIチップ業界へのインパクトを展望

現時点(2025年)で、Cerebras Systemsの上場は間近に迫っていると見られています。フェルドマンCEOは2025年内のIPO実現に意欲を示しており、必要な規制面のクリアランスも得たことから、あとは市場状況を見極めてタイミングを図る段階です。仮にCerebrasが予定通り上場を果たせば、AIチップ業界に与える影響は小さくないでしょう。まず、他のAIハードスタートアップ(例えばGraphcoreやH100対抗ASICメーカーなど)にとっても刺激となり、追随して資金調達やIPOを検討する動きが出るかもしれません。投資家目線では、Cerebrasが公開市場でどの程度の評価を受けるかが、AIハード分野全体の将来性を占う指標となります。またユーザー企業にとっても、上場企業となることでCerebrasへの信頼感や知名度が増し、採用の心理的ハードルが下がる可能性があります。製品開発面では、IPOで得た資金によりWSEの次世代開発(例えばWSE-4や新たなアーキテクチャ開拓)が加速し、競争力が一段と向上するでしょう。さらに、上場によって経営の透明性が高まれば、より多くのパートナー企業や政府プロジェクトとの連携も期待できます。総合的に見て、Cerebrasの今後は明るい展望が開けています。ただし競合であるNVIDIAも容易に牙城を明け渡すつもりはなく、同社はソフトウェアも含めた包括力で依然として優位です。Cerebrasとしては、IPO後も研究開発と市場開拓を両輪で進め、ニッチからメインストリームへ食い込む戦略を堅持する必要があります。幸い、市場全体の成長予測を踏まえると一社寡占にはならない余地があり、複数のアプローチが共存し得ます。Cerebrasがその一角を担うことで、AIチップ業界はより多様で活発なイノベーションの場となるでしょう。今後数年、Cerebras Systemsがどのような進化を遂げ、AI技術の発展にどれだけ寄与するのか、その動向から目が離せません。

資料請求

RELATED POSTS 関連記事