iPadよりも巨大な半導体チップが、AIの研究を加速させる

通常の半導体チップは人の爪よりも小さいものだが、あるスタートアップがiPadよりも巨大なチップを開発した。場合によってはGPU数百個分の処理能力を発揮するという化け物のようなチップが狙うのは、AI研究をさらにスピードアップさせることにある。
iPadよりも巨大な半導体チップが、AIの研究を加速させる
PHOTOGRAPH BY CEREBRAS

コンピューターの頭脳であるCPU(中央演算処理装置)などの半導体チップは、通常は小さい。最新のiPhoneやiPadを駆動させるCPUは、人の爪よりも小さいほどだ。クラウドサーヴァーに使用されている高性能なプロセッサーでさえ、切手ほどの大きさもない。

ところが、あるスタートアップから登場した新しい半導体チップ「Cerebras(セレブラス)」は、なんとiPadよりも大きいのだ。

まさに“シリコンモンスター”とも呼ぶべきこの半導体チップは、約22cm四方もの史上最大サイズである。おそらくテック業界において人工知能AI)への希望を象徴する記念碑となることだろう。

「狂気の沙汰」だが合理的

開発元のセレブラス・システムズ(Cerebras Systems)は、この巨大チップを高性能AIシステムを短期間で構築したいテック企業向けに提供しようとしている。

半導体メーカーのマイクロン・テクノロジーでフェローを務め、AI向け半導体チップを設計した経験があるユージニオ・クルチェッロ(このプロジェクトには参加していない)は、Cerebrasの規模と野望は「狂気の沙汰」であると言う。一方で、ヴァーチャルアシスタントや自律走行車といった大規模なAIプロジェクトでは膨大な計算能力が要求されるため、合理的でもあると指摘する。「高額にはなるでしょうが、使う人もいるでしょう」

いまや何でもAIがブームとなっているが、そのAIを支えるのはディープラーニングだ。AIシステムは、アルゴリズムによって膨大な参考データを解析する「学習」プロセスを経ることで、特定のタスクに最適化される。

使われる学習データは、腫瘍にアノテーションをつけた医療スキャン画像から、ゲームで人間が勝つためのトライアンドエラーを集めたデータなど、さまざまだ。こうして作成されたソフトウェアは、学習するデータが多ければ多いほど、また学習システム自体がより大きく複雑であればあるほど、一般により強力である。

GPUが“束になって”かかるAIプロジェクト

最も野心的なAIプロジェクトのなかには、この処理能力が足かせになっているものもある。ディープラーニング学習におけるエネルギー消費量を調査した最近の研究によると、言語処理ソフトウェアを1点開発するために35万ドル(約3,800万円)かかることがわかった。

また、AIを研究する営利団体のOpenAIの推定によると、2012年から18年にかけて公開された最大規模のAI実験では、総計算量が約3.5カ月ごとに倍増しているという。

より高い処理能力を切望するAI研究者たちがよく使うのは、GPU(グラフィックス・プロセッシング・ユニット)だ。ディープラーニングのブームも、この技術を支える計算にGPUが適しているという発見がきっかけになっている。

この“偶然”のおかげで、GPUのトップメーカーであるエヌヴィディア(NVIDIA)の株価は、ここ5年で8倍にまでなった。最近ではグーグルがディープラーニングに特化したプロセッサー「TPU(Tensor Processing Unit)」を開発し、多くのスタートアップも独自のAI用チップの開発に乗り出している。

画像認識のようなタスクでAIを学習させるには、多数のGPUを配線でつないでクラスター状にしたものを使う。2018年にマルチプレイヤーオンラインバトルアリーナ(MOBA)ゲーム「Dota 2」でプロプレイヤーを下したOpneAIのボットには、何週間もかけてつながれた数百個ものGPUが使われている。

Cerebras(写真左)は、AI研究者に人気のあるNVIDIAのGPU(同右)の数倍のサイズだ。トランジスタの数は、NVIDIAのGPUが211億個であるのに対し、Cerebrasは1.2兆個にも達する。PHOTOGRAPH BY CEREBRAS

試すこともできなった実験が可能に

Cerebrasの表面積は、2017年の時点で最も複雑な半導体チップとして発表されたNVIDIA最強のサーヴァー用GPUの56倍もある。セレブラス・システムズの創業者兼最高経営責任者(CEO)のアンドリュー・フェルドマンによると、Cerebrasは1個で(タスクにもよるが)数百個のGPUクラスターがこなす計算を処理でき、電力消費量も設置面積もずっと少なくて済むという。

CerebrasによってAIの研究、そしてAIの分野そのものの進歩が加速するとフェルドマンは言う。「もっと多くの試行錯誤ができます。これまでは試すことさえできなかった実験がたくさんありましたから」

こうした主張は、Cerebrasに搭載されている膨大なオンボードメモリーにもある程度は裏付けされている。このメモリーのおかげで、より複雑なディープラーニングソフトウェアの訓練も可能になるのだ。フェルドマンによると、この巨大さによるもうひとつのメリットは、いくつもの半導体チップをつなげた場合と比べて、データの移動速度が約1,000倍も高速になるということにある。

もっとも、巨大で強力な半導体チップの生産には課題がいくつもある。大半のコンピューターは、チップが過熱しないように冷却ファンを使っているが、セレブラス・システムズはチップの側に水冷システムをつくらなければならなかった。

巨大チップの製造法

フェルドマンによると、現在数社の顧客が医薬品の開発といった用途でチップを試しているという。同社は半導体チップの単独販売ではなく、完全なサーヴァーを構築しての販売を考えているが、価格や発売時期については回答しなかった。

この巨大なチップをつくるにあたり、セレブラス・システムズは半導体の委託製造大手である台湾のセミコンダクター・マニュファクチャリング・カンパニー(TSMC)と緊密に連携している。ちなみに、アップルやNVIDIAといった企業もTSMCの顧客だ。

TSMCで上席副社長を務めるブラッド・ポールセンは、1980年代初頭から半導体業界で働いてきたが、Cerebrasはこれまで見たなかで最大サイズの半導体チップだと話す。

1枚の長く幅広いチップをつくるため、TSMCはまず製造装置を変えなくてはならなかった。半導体を生産する企業(ファウンドリー、あるいは「ファブ」とも呼ばれる)は、高純度の丸いシリコンウェハーからチップをつくる。1枚のウェハーに格子状に並べたチップを多数形成してから、各チップに切り出していくのが通常の工程だ。

最新のファウンドリーで使用されるウェハーは、直径300mm。1枚のウェハーからは、通常100個以上ものチップがつくられる。しかし、Cerebrasという巨大なチップをつくるにあたり、TSMCは格子状のチップを多数つくるのではなく、ひとつの巨大チップを生産できるように装置に変更を食らえたのだとポールセンは言う。

Cerebrasは300mmのウェハーから切り出せる最大の正方形だ。「これを見た人たちは『こんなことができたのか? 自分たちもこっちの方向で試してみるべきかもしれない』と思うことでしょうね」と、ポールセンは話す。

使うのは巨大テック企業か

世界最大の半導体メーカーであるインテルも、ディープラーニングに特化した半導体チップを開発中だ。中国の検索大手バイドゥ(百度)とパートナーを組んで、AI学習を加速させるためのチップもつくっている。

グーグルのAIチップによって、競合他社たちも新しいチップの必要性を確信した。そう指摘するのは、インテルでコーポレート副社長兼AI製品グループのジェネラルマネージャーを務めるナヴィーン・ラオだ。TPUによって「グーグルは半導体チップの新基準を打ち立てたのです」とラオは言う。

ラオいわく、特殊形状のチップは「販売が難しい」という。すでに購入したハードウェアを手放したい顧客はいないからだ。「業界を変えるには、物事を少しずつ進めなくてはなりません」

Tirias Researchの創業者であるジム・マクレガーもまた、「すべてのテック企業が急いでCerebrasのような特殊なチップを買おうとするわけではありません」と指摘する。Cerebrasを搭載したシステムは数百万ドルもする可能性があり、これを採用するにしても既存のデータセンターに変更を加える必要があるだろうと、彼は言う。さらに、AI研究者がこの新しいチップを採用しやすくなるよう、セレブラス・システムズはソフトウェアを開発する必要もある。

それでも、AI分野での競争力に社運をかける巨大テック企業、つまりフェイスブックやアマゾン、バイドゥなどは、この巨大で奇妙な半導体チップを真剣に検討するはずだ、とマクレガーは考えている。「巨大テック企業なら大いに合点がいくことでしょうね」


RELATED ARTICLES

TEXT BY TOM SIMONITE

TRANSLATION BY MASUMI HODGSON/TRANNET