Google、機械学習に最適化した「Cloud TPU」を発表

Cloud TPU / Google

Googleは、年次開発者会議「Google I/O 2017」で、機械学習に最適化した第2世代の TensorFlow Processing Unit(TPU)と、それを用いたクラウドサービス「Cloud TPU」を発表しました。
サンダー・ピチャイ(Sundar Pichai)CEOは、「機械学習やAIの進化は、コンピュータアーキテクチャの見直しを迫っており、そのためにAIファーストデータセンターを構築している」、また「カスタムハードウェアのTPUは、CPUや GPUよりも15倍から30倍高速で、30倍から80倍も電力効率が高い」と述べています。

写真は1台の「Cloud TPU」ボードで、ここに4つのチップが搭載され、ボード1つあたり180テラフロップス(1秒間に180兆回の演算)の能力を備えています。データセンター内では、これを64台まとめた「TPU Pods」を構成し、このポッドあたり 11.5 ペタフロップス(1秒間に1.15京回の演算)の能力があると述べています。

A “TPU pod” built with 64 second-generation TPUs delivers up to 11.5 petaflops of machine learning acceleration.

理化学研究所のスーパーコンピュータ「京」は、1秒間に1京回の演算ができることから「京」と名付けられています。

Googleの Jeaf Dean氏によれば、「TPU Pods」の能力の8分の1を使って機械翻訳モデルの学習を処理したところ、「現在販売されている最速の GPUを32個使った場合に丸1日かかった処理が、TPUポッドでは同じ翻訳精度を保ったまま午後には処理が終了するようになった」と説明しています。

Google、モバイルから AI ファーストの世界へ(Sundar Pichai)


プレステ3で米空軍が格安スパコンを製作

Custom Metal Gear Solid PS3 / Burned Pixels

米空軍研究所(本部・オハイオ州)は、ソニーの家庭用ゲーム機「プレイステーション(PS3)」約1700台を使ったスーパーコンピュータを製作したと明らかにしました。性能は、世界のスパコンランクで35位くらい。今後の能力向上で20位程度となる予定です。同様のスパコンを作るには5,000〜8,000万ドル(42.5〜68億円)かかるのに比べて200万ドル((1.7億円)程度で作れたそうです。いいですね(^^)

マルチコアソリューションを提供する日本企業フィックスターズ(Fixstars Solutions, Inc.)によると、今回のクラスターシステムでは、高速マルチコアプロセッサCell Broadband Engine(Cell/B.E.)を搭載したPlayStation®3を2,016台連結(この内1,700台は2010年1月にフィックスターズより納入)、そのハードウェア性能を最大限引き出すYellow Dog Enterprise Linuxを活用することで、500テラFLOPSの処理速度を実現する見通しです。

安価なPlayStation®3を採用することによりプロジェクト全体の初期投資を200万ドルに抑え、投資対効果では世界トップレベルのシステムを実現しています。AFRLではこの膨大な計算パワーを、合成開口レーダ画像処理等最先端な研究に活用していく予定だそうです。この日米の研究スタイルの違いは、人材の違いですか?それとも・・・・。

天然資源が少なく、少子高齢化に向かっている日本は、世界最速スーパーコンピュータよりも、世界最大の知的データベースを構築して、世界最速の教育・知的ネットワークを駆使した「技術ではない科学」「環境」「文化」の「知的創造立国」と「雇用の拡大」を目指した方がいいと思います(^^)製造業一辺倒から知的コンテンツ作りへ・・。