Google、機械学習に最適化した「Cloud TPU」を発表

Cloud TPU / Google

Googleは、年次開発者会議「Google I/O 2017」で、機械学習に最適化した第2世代の TensorFlow Processing Unit(TPU)と、それを用いたクラウドサービス「Cloud TPU」を発表しました。
サンダー・ピチャイ(Sundar Pichai)CEOは、「機械学習やAIの進化は、コンピュータアーキテクチャの見直しを迫っており、そのためにAIファーストデータセンターを構築している」、また「カスタムハードウェアのTPUは、CPUや GPUよりも15倍から30倍高速で、30倍から80倍も電力効率が高い」と述べています。

写真は1台の「Cloud TPU」ボードで、ここに4つのチップが搭載され、ボード1つあたり180テラフロップス(1秒間に180兆回の演算)の能力を備えています。データセンター内では、これを64台まとめた「TPU Pods」を構成し、このポッドあたり 11.5 ペタフロップス(1秒間に1.15京回の演算)の能力があると述べています。

A “TPU pod” built with 64 second-generation TPUs delivers up to 11.5 petaflops of machine learning acceleration.

理化学研究所のスーパーコンピュータ「京」は、1秒間に1京回の演算ができることから「京」と名付けられています。

Googleの Jeaf Dean氏によれば、「TPU Pods」の能力の8分の1を使って機械翻訳モデルの学習を処理したところ、「現在販売されている最速の GPUを32個使った場合に丸1日かかった処理が、TPUポッドでは同じ翻訳精度を保ったまま午後には処理が終了するようになった」と説明しています。

Google、モバイルから AI ファーストの世界へ(Sundar Pichai)


シーンの大域的かつ局所的な整合性を考慮した画像補完

ディープネットワークによるシーンの大域的かつ局所的な整合性を考慮した画像補完

早稲田大学の飯塚里志氏とシモセラ・エドガー氏、石川 博氏による画像補完の研究論文が、SIGGRAPH 2017に正式に採択されました。

ディープラーニングによって複雑な画像補完を行う手法を提案しています。画像中の不要な物体を消したり、人の顔を変化させたりもできます(^^)
動画では、面白い精度の高い画像補完技術を見ることができます。

提案モデルは、補完ネットワーク、大域識別ネットワーク、局所識別ネットワークから構成されています(下図参照)

実際の画像補完に使用するのは補完ネットワークのみであり、2つの識別ネットワークは補完ネットワークの学習のために使用されます。補完ネットワークはすべての層が畳み込み層で構成、補完対象の損失領域を定義したマスクと画像が入力されると、損失領域が補完された画像が出力されます。損失領域以外の領域は入力画像に置き換えることで最終的な補完画像が得られます。

大域識別ネットワークは補完された画像全体を入力として補完画像が全体的に整合性のある構造になっているかを評価します。局所識別ネットワークは補完領域をパッチとして切り出して入力として補完領域のより詳細な自然さを評価します。

補完ネットワークは識別ネットワークが見分けられないように、識別ネットワークは補完ネットワークの出力画像を見抜くように、それぞれのネットワークを交互に学習していくことで補完ネットワークに自然な画像補完を学習させています。