【GTC2018 現地レポート】2日目 - NVIDIAのCEO、Jensen Huangによる基調講演 -

アメリカ カリフォルニア州サンノゼで、3月26日から29日の4日間開催されているNVIDIA(エヌビディア)のイベント「GTC2018」の現地レポートをお送りします!現地レポートは、複数回お届けする予定です。今回は、その第2回です!


こんにちは。アナリティクスサービス本部の太田です。 NVIDIAが開催する GPU の技術イベント「GTC2018」2日目のレポートです。

■NVIDIAのCEO、Jensen Huangによる基調講演

2日目は、NVIDIAのCEOであるJensen Huangによる基調講演がありました。GTCのメインイベントということもあり、事前に「2日目の朝はとても混むので早めにご来場ください」というメールを頂いていたため、およそ1時間前に会場に到着。

ところが、既に長蛇の列に...

行列は、巨大な会議場から溢れ出し、僕らは会場の反対側の入り口付近で並ぶことに。Google Maps によると、行列の長さはだいたい300mくらい。だいたい2列に並んでいたので、60cm間隔で並んでいるとして、僕らはだいたい1000番目くらいだったようです。

全く進まない行列に、基調講演を聞けないことも覚悟しましたが、1時間ほど並んで基調講演の始まる少し前に講演会場に入ることができました。

とても広い会場で、立ち見の方もいた事を考えると、おそらく5,000人はいたのではないかと思います(一説には8,000人という話も)。

■Qua dro GV100 と NVIDIA RTX

基調講演では、いくつかのトピックがありましたが、まず初めに発表されたのが「Quadro GV100」です。 Star Wars を使ったデモでは、NVIDIA RTX という技術と組み合わせて、本当にリアルタイムなレイトレーシングを行っていました。

レイトレーシングは、光の軌跡を追跡していって、リアルな3D画像を生成する技術のことで、僕は高校時代に何分間もかけて1枚の画像を生成した記憶があります。なので、「きれいだが、リアルタイムな処理には向かない技術」という認識だったのですが、最近は違うみたいですね。

それから、もう1点気になったのは、リアルタイムなレイトレーシングの実現には深層学習が欠かせないらしいということ。光は色々なところで反射を繰り返すため、すべてを真面目に計算するとさすがに大変。そこで超解像のような技術を使って、光の軌跡を推定するのだとか(というようなことを言っていた気がしますが、英語力の問題で間違っているかもしれません)。深層学習を「使いこなしている」感があって、とても印象的でした。かっこいいな。

Quadro GV100 に続いて、機械学習屋さんの興味を引く発表もありました。Tesla V100 の32GB版とDGX-2です。

DGX-2は、16個のV100をNVSwitchを使ってつないだ化物で、「THE LARGEST GPU EVER CREATED」と表現されていました。

性能もDGX-1とは比べ物にならないと。これがたったの$399Kで買えるらしいですよ > 草野会長。

それから、個人的に嬉しかったのが、 Kubernetes on NVIDIA GPUs。Kubernetesのようなオーケストレーションツールの話がGPUの技術カンファレンスで出てくるとは。GPUを実サービスに導入することを考えると、どうしても避けては通れない壁なので、NVIDIAがこっち方面にも力を入れてくれそうなことがわかってよかったです。また、実際にCPUとシングルGPU、Kubernetesによる分散GPUで推論の速度が確かに早くなっていることを確認した上で、インスタンスを意図的に落としても自動的に修復するため「何もかわらない」というデモもよかった。

他にも、VRをつかった自動車(実車両)の運転など、デモが豊富にあり、楽しめた基調講演でした。

■午後はセッションと企業展示

午前中がキーノートだったということもあり、2日目は参加できるセッションが限られていました。私が参加した中で良かったのは、「Monte Carlo Methods and Neural Networks」(Noah Gamboa)という発表。

今の深層学習には無駄が多いんじゃないの?という発想のもと、無駄をうまいこと省く研究です。

深層学習では、dropout/drop connectionと呼ばれる手法がいたるところで使われています。通常のdropoutでは、全てのニューロンが、一定の確率で採択されますが、この講演では、重みの絶対値に応じた確率で採択しているようです(dropout partitions)。

多層のニューラルネットでは、接続の数が、その層への入力の数 x 出力の数(ノード数)で決まるため、おおまかにいって、接続の数は各層のノード数の2乗になります。この研究では、dropout partitions の確率を使って、入力層から出力層までランダムウォークをさせて、通った経路を採択するという方法で、接続の数を少なくしており、実験してみたところ、10%〜20%くらい残しておけば精度は担保されたんだとか。

モデルの無駄を省いたり、圧縮したりする研究は、今後深層学習がいろいろな場面で使われていくことを考えると、応用先を広げるという意味で興味深いです。

さて、今日は1日目にはなかった企業展示もありました。特に17:00〜の「Happy Hour & Exhibits」という時間には、お酒やつまみを食べながら展示を回ることができて楽しかったです。企業展示の詳細は明日のブログでレポートしてくれることを期待しつつ、今日のところは以上にしようと思います。



ブレインパッドは、イベントへの参加や最先端の情報収集など、さまざまな取り組みを積極的に実施しています。実際のビジネスで自分の知識・技術を活用してみたいという方、ぜひエントリーください!

www.brainpad.co.jp