2017年5月29日月曜日

人間の頭脳が機械に太刀打ちできなくなった。その2

先日、アルファ碁が、世界最強の棋士である中国人と対局して、3連勝した。
 で。
 もう、この深層学習によるソフトに人間が太刀打ちできないことが明確となった。

 ところで、3連勝したこの深層学習の「次」なるものが、記事となっていた。
 以下、新聞から抜粋。

 米グーグルの人工知能(AI)が世界最強の囲碁棋士を圧倒した。
 強さの秘密は「深層学習」と呼ぶ技術で、形勢を的確に読む直感に近い判断力を得たことだ。
 それを進化させた新技術が登場した。
 この「敵対的生成ネットワーク(GAN)」は2つのAIが競い合って能力を高め、リアルな画像などを作り出す

 将来は少ない情報から先を予測したり、AIが苦手な概念を獲得したりするのに役立つと研究者は期待する。
 液晶モニターに最初に映されたのは、砂の嵐のような画像。
 そこにだんだんとイヌの耳や鼻のような輪郭が現れ、最後にはチワワができあがった。
 早稲田大学の渡辺裕教授らが手がけたGAN技術の成果だ。
 完成したチワワの画像はピンぼけ写真のように見える。
 しかし、実在するチワワではない。「AIの競い合いによって、作り出された画像だ」と渡辺教授は話す。

 2種類のAIには役割があり、片方は目利きの役のもう一方をだまそうと画像をせっせと作る。
 目利きのAIは本物かどうか見抜こうとする。
 それぞれには、深層学習の機能を組み込んでおり、だまし合いを通じて能力を高める。
 こうした作業を繰り返すことで、現実に存在しそうな画像ができあがる。
 作文でもリアルな文章ができる可能性があるという。

 GANはグーグルのイアン・グッドフェロー氏が2014年に考案した。
 同社のほか米フェイスブックや米アップルなど世界的なIT企業や大学が研究に取り組む。
 米マサチューセッツ工科大学の子会社が発行する 「MITテクノロジーレビュー」誌は2017年のAIの5大潮流に選んだ。

 従来の深層学習では、AIが大量のデータを読み込み、物体などの特徴を自力で見つける。
 例えばネコとは何かを人間が教えなくても、ひげや耳、目の形、輪郭など画像の中から共通する特徴を探して学習する。
 囲碁でも大量の棋譜から打つ手の良しあしを学んだ。

 さらに膨大な自己対戦を繰り返して腕を磨いた。
 ただ、深層学習の場合でも、画像にあるものが何か、例えばネコならネコが映っていると示す必要がある。
 対し、GANは画像の中のものが何かを人間が指摘しなくても学習は可能になるという。

 東京大学の池上高志教授らは、キャンパスを撮影した動画から本物そっっくりな風景を作った。
 建物や樹木、通路などの特徴をつかんだリアルな描写だ。
 あたかも、人間か記憶にあるキャンパスを頭の中に思い浮かべているかのようだ。
 最先端の米国では、ラトガース大学などが「この鳥は白が交じった青色で、くちばしはとても短い」といった簡潔な説明文に対応する画像を作るAIを開発した。

 マサチューセッツ工科大の技術は1枚の写真から次のシーンを予測して動画にする。
 まだ初歩的な成果で課題は多いが、人間が想像したり、予想したりするのに似た機能を実現できると期待を集める。
 このほか「笑っている女性」から「無表情の女性」を引き「無表情の男性」を足すと「笑う男性」の画像を作れる。

 「目が笑っていない笑顔から 『作り笑い』という概念を理解できるようになるのでは」と京都大学の大羽成征講師は予想する。
 AIは人間と競うことで進歩を証明してきた。
 これからはAI同士が鍛え合うことで、概念を自ら学ぶ力を得るようになるかもしれない。
 GANはその「突破口になる」と多くの研究者は関心を寄せる。

補足、感想など

 よく分からない。
 図が書いてあって、説明されていた。

 画像を作るai                       目利き役のai
 →だましてやろう    ←見破ってやるぞ
 →できた        ←だめ
 →これは?       ←違う
 →直した        ←やっぱりダメ
 →これならどう?    ←ok
 次第に本物のような画像に近づく   と。

 深層学習の向こう側にあるものということか。
 一層、人間の頭脳は、機械に太刀打ちできなくなる。