2630_main

人工知能が急速に進化し始めた。カーネギーメロン大学のTome Michell教授は、「コンピューターはこれまで人間の言語をほとんど理解できなかったが、今後10年でかなり理解できるようになるだろう」と、人工知能が急速な進化のフェーズに入ったことを示唆している。
急速に進化し始めた理由は2つある。1つは、コンピューターが大量のデータを扱えるようになったから。もう1つは、人間の脳を模した仕組みが実際に機能するようになってきたからだ。
変化はまた、チャンスでもある。
人工知能の進化は今、どこまで進んでいるのだろうか。それがどのような領域に、イノベーションを起こすのだろうか。日本を代表する新進気鋭の人工知能研究者、東京大学准教授の松尾豊氏に聞いた。

前編はこちらから

ブレークスルーは起きたばかり

――このブレークスルーはいつ起こったのですか。

松尾豊氏松尾 2006年に カナダのトロント大学のジェフリー・ヒントン(Geoffrey Hinton)教授が論文で示しました。でもアイデア自体は古くからあったのです。日本でも1980年代に福島邦彦先生が、ネオコグニトロンという同様のモデルを示しています。同じようなモデルを考えた人はたくさんいたのです。

――では、どうしてヒントン教授の論文がブレークスルーになったのでしょうか。

松尾 2012年に、機械学習の画像認識の国際的なコンペティションが開催され、ヒントン先生のチームが圧倒的な強さで優勝しました。普通、画像認識の精度はエラー率で示すのですが、それまでは画像認識のエラー率は26%前後だったのです。ところがヒントン先生のチームのエラー率は16%。圧勝でした。

――なるほど。ヒントン教授の説が実証されたわけですね。でも、人工知能が進化する上での課題は、Deep Learningのテクノロジーの進化以外にも、まだまだあるわけでしょう?

松尾 当然、課題はまだあります。ただ、これからここが大変そうだなというのは、それほどないのです。これまでの人工知能の発展には、「表現を獲得する」という巨大な壁が立ちはだかっていた。でもやっとその壁を越えることができた。技術的には、この先に「表現の獲得」ほどの大きな壁があるようには見えないですね。

――松尾先生は、Deep Learningを2歳までの脳の発達のようなものだとおっしゃいましたが、これから人工知能が「大人」になっていく上で、まだまだ大きなイノベーションが必要なのではないですか。

松尾 いや、2歳以降というか、専門知識の取り扱いの部分は既に出来上がっているのです。そのため表現を獲得できるようになったことで、これで一気に人工知能が進化するのではないかと思っています。

――なるほど。ではこのブレークスルーが起こったおかげで、今後人工知能はどのように進化していくのでしょうか。

松尾豊氏松尾 まず今は画像の特徴の抽象化が可能になったというステージです。次に画像以外のデータ。音声などもそうですが、そうしたデータの抽象化が可能になるでしょう。視覚や聴覚などの五感や,体性感覚(平衡感覚,空間感覚など)といった複数の感覚、いわゆるマルチモーダルなデータの抽象化のステージになっていきます。

そしてその次のステージは、自分の行動のデータと観察データを含めた抽象化です。赤ちゃんは0歳から1歳の頃に、手でものを触ったり、叩いて音を出したりできることに気づきます。自分が動くことで、モノが変化することを理解する。行動計画につながっていく。そういうステージです。同様にこの段階では、ロボットに搭載された人工知能は、回りのものを触ったり、叩いたりすることで、自分の行動データと観察データの抽象化ができるようになります。

――赤ちゃんが手足を使い始めるステージですか。

松尾 そうです。そして、その次のステージは、行為を介しての抽象化です。ガラスを認識するには、ガラスは割れやすいという認識が必要。自分が動くことで、モノが変化するということを利用して、モノを理解していくステージ。これによって壊れやすいものをやさしく触る、などということができるようになるのです。

――赤ちゃんは手当たり次第に、身の回りのモノを叩いたり、口の中に入れますよね。そうすることで、身の回りのモノがどういうものなのか理解していく。口の中に入れることで、食べることができるものか、おもちゃかを判断していく。そういうステージということですね。

松尾 そうです。そうして概念を抽象化できるようになると、その次のステージは、概念に言語をマッピングしていくステージになります。

――もう既に概念を理解しているので、その概念に「まんま」「ぶーぶー」「ワンワン」と名前をつけていくステージだということですか。

松尾 そして最後のステージは言語を理解したので、次にウェブや書籍から情報を取り込み、理解していくことで、どんどん賢くなるステージです。

――言葉を覚えた子どもが本を読んだり、学校へ行って、知識を習得し、その知識に基づいて行動するステージというわけですね。

人工知能が変える仕事

――では、こうした人工知能の進化は、今後どのような業務にイノベーションを起こしていきそうですか。

松尾豊氏松尾 まず画像の表現を獲得できるようになったことで、画像の認識精度が良くなるでしょうね。広告や、視覚による診断などにインパクトがあるかもしれません。

――買い物客の顔を認識して、男性には男性向けの広告を表示したりということですね。診断ということだと、例えばほくろが皮膚がんの疑いがある場合、スマホのアプリで判断できるようになるかもしれませんね。

松尾 次のマルチモーダルの段階に入ると、表現を獲得できるのが画像以外のデータにも広がってくるので、動画を使った防犯や、感情認識、ビッグデータ解析などにも利用できるようになると思います。

――ビッグデータ解析は今でもできますよね。

松尾 はい。ただDeep Learningは、自分でルールを再構築できるので、急な状況の変化に対しても比較的速く対応できるようになると思います。
そしてその次のステージは、行動ができるようになるので、農業や物流、ロボットなどの領域に影響を与えてくると思います。
そしてその次のステージ、行動を介した抽象化のステージでは、やさしく触る、壊れやすいものに注意する、という判断をロボットが自分でできるようになります。ですので、ロボットが日常生活の中に入ってきやすくなるでしょうね。家事、介護、他者理解、感情労働などの領域で人工知能が活躍しそうです。
そしてその次のステージでは、言葉を覚えていくので、翻訳、通訳の領域に大きなイノベーションが起こりそうです。

――最近の音声認識システムや翻訳システムはかなり精度を上げていますが、もっと良くなりますか。

松尾 今の仕組みでは、コンピューターは実際には言葉の意味を理解していないのです。1つの言語の言葉と、別の言語の言葉を結び付けているだけ。
でもDeep Learningですと、言葉の概念を理解するので、より的確に翻訳するようになります。
そして最後のステージでは、秘書業務や教育の領域にインパクトを与えそうです。

――なるほど、秘書業務はまさに最後のステージなのですね。確かに優秀な秘書は、実にいろいろな情報をインプットして、あらゆる状況を判断し、最適解を迅速に提案しますものね。

松尾 そういうことです。

図表:技術の発展と社会への影響

(図表提供:東京大学 松尾 豊准教授)

 

インタビューを終えて

2つの潮流が、人工知能を急速に進化させていることが分かった。実にワクワクする話だ。Deep Learningのブレークスルーは起こったばかりなので、まだビジネスに応用されるのに時間がかかるのではないか、そんなふうに思っていたのだが、11月10日に開催されたIBM主催のカンファレンス「THINK Forum Japan 2014」で講演したIBM Research担当シニア・バイス・プレジデントのジョン・E・ケリー氏は、「人間の脳を真似ることで、より高性能で小型化されたコンピューターを開発した」と、超小型のデバイスを披露していた。数センチ四方のICチップのような形状だった。これを複数個、立方体に組み立てた人工知能の画像も、スクリーン上で公開された。ロボットにも搭載できそうだ。

text:湯川鶴章(ITジャーナリスト)

松尾 豊氏

まつお・ゆたか
松尾 豊

東京大学大学院工学系研究科准教授
1975年、香川県生まれ。97年東京大学工学部卒業。2002年東京大学大学院工学系研究科電子情報工学博士課程修了。工学博士。産業技術総合研究所研究員、スタンフォード大学言語情報研究センター客員研究員などを経て07年より現職。シンガポール国立大学客員准教授を兼務。14年9月より人工知能学会倫理委員会委員長。共著に『東大准教授に教わる「人工知能って、そんなことまでできるんですか?」』


Sponsor Content Presented ByIBM

※日本IBM社外からの寄稿や発言内容は、必ずしも同社の見解を表明しているわけではありません。