松尾先生、人工知能と広告の未来はどっちですか?【前編】

人工知能がイヌとオオカミの違いを見分ける

松尾:まず「認識」とは、画像認識のことです。人間はネコ、イヌ、オオカミの写真を見れば、すぐに区別できますが、人工知能にとってはこの判別が非常に難しかった。コンピューターは丸い目をしているとネコ、細長い目で耳がたれているとイヌ、細長い目で耳がとがっているとオオカミといった特徴から判定します。そのため、これまでの人工知能はシベリアンハスキーの写真を見せると、誤ってオオカミと判定してしました。

ところが人間は、シベリアンハスキーを見ても「オオカミっぽいよね」とは思うものの、イヌだと判断します。しかし、その「イヌらしさ」を言葉で定義するようにお願いすると、明確に答えられずに困ってしまう。この人間の微細な判断基準になっているものを「特徴量」というのですが、これを人間が定義している限りは、画像認識の精度は上がりませんでした。

今までの人工知能は、すべて人間が現実世界をモデル化して、その後に機械が自動計算していたのです。ところが昨今、現実世界から重要な要素を見抜いて抽象化することを人工知能が行い始めた。そのきっかけとなる技術が「ディープラーニング」です。

その結果、画像認識の精度は一気に向上し、12年にエラー率が16%を切る人工知能が現れました。さらに13年に11.7%、14年には6.7%とエラー率は下がり、15年にはマイクロソフトが4.9%、グーグルが4.3%を出しました。人間の画像認識のエラー率は5.1%ですから、15年に初めてコンピューターが画像認識で人間の精度を越えたのです。

現実世界で人間は画像認識という能力を使った、たくさんの仕事をしています。この結果は、それら全てを自動化できる可能性が出てきたということを意味しています。

ロボットが自ら学ぶことが可能に

松尾:次に起きているのが「運動習熟」です。ロボットが自ら練習して、上達できるようになりました。強化学習というテクノロジーは昔からあり、特定の状況での行動を「良い」「悪い」といって学んでいくのですが、これまでは特定の状況を人間が定義した特徴量を使っていました。それが現在はディープラーニングで、人工知能自らが自動的に取り出した特徴量を使えるようになりました。

13年にアルファ碁がブロック崩しを学習していく実験映像が公開されました。そこでは、人工知能が画像認識によって丸いボールや打ち返すバーをどう動かせば点が入りやすいかを学んでいきます。最初は下手ですが、だんだん上達して、最終的には左端を狙い始めます。そこが一番、大量得点につながることに気付いたからです。

昔からコンピューターは、医療診断や数学の定理の証明は得意でしたが、3歳児ができるような画像認識や積み木を積むといった作業が苦手でした。これは「モラベックのパラドックス」と呼ばれ、この状況が何十年も続いていました。それが今、覆りつつあるのです。

次ページ 「AIが言葉を理解する」へ続く

前のページ 次のページ
1 2 3
電通デザイントーク
電通デザイントーク
電通デザイントーク
この記事の感想を
教えて下さい。
この記事の感想を教えて下さい。

このコラムを読んだ方におススメのコラム

    タイアップ