人工知能の第3の波

LINEで送る

人工知能とロボットの未来 第2回

~最新の人工知能とは?~

 

2016年11月1日

人工知能は、1950年代から始まり、2度廃れた時期があったが、今あらためて注目を集めています。それは、「ディープラーニング」日本語名「深層学習」と呼ばれる機械学習技術の登場です。2012年、アメリカのGoogleが、コンピュータに猫を認識vさせたと発表しました。YouTubeの大量の画像をこのディープラーニング技術を使って読み込ませとところ、猫の特徴量を示すメットワークを構築したものが登場し、画像学習や音声認識などで、従来と比べて高い精度を実現した。

 

コンピュータが描いた猫(図1)

 

ディープラーニングとは?

 

 

ディープラーニングは、一言でいうと、過去のニューラルネットワークの発展版です。左のダイヤグラムは、過去のニューラルネットワークですが、人間の神経細胞同志が情報の伝達をするように、様々な情報から、猫の特徴をより分けていくようにしようとしましたが、3層以上にすると特徴の精度が上がらず、使いモノになりませんでした。

 

 

一旦人工知能の研究は下火になったのですが、そのあとも研究は継続されており、先述した、2012年のグーグルの発表をきっかけとして、研究が再燃した格好です。

機械学習にはさまざまな方法がありますが、とくに現在注目されているのは、機械が独自で学習していく教師なし機械学習と呼ばれるもので、グーグルの猫の特徴を機械が独自に学習したと言われるものです。ちょっとここで、ディープラーニングの基本アルゴリズムを紹介します。

 

そのアルゴリズムとは、自己符号化器と多層学習と呼ばれるものです。

自己符号化器(Auto Encoder)入力層と出力層は同じ学習させたい正解のデータを読み込ませ、真ん中の「隠れ層」のデータをあえて、入力層、出力層より少なくします。

例えば、1000個の正解データに対して、100個の隠れ層の特徴量で表現できるようにニューラルネットワークの重みを調整します。こうすることで、特徴量を圧縮していくことができます。

また、自己符号化器では、この特徴量圧縮を行う際に、少しデータ特徴の違うものも加えます。

そして、圧縮された特徴量を持つ隠れ層は、次の層においてまた入力層と出力層として用いられ、また間にある隠れ層は、少ないデータ量に設定し、次第に特徴量が圧縮されるといった具合です。

このように、自己符号化器を何層も積み重ねることで、分類させたいデータに対して、どのようなパラメータで学習すれば精度がよくなるのか、コンピュータ自身で最適化することを可能にしたのです。

この深層学習で何ができるのか、その実用化が猛烈な勢いで進んでいます。とくに画像認識の分野で、自動運転用や、音声認識で、スマホの音声検索、自動翻訳、ロボットの行動生成など期待されている。とくに、画像認識では、GPU(Graphics Processing Unit)のコンピュータの性能向上により、ニューラルネットの階層を20-30層と深くし、ニューロン数も百万個ほどに大規模化した場合でも、数時間~数日で学習できるようになりました。短期的には、パターン認識にこのディープラーニングがいち早く応用化されると思われます。

ただし、現時点のディープラーニング技術では、ちまたでいわれている、人間の仕事を置き換えると見るのは早合点だと思います。

 


図2 日経エレクトロニクス2015年6月号より出典

 

次回記事では、現在実用化の進む応用例について、説明進めていきたいと思います。

 

毛利元

LINEで送る

ビジネスハブ香港Facebook:www.facebook.com/businesshub.hk
ビジネスハブ香港Twitter:www.twitter.com/BusinesshubHK
■□ビジネスハブ香港へのお問い合わせは下記よりお願い致します。■□ http://businesshub.hk/contactus/

You may also like...

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください