トレンドコラム

基礎知識

駆け出し奮闘記Vol.1
~いまさら聞けない人工知能~

2018.06.14

営業本部 GPUセールス&マーケティング担当 亀谷 淑恵

営業本部
GPUセールス&マーケティング担当
亀谷 淑恵

囲碁や将棋、画像・音声認識、患者の症例や株価の予測など、さまざまな分野で人工知能の活躍の場が広がっていますね。SF映画のような便利な世界が現実になりつつあるワクワク感の一方で、近い将来、わたしたち人間の仕事の半分程度が人工知能に取って代わられてしまうという話も聞こえてきます。
この記事を書いているわたしは23歳の駆け出し社員。社会人生活はあと40年以上も残っています ( 笑 ) 。そこで人工知能を正しく理解するために、そもそも人工知能とはなんなのか?人間の脳と人工知能の違いはなんなのか?気になることを色々調べていきたいと思います!

そもそも人工知能ってなに?

「AI」「機械学習」「ディープラーニング」「ニューラルネットワーク」などなど、世の中には人工知能に関連する用語があふれています。なんとなく意味は分かったつもりでいますが、明確な違いを説明するのは難しいですよね。
これらはどのように使い分けられているのでしょうか?まず用語の意味について調べてみました!

人工知能 ( AI )

さまざまな定義がありますが、一般的に「計算機による知的な情報処理活動を行うシステム」が人工知能と呼ばれているようです。人工知能と聞くとつい、人間と同じように考え、判断し、行動することができるロボットやシステムを想像してしまいますが、現在の人工知能は特定分野のタスク処理に特化した「特化型人工知能」。人間に近い「汎用人工知能」の実現にはまだまだ時間がかかるそうです。
ところで、みなさんは音声検索サービスを使ったことがありますか?iPhone ( ※1 ) のSiri ( ※1 )やGoogleアシスタント ( ※2 ) など、どこかで一度は利用したことがあるのではないでしょうか。こうした技術も以前は人工知能の一部とされていましたが、すでに一般に普及した現在は人工知能とは呼ばれません。技術の進歩によって変わっていくんですね!

※1 iPhone、siriは、米国および他の国々で登録されたApple Inc.の商標です。iPhoneの商標はアイホン株式会社のライセンスにもとづき、使用されています。

※2 「Google」はGoogle LLCが提供するサービスです。

機械学習

「機械学習」というと、ロボットが学校で授業を受けているようなイメージが浮かびます。どうやらこのイメージはそう間違いではないようで、機械学習は「人間が与えたデータを元にコンピュータがモデルを作成し、自分で推論するしくみ」と定義されているようです。
人間の学生が数学を勉強するときも、先生から公式を教わり、それをもとに練習問題を解ますが、コンピュータも同じようなことをやっているんですね!

深層学習 ( ディープラーニング )

機械学習の代表的な手法のひとつで、一言で表すと「人間が直接教えなくても、さまざまな情報を基にしてコンピュータが自ら学習していく技術」とされています。機械学習では、何を学ぶかの特徴設計を人間が実行する必要がありましたが、ディープラーニングは対象データを与えるだけでコンピュータ自身が特徴を抽出し、自ら学習していきます。

まとめると、次の図のような位置づけになりますね。

「ディープラーニング」ってなんだか近未来的で面白そうです。今回はこのディープラーニングについて調べてみようと思います!

そもそも人工知能はいつからあるの?

「人工知能」という言葉が最初に登場したのは1956年のダートマス会議といわれています。ここで世界初の人工知能プログラム「Logic Theorist」が発表されました。インターネットの前身といわれるARPANETが誕生したのは1967年なので、インターネットが整備されるはるか前から人工知能の基礎研究が始まっていたんですね!

当時の人々からすれば夢のような発表だったのではないでしょうか?その証拠に、1960年代には「2001年宇宙の旅」や手塚治虫の「火の鳥」などのフィクション作品にも人工知能が登場し始めました。その後も「ターミネーター」や「ブレードランナー」などにも登場し、いまやSF映画には欠かせない存在といえます。
しかし、一般のメディアやニュースで取り上げられるようになったのは最近ですよね。なぜでしょうか?

それは、人工知能の進歩には限界があることが指摘されたためです。当時提唱されていた理論では、総当たりで解けるような単純な問題なら計算できるものの、複雑な条件がからみあったより実用的な問題を解くことはできなかったのです。

たとえば、わたしたち人間が将棋やチェスなどのゲームをしているときは、盤上の状況・自分の持ち駒など複数の要素から指し手を判断しています。しかし単純な問題しか解けない当時の人工知能では、人間の知的思考には遠く及ばなかったようです…。著名な研究者からこのような課題が指摘されたため、研究機関への補助金が打ち切られ、人工知能に関する研究開発は長く停滞することになってしまいました。

しかし近年、ディープラーニングが登場したことにより、再び人工知能ブームが巻き起こり、ついにビジネスシーンでも商用化されるまでに飛躍的な進歩を遂げました!

ディープラーニングはいつできたの?

2010年代に入り、米国のとある研究チームがディープラーニングを使った画像認識技術を発表します。この技術により、飛躍的に高い精度の解析ができるようになり、長年滞っていた人工知能研究にブレークスルーを起こしました。
今度こそ、一過性のブームで終わらず、人間と同じような思考ができる人工知能が実現するのでしょうか!?

ディープラーニングが発展した背景として、IoTの普及によりビッグデータの収集が容易になったことや、GPUの登場による計算性能の向上が挙げられています。ところで、GPUとはなんなのでしょうか?CPUならなじみがありますが…。

GPUとは?

GPU ( Graphics Processing Unit )について検索すると「リアルタイムグラフィック描画に特化したプロセッサ」という検索結果がヒットします。オンラインゲームやCGのレンダリングを得意とするチップのようですが、なぜこれがディープラーニングに使われているのでしょうか?

GPUはもともと行列計算用に開発されたもので、CPUと比べるとクロック数は速くありませんが、一度に大量の並列計算を行うことに優れています( CPUの場合、多くても数~数十コアほどですが、GPUではなんと5000コア以上搭載されているものもあります! ) 。

ディープラーニングでは、膨大な量の行列計算を繰り返すことで計算の精度を高めています。このため、より効率的に計算可能なGPUがマッチしているんですね。
いまではディープラーニング用のGPUも登場しています。こうなるともはや「Graphics」ではないので、GPGPU ( General-purpose computing on graphics processing units ) と呼ばれているようです。

ちなみに、あまり意識していませんが、わたしたちが普段使っているPCやスマホにも、モニター出力のためのGPUが組み込まれています。もちろんスペックは大きく異なりますが、わたしたちも最新のディープラーニング研究で使われるプロセッサの仲間を使っているということです。ちょっと身近に感じますね!