StatsBeginner: 初学者の統計学習ノート

統計学およびR、Pythonでのプログラミングの勉強の過程をメモっていくノート。たまにMacの話題。

人工知能に関する番組と、素人的に気になること

松尾豊氏のインタビュー動画

 マル激(videonews.com)で、人工知能の研究をしている東大の松尾豊准教授のインタビューが放送されていたので、通勤時間にみました。私は会員なのでいつも有料放送もみてますが、これは無料の回なので、YouTubeに全部のっています。



【5金スペシャルPART1】松尾豊氏:人工知能が閻魔大王になる日 - YouTube
 

【5金スペシャルPART2】松尾豊氏:人工知能が閻魔大王になる日 - YouTube


 ディープラーニングなど近年の技術的なブレイクスルーによって、事前に与えられたパターン*1によって情報を分類するのではなく、何をパターンとして抽出すべきであるかについても自己学習できるような仕組みが可能になってきたというのは、なんとなく雰囲気的にはイメージできました。
 番組のなかでは、そういうアルゴリズム的な話はほとんどされていなくて、こういう技術の発展の歴史を「素人が雰囲気を知りたいレベル」で解説するとともに、それが社会的にどういうインパクトを与えるのかとか、倫理面を中心にどういう問題を引き起こしそうであるかといったことが、ざっくばらんに語られておりました。


 最後のほうで神保氏が「毎日研究室で、どういう作業をしてるんですか?」という、たしかに素人的には気になってしまう質問をしており、松尾氏は「みんなでプログラミングをしてます」とのこと。言語はPythonでやってるというのをきいて、Pythonを勉強するモチベーションが少し上がりました。私はもちろん、立派な機械学習のプログラムを書けるようになるなんてのは目指しておらず、エンジニアでも研究者でもないので、実際はほぼ全く関係ないのですが、なんか親近感が生まれましたw


 番組の中で強調されていたのは、教師なし学習の意義みたいなところでした。
 ITProに機械学習の連載記事があって、その解説によると、以下の様な話です。

 ここまで紹介してきたように機械学習を応用することで、モデルを作成するのに必要な人手は大幅に減っている。ただし、コンピュータがデータの中に潜むパターンやルールを学習していく上での「最初の手掛かり」は、人間が与える必要があった。
 具体的には、プログラマーがモデルの「特徴」を設定したり、人間が正解データをコンピュータに教えたりしていた。冒頭の焼きたてパンの画像認識で言えば、画像モデルの特徴は開発元が設定し、パンの画像は種類ごとに店が読み込ませていた。
 ところが最近、人間が何も教える必要のない機械学習技術が台頭してきた。グーグルやマイクロソフトなどが挑む「ディープラーニング」だ。
 ディープラーニングは、画像などの特徴をコンピュータが自ら抽出して、モデルを自動生成する手法である。人工知能の一手法であり、人間の脳を模したシステム「ニューラルネットワーク」を複数組み合わせ、多層構造にして使う。かねてより研究が進んできたが、グーグルが2012年に「コンピュータが猫を認識できるようになった」と発表したことで大きな話題になった(図10)。


「機械学習」革命 ~的中したビル・ゲイツの予言 - [機械学習革命3]機械が人間を超えた:ITpro


 要するに抽出すべき特徴量を人間が予め定義する必要がないのである、と。実際には、教師なし学習と教師あり学習は、組み合わせることで精度を上げていくみたいですが。
 これが何のことなのかということについては、素人としては、


 ↓この記事を読んでから、
 Googleの猫認識 (Deep Learning) - 大人になってからの再学習


 ↓このへんの資料をみながら分からない言葉をググることで、なんとなく雰囲気がつかめるような気がしました。私はパラパラとしか見てませんけど。
 実装ディープラーニング
 Tutorial on Deep Learning and Applications
 実装ディープラーニング
 
 

素人的に気になる点

 人工知能をつくっていると言われて、素人として気になることをいうと、たとえば1つは感覚器官と脳の関係はどういうふうに扱われるんだろうっていう点ですね。
 人間の脳というのは確かに情報を処理している機関で、電気信号のネットワークに過ぎないので、松尾氏のいうようにアルゴリズムに還元されるとは言えるのでしょうけど、情報のインプットはそれこそ身体中のあちこちで常に行われているわけですよね。その一つ一つの感覚は相互に無関係ではないと思うので、たとえば寒いときと暑いときでは、同じ問題を与えても脳が違った情報処理をするかもしれないし。100年ぐらい研究が続くと、そういう感覚的な情報処理と(言語などの)認知的な処理も、いずれは統合的に理解されていくんでしょうか。
 言語についていうと、人間の言語活動というのも、身体的な何かによって規定されている部分がけっこうあるはずで、言語情報だけを分析してもわからないことはかなり多いんじゃないかと想像します。たとえば山頂からみた景色に関する文学的な表現については、視覚、聴覚、嗅覚、触覚などのインプットを踏まえて言葉が選ばれているわけだし、小説を読んでどういう情景を思い浮かべるかはどういう情景を体験したことがあるかにもよると思います。
 つまり、言語を分析するにしても、そういう「言語外の感覚との相互作用」もモデルに組み込まないといけないという話になるんでしょうかね。知能と身体は人間においては統合されているわけですから、人間の知能だけをコピーすることは究極的には不可能だと思ったほうがいい気はします。


 あともう1つ、進化的な過程で身につけたのか何なのか知りませんが、人間の認知的・感情的な処理はいろいろなバイアスを持っていることが心理学などで明らかにされているわけですが、これはどうやって組み込まれていくのかというのも気になりますね。
 ある情報のインプットを受けたとして、合理的に考えれば「こう判断すればいいのに」と思うところで、なぜかいろいろと歪んだ判断をしてしまうのが人間で、学習によって乗り越えられていないバイアスもたくさんある。そもそも、後天的に身につけられたのではなく、先天的に仕込まれているとしか思えないバイアスも多い。
 そういうのは結局、学習アルゴリズムでなんとかするんじゃなくて、人間が明示的にプログラミングしていくんですかね?


 ・・・みたいなことが、素人的には気になりました。まぁべつに、人間の知能のコピーをつくるのが目的ではないとは思うので、何かの役に立てばOKぐらいの感じでいい気もしますが。
 
 

倫理の話

 私は文系で社会思想的なものに関心がある人間なので、冒頭の番組にも出てきた倫理面の話題に興味があります。といっても番組では、そんなに深い議論がされているわけでもなく、雑談みたいな感じではありましたが。
 何かの本で読んだ気もしますが*2、クルマの自動運転技術の話が取り上げられていて、正確にどういう例だったか覚えてないので適当に言い直すと、右にハンドルを切ったらAさんを轢いてしまう、左に切ったらBさんを轢いてしまう、直進したら運転手が死んでしまうという状況で、どう行動すべきなのかを決めるためのアルゴリズムは、どんなものであるべきなのか、みたいな話ですね。事前にプログラミングしないといけないわけなので。


 あと、
 Amazon.co.jp: ビッグデータの正体 情報の産業革命が世界のすべてを変える: ビクター・マイヤー=ショーンベルガー, ケネス・クキエ, 斎藤 栄一郎: 本
 この本に載ってた例でいうと、大量のデータと複雑なアルゴリズムを組み合わせることで、かなりの確率で「ある人間が、これから犯罪を犯しそうだ」ということが予測できるという場合に、そいつを拘束したりできるのかという問題ですね。
 ビッグデータ解析のやっかいなところは、予測の精度は極めて高いのだが、変数と変数のあいだの関係については推定のアルゴリズムが複雑過ぎて、人間には理解できない場合があることですね。あるいは、たとえば見かけ上の相関に過ぎない関係であったとしても、関係が明白なのであれば予測には使えるので、その間の因果的なつながりを気にすることなく分析を進めることはできる。
 その結果として、「理由(因果関係)がよくわからないにもかかわらず、予測がほとんど当たるので社会的な有用性がとても高い」ような分析手段を手にしてしまった場合、判断に非常に困ります。


 たとえば技術がかなり進んだとして、ある男が99%ぐらいの確率で1週間以内に強姦か何かを犯しそうだということが予測できる場合、そいつを捕まえたほうがいいのかどうか。捕まえることのメリットは明らかですが、まだそいつは何もしてないわけですよね。
 「こういう証拠があって、やばそうだと思ったから、予防的に捕まえた」ってのはべつに今でもあると思います。いろんな場面で。でも、ビッグデータ解析というのは「因果関係は人間にはよくわからないけど、データを組み合わせるとなぜか予測が当たる」って話です。「よくわからないのだが、コンピュータがお前は強姦をしそうだと言っているし、この予測は実績としてだいたい当たっているので、お前を捕まえる」ってのは、倫理的に許されるのかどうか。
 上の本では、予測だけで人を罰するのは許されないので、あくまでわれわれは「行動を罰する」という原則を貫かなければならないとは書かれていますが、こういうのはそんなカンタンに割り切った結論は出ないので、いろいろ議論が必要なんでしょう。嘘発見器を法的にどう扱うかなどの議論は似ている気がします(参考:【イギリス】 嘘発見器を使った性犯罪者監視制度の試行)。


 人間が何かを許せる/許せないと判断するときに、「誰かの責任」という観念はかなり深く我々の精神に根をおろしているので、誰に責任があるのかよくわからないようなシステムは、仮に有用性が高かったとしても受け入れられないかもしれないですね。
 私は個人的には、技術が発展すればするほど良い社会になるとも思わないので、「悩むぐらいなら開発しなければいいじゃん」って言いたいですが、世の中的にはそうも行かないとすれば、考えなければならないことがたくさんありそうです。

*1:正確にいうと、パターン認識の教科書とかを読むと、事前の分類は「カテゴリ」と呼び、データを「パターン」と呼びますが。

*2:サンデルかな