統計と人工知能
最近、いろんな所で耳にする「人工知能」。
IBMのワトソンや、身近なところではSiriなど、
かしこいロボットがどんどん出てきて、夢にまでみたSFの世界が近づいていると感じる人も多いのではないでしょうか。
僕も其の一人で、
ディープラーニング、なんだかよくわからないけどすごいな、
人口知能の頭脳のコアの構造で、めちゃくちゃ高度なプログラミングで出来ているんだろうな〜と思っていました。
ところが、最近自分の研究関連で統計の勉強を始めて、気づきました。
あ、なんだ、人工知能って、ようするに統計じゃん。
ビックデータ(=蓄積された膨大な生データ)から非説明変数(=マーケティングなら店舗の売上等)を説明するために、各説明変数(立地、延べ床面積等)から重回帰分析などの相関式をつくり、予測し、フィードバック(=実測値との誤差を確認)する。それを繰り返すことで、式の精度を高め、正確な予測値を出す。
そうすると、例えば
「お店のどこそこにAという品物がある時、店舗の売上が伸びる」
なんていう規則性を発見する。
人間がなんとなく直感でやってることを、ルールを発見してその通りに動くのが人工知能。ルールは統計分析の手法に基づき算出される。
今のところこういう理解です。
浅い知識ですが、人工知能って研究でもよく使う統計の延長なのか、
と思うとぐっと親しみが湧いてきませんか?
一応。最近読んだ統計の本をのせておきます。
僕みたいに、統計ってなあに?というレベルの人でも全体像が理解しやすい。
体系的にまとまっている本です。おすすめ。
著者の栗原さんのざっくばらんな説明が親しみやすいです。
入門 統計学 -検定から多変量解析・実験計画法まで
-栗原伸一 (著)