★★★

直近、メディアで急速に目にするようになった「ビッグデータ」というフレーズですが、本書ではその思想的背景から丁寧に説明しています。

これまでは技術的な制約のため、データ全体から一部を偏らないように抽出することが一般的な統計分析のやり方でしたが、大量の情報をそのまま全て分析することがビッグデータの本質のようです。インターネットの普及、そして直近ではSNSの普及により人類が利用可能なデータ量は飛躍的に増えました。しかし、データ量の増加以上に、プロセッサーやメモリなど情報機器の性能が向上したため、以前のようにデータを適当なサイズにまで抽出により減らす必要がなくなり、膨大なデータをそのまま分析できるようになりました。

また、分析手法にも大きな変化が生まれました。以前であれば、検証したい仮説があらかじめあって、それを検証するために適切な分析対象を選び、一部に絞って情報を抽出し、仮説を検証するという手順で分析が進められましたが、情報処理能力が爆発的に上昇したことで、力技でありとあらゆる事象の相関を調べることが可能になりました。つまり、何も仮説がなくとも、膨大なデータを分析することで、誰も考えもしなかった2つの事象に相関があることを見つけるという分析が主流になってきています。

本書では、このビッグデータ時代の、データ全体を対象として力技でありとあらゆる分析を行うという手法の威力が、グーグルやアマゾン、ウォルマートなどビジネスにおける具体例とともに分かりやすく説明されています。

著者は、2人ともハーバード大学のケネディスクールに在籍していたことがあり、政治学分野で活躍していていた人物なので、ビッグデータ時代のプライバシーやビジネスシーンにおいて必要な規制などにも目配りされた内容となっています。

ITにおける新しいタームの通例として、ビッグデータも言葉ばかりが先行している印象がありますが、その実態をバランスよく把握するのに最適な入門書だと思います。