ビッグデータ分析

「ビッグデータ」とは、文字どおり巨大なデータを意味し、様々なソースから得られる大量の構造化データおよび非構造化データを指します。

「ビッグデータ」は、10年ほど前から注目されるようになったテクノロジーで、企業に蓄積された大量のデータは、統合、分析され有効活用されています。

 

ビッグデータの特徴

一般的にビッグデータには以下のような特徴があります。

  • 容量(Volume):データ量は数十テラバイト(TB)~数ペタバイト(PB)にもおよぶ。
  • スピード(Velocity):毎秒発生する大量のデータがリアルタイムで保存、処理される
  • 種類(Variety):企業の売上データや在庫データ、ウェブサイトのユーザー動線、カスタマーサービスの通話記録、SNS上のテキストや画像など、整形されたデータのみならず集計や比較が困難な「非構造化データ」を含む

上記3つの特徴は、ビッグデータを定義する「3つのV」と呼ばれていましたが、データの収集及び保管にかかるコストが低下するにつれ、正確性(Veracity)という「4つ目のV」が追加されました。収集したデータの正確性も重視されるようになり、非現実的なデータや異常値は除外され、正確な分析結果を得ることができるようになりました。

 

なぜ企業はビッグデータ分析を必要とするのか?

一般企業にとって有効なデータとは?