あるの?
私が見つけることができるすべての定義は、データのサイズ、複雑さ/多様性または速度を説明しています。
ウィキペディアの定義は、実際の番号で見つけた唯一のものです
ビッグデータサイズは、2012年現在、単一のデータセットで数十テラバイトから数ペタバイトのデータに至るまで、常に変化するターゲットです。
ただし、これは、次の段落で参照するMIKE2.0の定義と矛盾しているように見えます。これは、「大きな」データは小さく、3GBのデータのみを作成する航空機の100,000個のセンサーは大きいと見なされることを示しています。
IBMは次のように言っていますが:
ビッグデータは、サイズの問題よりも単純です。
オライリー "volume, velocity and variety"
も同様に強調しています。よく説明されていますが、より詳細に、定義は他の人の再ハッシュであるようです-もちろんその逆です。
Computer Weeklyの記事タイトルは、「ビッグデータとは何か、それを使用して競争上の優位性を得るにはどうすればよいか」という記事をかなりうまく要約していると思います。
しかし、ZDNet は2012年から次のように勝ちました。
「ビッグデータ」は、IT市場の高性能コンピューティングニッチから浮上しているキャッチフレーズです...テクノロジーの10のサプライヤーからのプレゼンテーションを見てみると、15ほどの異なる定義が出てくる可能性があります。もちろん、各定義は、そのサプライヤの製品とサービスの必要性をサポートする傾向があります。想像してみろ。
基本的に、「ビッグデータ」は何らかの形で「ビッグ」です。
「大きな」とは何ですか?現時点で定量化できますか?
「大きな」が定量化できない場合、一般性だけに依存しない定義はありますか?