【大数据分析】纷繁复杂的数据越多越好

大数据
执迷于精确性是信息缺乏时代和模拟时代的产物。在那个信息贫乏的时代,任意一个数据点的测量情况都对结果至关重要。所以,我们需要确保每个数据的精确性,才不会导致分析结果的偏差。

\

传统的样本分析师们都很难容忍错误数据的存在,因为他们一生都在研究如何防止和避免错误的出现。

在收集样本的时候,统计学家会用一整套的策略来减少错误发生的概率。

在结果公布之前,他们也会测试样本是否存在潜在的系统性偏差。这些策略包括根据协议或通过受过专门训练的专家来采集样本。但是,即使只是少量的数据,这些规避错误的策略实施起来还是耗费巨大。

尤其是当我们收集所有数据的时候,这就行不通了。不仅是因为耗费巨大,还因为在大规模的基础上保持数据收集标准的一致性不太现实。就算是不让人们进行沟通争吵,也不能解决这个问题。

大数据时代要求我们重新审视精确性的优势。如果将传统的思维模式运用于数字化、网络化的21世纪,就会错过重要的信息。

执迷于精确性是信息缺乏时代和模拟时代的产物。在那个信息贫乏的时代,任意一个数据点的测量情况都对结果至关重要。所以,我们需要确保每个数据的精确性,才不会导致分析结果的偏差。

如今,我们已生活在信息时代,我们掌握的数据库越来越全面,它不再只包括我们手头现象的一点点可怜的数据,而是包括了与这些现象相关的大量甚至全部数据。我们不再需要那么担心某个数据点对整套分析的不利影响。我们要做的就是要接受这些纷繁的数据并从中受益,而不是以高昂的代价消除所有的不确定性。

在华盛顿州布莱恩市的英国石油公司切利博因特炼油厂里,无线感应器遍布于整个工厂,形成无形的网络,能够产生大量实时数据。酷热的恶劣环境和电气设备的存在有时会对感应器读书有所影响,形成错误的数据。

但是数据生成的数量之多可以弥补这些小错误。随时监测管道的承压使得BP能够了解到,有些种类的原油比其他种类更具有腐蚀性。以前,这些都是无法发现也无法防止的。

有时候,当我们掌握了大量新型数据时,精确性就不那么重要了,我们同样可以掌握事情的发展趋势。

大数据不仅不再让我们期待精确性,也让我们无法实现精确性。

然而,除了一开始会与我们的直觉相矛盾之外,接受数据的不精确和不完美,我们反而能够更好地进行预测,也能够更好地理解这个世界。

值得注意的是,错误性并不是大数据本身固有的。它只是我们用来测量、记录和交流数据的工具的一个缺陷。

如果说哪天技术变得完美无缺了,不精确的问题也就不复存在了。

错误并不是大数据固有的特性,而是一个亟需我们去处理的现实问题,并且有可能长期存在。

因为拥有更大数据量所能带来的商业利益远远超过一点精确性,所以通常我们不会再花大力气去提升数据的精确性。

这又是一个关注焦点的转变,正如以前,统计学家们总是把他们的兴趣放在提高样本的随机性而不是数量上。如今,大数据给我们带来的利益,让我们能够接受不精确的存在了。

责任编辑:未丽燕 来源: 大数据观察
相关推荐

2013-10-11 16:21:39

虚拟机

2019-07-17 16:21:18

电脑风扇散热

2020-12-04 19:17:00

智能手机手机摄像头主摄

2023-08-30 11:35:29

大数据分析数据驱动

2016-11-23 20:34:29

Cloudera

2022-04-04 17:52:20

模型计算DeepMind

2015-08-14 10:28:09

大数据

2017-07-22 00:41:27

大数据数据存储

2017-10-16 12:37:55

2021-08-06 11:01:23

大数据数据分析技术

2013-04-09 09:28:20

大数据大数据全球技术峰会

2015-07-23 09:34:57

大数据数据分析

2011-07-21 08:49:06

软件项目

2019-07-31 14:16:35

大数据人工智能算法

2015-08-11 15:52:52

大数据数据分析

2021-10-12 15:25:08

大数据数据分析

2022-03-29 14:49:14

大数据数据分析

2016-11-25 15:22:35

物流大数据巨头

2015-10-28 10:01:52

数据分析大数据小数据
点赞
收藏

51CTO技术栈公众号