我们几乎为每样东西收集数据,从出生率死亡率到粮食变量和交通状况。IBM公司估计每天有2.5个五万亿字节的数据产生。从这个角度来看:这等同于美国国会图书馆每24小时产生的数据的16.6万倍。但我们并不能掌控所有的信息。但由于近来先进的数据分析和计算机服务,我们终于有了改变它的工具。
As a data scientist for Los Alamos National Laboratory, I study data from wide-ranging, public sources to identify patterns in hopes of being able to predict trends that could be a threat to global security. Multiple data streams are critical because the ground-truth data (such as surveys) that we collect is often delayed, biased, sparse, incorrect or, sometimes, nonexistent.
作为洛斯阿拉莫斯国家实验室的数据科学家,我研究来自广泛公共来源的数据,以确定模式,希望能够预测可能对全球安全构成威胁的趋势。多个数据流是至关重要的,因为我们收集的基本事实数据(比如调查)常常是延迟的、有偏见的、稀疏的、不正确的,有时甚至是不存在的。
For example, knowing mosquito incidence in communities would help us predict the risk of mosquito-transmitted disease such as dengue, the leading cause of illness and death in the tropics. However, mosquito data at a global (and even national) scale are not available.
举个例子,了解蚊子在一个社区的叮咬发生率将会帮助我们预测蚊子的传染登革热病的风险,登革热是导致热带地区疾病和死亡的首要原因。然而,目前还没有全球(甚至全国)规模的蚊虫数据
【用大数据如何拯救世界?】相关文章:
★ 如何正确清洁牙齿
最新
2020-09-15
2020-09-15
2020-09-15
2020-09-15
2020-09-15
2020-09-15