大数据对经济政治生活的影响 2000字
答案:1 悬赏:70 手机版
解决时间 2021-03-21 18:35
- 提问者网友:沉默菋噵
- 2021-03-21 04:01
大数据对经济政治生活的影响 2000字
最佳答案
- 五星知识达人网友:北城痞子
- 2021-03-21 04:39
大数据时代是一个将数据当作核心资产的时代,数据呈现出战略化、资产化和社会化等特征。随着数据作为国家战略资产意识的增强,以及越来越多的国家将数据管理上升到战略层面,大数据势必会以更加积极的姿态进入到公共管理和政府治理范畴内。无论是把大数据单纯作为一种技术,还是一种抽象理念,或者是一个时代背景,它都将对政府治理理念、治理范式、治理内容、治理手段等产生不同程度的影响。本文试图将大数据这一新概念与政府治理有机结合起来,阐述大数据时代背景下的政府治理将会发生什么新变化,面临哪些机遇和挑战。
一、“大数据”概念的界定
(一)“大数据”概念的提出与发展
2008年9月4日《自然》(Nature)刊登了一个名为“Big Data”的专辑,首次提出大数据(Big Data)概念,该专辑对如何研究PB级容量的大数据流,目前正在制订的、用以最为充分地利用海量数据的最新策略进行了探讨。[1]2011年5月,EMC(全球最大的外置存储硬盘供应商)举办了主题为“云计算相遇大数据”的大会,首次抛出了“大数据”(Big Data)的概念。紧随其后,IBM、麦肯锡等众多国外机构发布了“大数据”的相关研究报告,2011年6月麦肯锡全球研究所发布研究报告——《大数据的下一个前沿:创新、竞争和生产力》(Big data: The Next Frontier for Innovation, Competition, and Productivity)[2],首次提出“大数据时代”来临。此后,联合国、世界经济论坛也纷纷关注信息时代海量数据对社会经济发展所带来的冲击,2012年5月联合国“全球脉冲”(Global Pulse)计划发布《大数据开发:机遇与挑战》(Big Data for Development: Challenges & Opportunities)[3]报告,阐述了大数据带来的机遇、主要挑战和大数据应用。2011、2012年达沃斯世界经济论坛将大数据作为专题讨论的主题之一,发布了《大数据、大影响:国际发展新的可能性》(Big Data, Big Impact: New Possibilities for International Development)[4]等系列报告。
奥巴马政府创造性地将“大数据”概念全面引入到公共行政领域。2009年,美国联邦政府发布《开放政府指令》(The Open Government Directive),作为大数据的前奏推出了Data.gov公共数据开放网站。2012年3月,美国联邦政府发布了《大数据研究和发展倡议》(Big Data Research and Development Initiative)[5],正式启动了“大数据发展计划”,宣布将投入超过2亿美元在大数据研究上[6];同年5月,联邦政府发布《数字政府战略》( Digital Government Strategy)[7],致力于为公众提供更好的“数字化”服务,围绕数据进行的一系列措施在美国政府全面推进,大数据对美国政府的影响逐步显现。
(二)大数据的概念
“大数据”作为信息社会发展的一个新生事物,目前尚处在逐渐被认识、被应用的初始阶段,无论是学术界还是IT行业对大数据的理解各有侧重,尚未形成一套完整的理论体现,因此很难对行进行精准的定义。维基百科将大数据定义为“所涉及的资料量规模巨大到无法通过目前主流软件工具,在合理时间内达到撷取、管理、处理、并整理成为帮助企业经营决策更积极目的的资讯”[8]。全球知名的咨询公司如麦肯锡、Gartner以及知名信息化企业如IBM等作为大数据的推崇者,更侧重于从技术层面界定大数据。2011-2013年,Gartner发布了多个与大数据有关的白皮书,如“Hype Cycle for Big Data, 2012”,定义了大数据的技术生命周期,报告中指出大数据不只是一项单一的技术,而是一个概念,是一套技术。《互联网周刊》则认为,“大数据是通过对海量数据进行分析,获得有巨大价值的产品和服务,或深刻的洞见,最终形成变革之力”。[9]
⒈大数据的技术属性
大数据在诞生之初仅仅是一个IT行内的技术术语,维基百科将其定义为“无法用现有的软件工具提取、存储、搜索、共享、分析和处理的海量的、复杂的数据集合”,被概括为“4V”理论:
海量化数据(Volume)——数据体量巨大及规模完整性。随着数据加工处理技术的提高,网络宽带的成倍增加,以及社交网络技术的迅速发展,使得数据产生量和存储量成倍增长,数据规模从TB级别跃升到PB级别。
多样化结构(Variety)——数据类型繁多。随着物联网、社交网络、智能终端等的普及和应用,网络日志、视频、图片、地理位置信息等非结构化数据所占比例越来越大。
高速化处理(Velocity)——主要表现为数据流的处理速度快。数据规模的无限扩张既对高速化处理提出了新的要求,也为其带来了新的机遇,大数据的高速化处理要求具有时间敏感性和决策性的分析,要求能在第一时间抓住重要事件发生的信息。这一点也是大数据和传统的数据挖掘技术不同的本质区别所在。
低密度价值(Value)——体现出的是大数据运用的真实意义所有。数据规模大并不意味着价值高,相反,这些数据间更多的表现为稀缺性、不确定性和多样性。[10]
尽管对大数据难以明确定义,但大数据所具有的规模性(Volume)、多样性(Variety)和高速性(Velocity)特征被广泛地认同。在3V基础上,人们对大数据的第四特性有不同的看法,IDC认为大数据具有高价值性(Value),尽管这种价值更多地表现在低价值度的碎片化数据中,如何挖掘这种价值正是大数据的关键所在;IBM则认为大数据应该具有真实性(Veracity),真实性将促使人们利用数据融合和先进的数学方法进一步提升数据的质量,从而创造更高价值(参见图1)。[11]随着大数据应用的深入,人们对最初的“4V”有了不同的理解和看法。2013年IBM提出了新的“4V”理论。数量(Volume)、多样性(Variety)、速度(Velocity)和精确性(Veracity)。IBM认为,尽管前3个V涵盖了大数据本身的关键属性,但真实性是当前亟需考虑的重要维度,将促使他们利用数据融合和先进的数学方法进一步提升数据的质量,从而创造更高价值。[12]2014年,IBM发布了《践行大数据承诺:大数据项目的实施应用》(Realizing the Promise of Big Data: Implementing Big Data Projects)白皮书,在该报告中对进一步扩展了大数据的特性,首次提出将大数据的特性由4V扩展为“Vs”。[13] “Vs”在大数据已有特性的基础上,增加了数据粘度(Viscosity),主要用来衡量数据流间的关联性(resistance to flow of data);数据易变性(Variability),主要衡量数据流的变化率;数据有效性(Volatility),主要表明数据有效性的期限和存储的期限时长。我们认为,未来随着大数据技术的发展成熟,以及人们对大数据应用的深入,大数据的“Vs”特性将会不断变化和拓展。
一、“大数据”概念的界定
(一)“大数据”概念的提出与发展
2008年9月4日《自然》(Nature)刊登了一个名为“Big Data”的专辑,首次提出大数据(Big Data)概念,该专辑对如何研究PB级容量的大数据流,目前正在制订的、用以最为充分地利用海量数据的最新策略进行了探讨。[1]2011年5月,EMC(全球最大的外置存储硬盘供应商)举办了主题为“云计算相遇大数据”的大会,首次抛出了“大数据”(Big Data)的概念。紧随其后,IBM、麦肯锡等众多国外机构发布了“大数据”的相关研究报告,2011年6月麦肯锡全球研究所发布研究报告——《大数据的下一个前沿:创新、竞争和生产力》(Big data: The Next Frontier for Innovation, Competition, and Productivity)[2],首次提出“大数据时代”来临。此后,联合国、世界经济论坛也纷纷关注信息时代海量数据对社会经济发展所带来的冲击,2012年5月联合国“全球脉冲”(Global Pulse)计划发布《大数据开发:机遇与挑战》(Big Data for Development: Challenges & Opportunities)[3]报告,阐述了大数据带来的机遇、主要挑战和大数据应用。2011、2012年达沃斯世界经济论坛将大数据作为专题讨论的主题之一,发布了《大数据、大影响:国际发展新的可能性》(Big Data, Big Impact: New Possibilities for International Development)[4]等系列报告。
奥巴马政府创造性地将“大数据”概念全面引入到公共行政领域。2009年,美国联邦政府发布《开放政府指令》(The Open Government Directive),作为大数据的前奏推出了Data.gov公共数据开放网站。2012年3月,美国联邦政府发布了《大数据研究和发展倡议》(Big Data Research and Development Initiative)[5],正式启动了“大数据发展计划”,宣布将投入超过2亿美元在大数据研究上[6];同年5月,联邦政府发布《数字政府战略》( Digital Government Strategy)[7],致力于为公众提供更好的“数字化”服务,围绕数据进行的一系列措施在美国政府全面推进,大数据对美国政府的影响逐步显现。
(二)大数据的概念
“大数据”作为信息社会发展的一个新生事物,目前尚处在逐渐被认识、被应用的初始阶段,无论是学术界还是IT行业对大数据的理解各有侧重,尚未形成一套完整的理论体现,因此很难对行进行精准的定义。维基百科将大数据定义为“所涉及的资料量规模巨大到无法通过目前主流软件工具,在合理时间内达到撷取、管理、处理、并整理成为帮助企业经营决策更积极目的的资讯”[8]。全球知名的咨询公司如麦肯锡、Gartner以及知名信息化企业如IBM等作为大数据的推崇者,更侧重于从技术层面界定大数据。2011-2013年,Gartner发布了多个与大数据有关的白皮书,如“Hype Cycle for Big Data, 2012”,定义了大数据的技术生命周期,报告中指出大数据不只是一项单一的技术,而是一个概念,是一套技术。《互联网周刊》则认为,“大数据是通过对海量数据进行分析,获得有巨大价值的产品和服务,或深刻的洞见,最终形成变革之力”。[9]
⒈大数据的技术属性
大数据在诞生之初仅仅是一个IT行内的技术术语,维基百科将其定义为“无法用现有的软件工具提取、存储、搜索、共享、分析和处理的海量的、复杂的数据集合”,被概括为“4V”理论:
海量化数据(Volume)——数据体量巨大及规模完整性。随着数据加工处理技术的提高,网络宽带的成倍增加,以及社交网络技术的迅速发展,使得数据产生量和存储量成倍增长,数据规模从TB级别跃升到PB级别。
多样化结构(Variety)——数据类型繁多。随着物联网、社交网络、智能终端等的普及和应用,网络日志、视频、图片、地理位置信息等非结构化数据所占比例越来越大。
高速化处理(Velocity)——主要表现为数据流的处理速度快。数据规模的无限扩张既对高速化处理提出了新的要求,也为其带来了新的机遇,大数据的高速化处理要求具有时间敏感性和决策性的分析,要求能在第一时间抓住重要事件发生的信息。这一点也是大数据和传统的数据挖掘技术不同的本质区别所在。
低密度价值(Value)——体现出的是大数据运用的真实意义所有。数据规模大并不意味着价值高,相反,这些数据间更多的表现为稀缺性、不确定性和多样性。[10]
尽管对大数据难以明确定义,但大数据所具有的规模性(Volume)、多样性(Variety)和高速性(Velocity)特征被广泛地认同。在3V基础上,人们对大数据的第四特性有不同的看法,IDC认为大数据具有高价值性(Value),尽管这种价值更多地表现在低价值度的碎片化数据中,如何挖掘这种价值正是大数据的关键所在;IBM则认为大数据应该具有真实性(Veracity),真实性将促使人们利用数据融合和先进的数学方法进一步提升数据的质量,从而创造更高价值(参见图1)。[11]随着大数据应用的深入,人们对最初的“4V”有了不同的理解和看法。2013年IBM提出了新的“4V”理论。数量(Volume)、多样性(Variety)、速度(Velocity)和精确性(Veracity)。IBM认为,尽管前3个V涵盖了大数据本身的关键属性,但真实性是当前亟需考虑的重要维度,将促使他们利用数据融合和先进的数学方法进一步提升数据的质量,从而创造更高价值。[12]2014年,IBM发布了《践行大数据承诺:大数据项目的实施应用》(Realizing the Promise of Big Data: Implementing Big Data Projects)白皮书,在该报告中对进一步扩展了大数据的特性,首次提出将大数据的特性由4V扩展为“Vs”。[13] “Vs”在大数据已有特性的基础上,增加了数据粘度(Viscosity),主要用来衡量数据流间的关联性(resistance to flow of data);数据易变性(Variability),主要衡量数据流的变化率;数据有效性(Volatility),主要表明数据有效性的期限和存储的期限时长。我们认为,未来随着大数据技术的发展成熟,以及人们对大数据应用的深入,大数据的“Vs”特性将会不断变化和拓展。
我要举报
如以上问答信息为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯