人口统计项目解决方案说明书_第1页
人口统计项目解决方案说明书_第2页
人口统计项目解决方案说明书_第3页
人口统计项目解决方案说明书_第4页
人口统计项目解决方案说明书_第5页
已阅读5页,还剩6页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人口统计项目解决方案说明书XX科技股份有限公司编制目录TOC\o"1-2"\h\u一、项目存在问题及需解决问题 31. 存在问题 32. 需解决问题 4二、解决方案 51.解决方案架构 52.关键技术 6三、开发范围 91. 数据生产 92. 数据采集/消费 93. 数据分析 104. 数据展示 11

项目存在问题及需解决问题存在问题传统人口统计需要投入大量的人力和物力且组织工作较为繁重。同时,不能进行实时统计,人口普查间隔周期过长,数据容易失去连续性。随着时间推移,数据分析的准确性也有偏差,影响人口工作决策。传统的人口统计主要有以下几个方面的难点。统计周期长随着人口数量的增加、人口流动性的增大,传统的人口数据采集更加困难,且在统计过程中所耗费的时间、人力、物力也相当可观。从1949年至今,中国分别在1953年、1964年、1982年、1990年、2000年与2010年进行过六次全国性人口普查。人口普查每10年进行一次,第六次人口普查大致划分为准备阶段、入户调查和复查阶段、数据汇总和资料开发利用阶段等三个阶段,共历时4~5个月。资源耗费巨大2010年第六次人口普查,中央政府和地方政府安排80亿元左右的预算资金,借调和招聘超过600万名普查人员。政府为何要投入如此大的力量呢?因为人口统计对国家意义重大,对老百姓来讲也非常重要,是国家制定经济、社会等各项政策的最基本依据,关系到公共设施的建造及社会保障体系的建设、就业岗位的提供和基本公共服务均等化的推进等。尽管有充足的投入和支持,在第六次人口普查中依然存在流动人口多、人户分离现象普遍、入门较难等很多挑战。质量控制难度高由于人口统计工作量大可能导致调查的精确度下降,调查质量不易控制。调查过程中可能会出现瞒报漏报、调查内容有限等问题,易产生重复和遗漏现象,从而影响统计数据的真实性;加之时间的推移和人口流动迁移等因素,也促成了部分指标统计误差较大、数据参考价值降低的情况。尽管有人口信息资源,但目前在人口信息资源的管理方面还不完善,数据统计路径不一致、数据失真现象严重,数据共享机制不健全,致使人口数据在实际应用中发挥的作用十分有限。数据不可跟踪人口抽样会遇到涉及面窄、翔实数据信息难获得、外来人口信息资源严重缺乏等问题。传统人口统计数据不具备时效性,不能满足事前预测的需求,无法有效避免一些危机情况发生。传统统计数据关联性不高,没有连续性,无法追踪行为轨迹,关联社会关系。传统的人口抽样统计方式如同一潭湖水,是静止的,而人是动态的,因此传统人口统计方式缺少灵活性及可延伸空间。需解决问题来自电信运营商的真实数据更灵活、个性化。人口统计通过对海量的电信数据进行挖掘分析,基于可靠的建模技术构建人口统计模型、人口分类模型、业务识别及分析模型、消费行为聚类分析模型等,在业内处于领先水平。这些海量数据是传统人口调查需要耗费巨大付出才能收集到的,且具备相当高的真实度。现在通过大数据可以用相对低的成本得到更加丰富、更多维度的数据分析。构建具备长效机制的数据生态平台。人口统计平台是随着时间、条件的变化而不断丰富、发展和完善的可持续发展平台。它如同一个数据的大水库,开源节流,不断注入新数据,给出更精准的数据分析。人口统计平台可以随着需求不断升级,融合多维度数据,创新出更科学的分析技术。人口统计在求变中确保稳定的大数据分析支持,在推动自身升级发展的同时,也推动了行业的变革与发展。人口统计电信运营商提升数据价值,将数据价值转化成为可应用的数据解决方案,让政府、企业突破传统数据统计的束缚,进入大数据应用的新时代。解决方案解决方案架构系统开发平台使用Hadoop大数据开发平台。Hadoop是一个高度可扩展的存储平台,可以存储和分发横跨数百个并行操作的廉价的服务器数据集群。能扩展到处理大量的数据,能提供成百上千TB的数据节点上运行的应用程序。Hadoop能够有效的在几分钟内处理TB级的数据。相比关系型数据库管理系统更具有优势。它适用于任何规模的非结构化数据持续增长的企业,将帮助用户持续提高用户体验。系统采用面向对象的软件设计方法,把整个系统看作是多个离散对象的组合。系统设计时,首先把业务流程分解成功能模块及其业务实体对象,然后根据业务流程分析对于这些业务实体对象的操作方法,形成业务处理对象,最后把各个功能模块关联起来,形成系统。软件设计是一个将需求转变为软件的过程,系统通过逐步求精使得设计陈述逐渐接近于源代码。系统程序采用MVC的设计思想,将展现逻辑、控制逻辑、业务处理逻辑分离。系统采用参数化的设计思想,定义和管理系统的实体及配置,调整实体以适应外部变化。系统采用J2EE技术保证程序逻辑实现的平台无关性,并便于安装部署。系统采用AJAX技术,提高客户操作的交互性,保证实际使用的易用性。系统采用echarts可视化框架实现数据展示。关键技术HadoopHadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。SpringMVCSpringMVC:属于SpringFrameWork的后续产品,已经融合在SpringWebFlow里面。Spring框架提供了构建Web应用程序的全功能MVC模块。MyBatisMYBatis:是支持普通SQL查询,存储过程和高级映射的优秀持久层框架。MyBatis消除了几乎所有的JDBC代码和参数的手工设置以及结果集的检索。MyBatis使用简单的XML或注解用于配置和原始映射,将接口和Java的POJOs(PlainOldJavaObjects,普通的Java对象)映射成数据库中的记录。EchartsECharts是一款基于Javascript的数据可视化图表库,提供直观,生动,可交互,可个性化定制的数据可视化图表。MySQLMySQL是一个关系型数据库管理系统,由瑞典MySQLAB公司开发,属于Oracle旗下产品。MySQL是最流行的关系型数据库管理系统之一,在WEB应用方面,MySQL是最好的RDBMS(RelationalDatabaseManagementSystem,关系数据库管理系统)应用软件之一。MySQL是一种关系型数据库管理系统,关系数据库将数据保存在不同的表中,而不是将所有数据放在一个大仓库内,这样就增加了速度并提高了灵活性。MySQL所使用的SQL语言是用于访问数据库的最常用标准化语言。MySQL软件采用了双授权政策,分为社区版和商业版,由于其体积小、速度快、总体拥有成本低,尤其是开放源码这一特点,一般中小型网站的开发都选择MySQL作为网站数据库。Hivehive是基于Hadoop构建的一套数据仓库分析系统,它提供了丰富的SQL查询方式来分析存储在Hadoop分布式文件系统中的数据:可以将结构化的数据文件映射为一张数据库表,并提供完整的SQL查询功能;可以将SQL语句转换为MapReduce任务运行,通过自己的SQL查询分析需要的内容,这套SQL简称HiveSQL,使不熟悉mapreduce的用户可以很方便地利用SQL语言查询、汇总和分析数据。而mapreduce开发人员可以把自己写的mapper和reducer作为插件来支持hive做更复杂的数据分析。它与关系型数据库的SQL略有不同,但支持了绝大多数的语句如DDL、DML以及常见的聚合函数、连接查询、条件查询。它还提供了一系列的:具进行数据提取转化加载,用来存储、查询和分析存储在Hadoop中的大规模数据集,并支持UDF(User-DefinedFunction)、UDAF(User-DefnesAggregateFunction)和UDTF(User-DefinedTable-GeneratingFunction),也可以实现对map和reduce函数的定制,为数据操作提供了良好的伸缩性和可扩展性。HBASEHBase–HadoopDatabase,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PCServer上搭建起大规模结构化存储集群。ZookeeperZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。FlumeFlume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。开发范围数据生产对于该模块的业务,即数据生产过程,一般并不会让你来进行操作,数据生产是一套完整且严密的体系,这样可以保证数据的安全性。但是如果涉及到项目的一体化方案的设计(数据的产生、存储、分析、展示),则必须清楚每一个环节是如何处理的,包括其中每个环境可能隐藏的问题;数据结构,数据内容可能出现的问题。数据采集/消费数据采集模块(消费),在企业中你要清楚流式数据采集框架flume和kafka的定位是什么。我们在此需要将实时数据通过flume采集到kafka然后供给给hbase消费。flume:cloudera公司研发适合下游数据消费者不多的情况;适合数据安全性要求不高的操作;适合与Hadoop生态圈对接的操作。kafka:linkedin公司研发适合数据下游消费众多的情况;适合数据安全性要求较高的操作(支持replication);因此我们常用的一种模型是:线上数据-->flume-->kafka-->flume(根据情景增删该流程)-->HDFS线上数据--

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论