下载本文档
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、技术创新,变革未来Spark Core技术平台详解内容Spark RDDSpark OperationRDD容错与持久化 Spark优化Spark例子Spark RDDResilient Distributed Dataset (RDD):分布式数据集(分布在集群、已分区的)存储在内存或磁盘上只读的,不可变自动重建(容错)有两类操作transformationsactionsSpark Transformations and Actionstransformations通过其他RDD构建新的RDDmap, filter, joinlazy operationactions返回计算结果或者保存到
2、文件系统count, collect, savetriggers executionSpark Transformations and ActionsSpark RDD TransformationsSpark RDD TransformationsSpark RDD ActionsSpark Pair RDD TransformationsSpark Pair RDD TransformationsSpark RDD Lineageval inputRDD = sc.textFile(log.txt)val errorsRDD = inputRDD.filter(line = line.co
3、ntains(error)val warningsRDD = inputRDD.filter(line= line.contains(“warning)badLinesRDD =errorsRDD.union(warningsRDD)println(Input had + badLinesRDD.count() + concerning lines)An RDD has enough information about how it was derived from other datasets(its lineage)RDD容错HadoopRDDpath = hdfs:/FilteredRD
4、Dfunc = _.contains(.)MappedRDDfunc = _.split()通过RDD Lineage,重新计算丢失的数据,如messages = textFile(.).filter(_.contains(“error”).map(_.split(t)RDD Persistence缓存级别memory_only (default), memory_and_disk等APIpersist(StorageLevel)cache() 等同于persist(StorageLevel.MEMORY_ONLY)RDD Persistencelines = sc.textFile(“hdf
5、s:/.”)errors = lines.filter(_.startsWith(“ERROR”) messages = errors.map(_.split(t)(2)cachedMsgs = messages.cache()cachedMsgs.filter(_.contains(“url1”).count cachedMsgs.filter(_.contains(“url2”).countActionBase RDDTransformed RDDDriverBlock3Block1Block2Worker Cache1Worker Cache2Worker Cache3缓存错误日志,过滤
6、出各url的个数RDD PersistenceSpark 优化代码RDD重用需要持久化val rdd = sc.textFile(hdfs:/*) rdd.filter(.).countrdd.filter(.).countval rdd = sc.textFile(hdfs:/*) rdd.persist(StorageLevel.MEMORY_AND_D ISK_SER)rdd.filter(.).countrdd.filter(.).countSpark 优化代码合理使用broadcastmap joinval rdd3 = rdd1.join(rdd2)val rdd2Collect
7、= rdd2.collect() val rdd2Broadcast = sc.broadcast(rdd2Collect)val rdd3 = rdd1.map(rdd2Broadcast.)Spark 优化代码使用Kryo进行序列化val conf = new SparkConf().setAppName(.)/ 设置序列化器conf.set(spark.serializer, org.apache.spark.serializer.KryoSerializer)/ 注 册 自 定 义 类 型 ( 要 序 列 化 ) conf.registerKryoClasses(Array(class
8、OfYou rClass1, classOfYourClass2,.)Spark 优化代码尽量减少shuffle,如reduceByKey、join能使用reduceByKey,不用groupByKey合理使用coalesce,如filter后Spark 优化参数Driver进程内存Driver进程CPUExecutor进程内存运行task,Executor总内存20%shuffle进行聚合,Executor总内存20%RDD持久化,Executor总内存60%Executor进程CPU core数影响并行执行的 task数量Spark 优化参数参数说明num-executorsApplica
9、tion总共有多少个Executor进程执行,初始可以设置30-50,根据队列资源分配和资源使用情况设置executor-cores每个Executor进程的CPU core数,初始可以设置2-4executor-memory每个Executor进程的内存数量,初始可以设置4-8Gdriver-memoryDriver进程的内存,一般1G左右spark.default.par allelism每个stage的task数量,设置为num-executors * executor-cores的2-3倍,充分利用申请的资源spark.storage.me moryFractionRDD持久化数据在Executor内存中能占的比例,持久 化操作较多可适当提高,频繁gc可适当降低spark.shuffle.memoryFractionShuffle操作在Executor内存中能占的比例,shuffle操作较多可适当提高,频繁gc可适当降低Spark 优化参数./bin/spark-submit-num-executors 50-executor-cores 4-executor-memory 8G-driver-memory 1G-conf spark.default.parallelism=600-
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2024年物业管理联合运营协议范本版B版
- 2024年版家用电器保修协议样本版B版
- 文化艺术中心装修敲墙合同
- 员工辞退合同
- 城市交通调度管理办法
- 门店买卖合同范本
- 企业-写字楼租赁合同
- 河北省部分重点高中2024届高三上学期期末考试数学试题(解析版)
- 木制装饰木工班组施工合同
- 历史正剧监制合作协议
- 春节施工现场值班规章制度范文(2篇)
- 《国有企业管理人员处分条例》考试题库200题(含答案)
- 2022年公务员多省联考《申论》真题(辽宁A卷)及答案解析
- 小丑电影课件教学课件
- 浙江省绍兴市2025届高三上学期一模地理试题 含解析
- 广发银行广告合同
- 安全与急救学习通超星期末考试答案章节答案2024年
- 电动车棚消防应急预案
- 金属冶炼知识培训
- 2024-2025学年度广东省春季高考英语模拟试卷(解析版) - 副本
- 2024年物业转让协议书范本格式
评论
0/150
提交评论