Azkaban开源任务调度程序(使用篇)_第1页
Azkaban开源任务调度程序(使用篇)_第2页
已阅读5页,还剩4页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

登录https://localhost:8443注意是https,采用的是jettyssl链接。输入账号密码azkaban/azkanban(如果你之前没有更改的话)鸟Azkaban鸟AzkabanBesttonePrq|«ctiSchedulingExecutingHistory首页首页有四个菜单projects:最重要的部分,创建一个工程,所有flows将在工程中运行。scheduling:显示定时任务executing:显示当前运行的任务history:显示历史运行任务主要介绍projects部分首先创建一个工程,填写名称和描述,比如o2olog。Flews^EMTnlwioreFlews^EMTnlwiore氏畑!Log®NoFlows忖口have昭"upi&adedtothl*旳斛yrt.o2ologo2olDgGu献诃irt?016-01-2009;幅空2La&tmodifiexiby2016-01-20M:4I6;22ModmiedbyProjectadmins亚HaDanYourPermia-sionKADMINo2olog工程Flows:工作流程,有多个job组成Permissions:权限管理ProjectLogs:工程日志创建工程:创建之前我们先了解下之间的关系,一个工程包含一个或多个flows,—个flow包含多个job。job是你想在azkaban中运行的一个进程,可以是简单的linux命令,可是java程序,也可以是复杂的shell脚本,当然,如果你安装相关插件,也可以运行插件。一个job可以依赖于另一个job,这种多个job和它们的依赖组成的图表叫做flow。job创建创建job很简单,只要创建一个以.job结尾的文本文件就行了,例如我们创建一个工作,用来将日志数据导入hive中(关于大数据方面的东西,不在重复,可以理解为,将日志所需数据导入的mysql中),我们创建o2o_2_hive.jobtype=commandcommand=echo"data2hive"一个简单的job就创建好了,解释下,type的command,告诉azkaban用unix原生命令去运行,比如原生命令或者shell脚本,当然也有其他类型,后面说。一个工程不可能只有一个job,我们现在创建多个依赖job,这也是采用azkaban的首要目的。flows创建我们说过多个jobs和它们的依赖组成flow。怎么创建依赖,只要指定dependencies参数就行了。比如导入hive前,需要进行数据清洗,数据清洗前需要上传,上传之前需要从ftp获取日志。定义5个job:o2o_2_hive.job:将清洗完的数据入hive库o2o_clean_data.job:调用mr清洗hdfs数据o2o_up_2_hdfs.job:将文件上传至hdfso2o_get_file_ftp1.job:从ftp1获取日志o2o_get_file_fip2.job:从ftp2获取日志依赖关系:3依赖4和5,2依赖3,1依赖2,4和5没有依赖关系。o2o_2_hive.jobtype=command执行sh脚本,建议这样做,后期只需维护脚本就行了,azkaban定义工作流程command=sh/job/o2o_2_hive.shdependencies=o2o_clean_datao2o_clean_data.jobtype=command执行sh脚本,建议这样做,后期只需维护脚本就行了,azkaban定义工作流程command=sh/job/o2o_clean_data.shdependencies=o2o_up_2_hdfso2o_up_2_hdfs.job□2d_2_hivB□2d_2_hivBtype=command#需要配置好hadoop命令,建议编写到shell中,可以后期维护command=hadoopfs-put/data/*#多个依赖用逗号隔开dependencies=o2o_get_file_ftp1,o2o_get_file_ftp2o2o_get_file_ftp1.jobtype=commandcommand=wget"HYPERLINKftp://file1"-O/data/file1o2o_get_file_ftp2.jobtype=commandcommand=wget"ftp:file2"-O/data/file2可以运行unix命令,也可以运行python脚本(强烈推荐)。将上述job打成zip包。ps:为了测试流程,我将上述command都改为echo+相应命令上传:UploadProjectFilesJobArchive卫怦文件未选择任何文件CancelUploadCancelUpload上传Projecto2ologFlowsParrnissionsProjectLegsAo2o_2_hiveAo2o_2_hiveo2o_get_fife_ftpi02&_get_fite_ftp2O2o_up_2hdfsc(2a_clean_aata上传完成点击o2o_2_hive进入流程,azkaban流程名称以最后一个没有依赖的job定义的。流程右上方是配置执行当前流程或者执行定时流程。流程执行Flowview:流程视图。可以禁用,启用某些jobNotification:定义任务成功或者失败是否发送邮件FailureOptions:定义一个job失败,剩下的job怎么执行Concurrent:并行任务执行设置FlowParametters:参数设置。1.执行一次设置好上述参数,点击execute。

执行成功绿色代表成功,蓝色是运行,红色是失败。可以查看job运行时间,依赖和日志,点击details可以查看各个job运行情况。NameIVpeTimelineStartTimeEndTimeEl呂psedStatusDetailsQ2o_g*t_rn&_ftpicommand201&=01-2010:4452S2018-01-2D10:4452SoseeD由曲身o2c_get_Tii&_ftp2ccmmand201&-D1-2010:44-52S2016-01-2010:4453sosecD&tSlSa2c_up_2_hdf3command■2016-C1-2010:4452s2016-01-2010:4452s0aecDetails□2o_clean_aatacommand■2016-01-2010:4452s2016-01-2010:4452s0secDetailso2oi_.2JhiveccfTimand■201&D1-2010:4452S2016-01-2010:4452S0sec[MaltejobList2.定时执行

定时执行这时候注意到cst了吧,之前需要将配置中时区改为Asia/shanghai。可以选择"天/时/分/月/周"等执行频率。IDFlowPrefectSubmittedByFir^tSoileduledtoRunNextExecutionTimeHepeatfiEveryHasSLAAction5o2o_2hiveo2ologazkaban2016-01-2010:47:002016-01-2011:47:DO1houifa)falseI1setSuAI定时任务可以查看下次执行时间。其他job配置选项可以定义job依赖另一个flow,配置type==fisrt_flow可以设置每个job中子命令type=commandcommand=echo"hello"command.1=echo"world"可以配置job失败重启次数,及间隔时间,比如,上述ftp获取日志,我可

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论