Azkaban任务调度(使用带有依赖的任务调度)【mapreduce数据清洗,数据入hive库,kylin预编译、数据分析】

前端之家收集整理的这篇文章主要介绍了Azkaban任务调度(使用带有依赖的任务调度)【mapreduce数据清洗,数据入hive库,kylin预编译、数据分析】前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

1 Azkaban任务调度管理

1.1 执行任务的脚本编写和说明

在做任务调度的过程中,要编写相应的脚本。

-rwxrwxrwx 1 root root      809 612 19:52 auto-exec-1-mr.sh
-rwxrwxrwx 1 root root      975 612 19:53 auto-exec-2-load-logger-data.sh
-rwxrwxrwx 1 root root     1459 612 19:53 auto-exec-3-kylin-build.sh
-rwxrwxrwx 1 root root      446 616 14:34 auto-exec-4-analyze.sh
-rwxrwxrwx 1 root root      110 612 19:54 auto-exec-5-sqoop-MysqL.sh
-rwxrwxrwx 1 root root      313 616 14:55 auto-exec-6-pv-uv.sh

然后让这些脚本具有可执行权限:

[root@bigdata1 logger-handler]# pwd
/home/bigdata/workspace/logger-handler
[root@bigdata1 logger-handler]# chmod +x *.sh

1.1.1 auto-exec-1-mr.sh

该脚本主要用于执行数据清洗应用
#!/bin/bash
sync
echo 3 > /proc/sys/vm/drop_caches


echo "步骤1:执行logger的mr数据清洗程序"

yesterday=`date --date='1 days ago' +%y-%m-%d`
#删除mapreduce清洗文件夹(存储上一天的那个文件夹)

#yesterdayFolder=/output/Nginx/$yesterday

#判断上一天的这个文件夹是否存在
hdfs dfs -test -e /output/Nginx/$yesterday

if [ $? -eq 0 ]
then
    echo "存在上一天这个文件夹"
    hdfs dfs -rm -r /output/Nginx/$yesterday
else
    #字符串中带有变量时,这里的引号必须是双引号
    echo "不存在$yesterday这个文件夹"
fi

echo "开始进行日志文件的mapreduce的清洗程序"
cd /home/bigdata/workspace/logger-handler
hadoop jar bigdata-logger-mr-1.0.0-SNAPSHOT-jar-with-dependencies.jar com.youx.bigdata.logger.driver.loggerRunner

1.1.2 auto-exec-2-load-logger-data.sh

该脚本主要用于执行将清洗的数据load到hive库中的操作。
#!/bin/bash
sync
echo 3 > /proc/sys/vm/drop_caches

echo "步骤2:执行hive命令load数据到hive中"

#如果时间定义成+%Y-%m-%d 则时间变成了2018-05-24了
yesterday=`date --date='1 days ago' +%y-%m-%d`
echo $yesterday

#定义变量
str1="part-r-"


#获取到hdfs中中文件列表,awk '{print $8}'获取到第八列
for hdfsFile in `hdfs dfs -ls /output/Nginx/$yesterday | awk '{print $8}'`
do
    echo $hdfsFile
    result=$(echo $hdfsFile | grep "${str1}")
    if [[ "$result" != "" ]]
    then
        #表示包含这个part-r-这类前缀的文件的,然后开始做数据导入操作。
        #使用hive -e的方式执行hive命令
        #要注意的是,当执行过一遍之loaddata后,原来放置mapreduce处理结果位置的这个数据就没了。
        hive -e " use Nginx_log; load data inpath 'hdfs://bigdata1:9000$hdfsFile' into table Nginx_log_info; "
    else
        #表示不包含这个文件
        continue
    fi
done

#hive -e "
#use Nginx_log;"

1.1.3 auto-exec-3-kylin-build.sh

该脚本主要用于让kylin自动预编译。

#!/bin/bash
sync
echo 3 > /proc/sys/vm/drop_caches

echo "步骤3:kylin-build"
################################################################################# #脚本功能:在数据被load到hive之后,使用kylin进行Build,增量更新kylin cube #################################################################################

#cubeName cube名称
#endTime 执行build cube的结束时间(命令传给Kylin的kylinEndTime = readEndTime + (8小时,转化为毫秒))。
# 只需要给kylin传入build cube的结束时间即可。
#buildType BUILD构建cube操作(还有Refresh、Merge等操作,增量构建为BUILD)

#endTime=`date "+%Y-%m-%d 00:00:00"`
endTime=`date +%Y-%m-%d -d "+1days"`
echo "$endTime"
endTimeTimeStamp=`date -d "$endTime" +%s`
echo $endTimeTimeStamp

#将时间戳编程毫秒值
endTimeTimeStampMs=$(($endTimeTimeStamp * 1000))
echo $endTimeTimeStampMs

cubeName=logger_cube

#curl -X PUT --user ADMIN:KYLIN -H "Content-Type: application/json;charset=utf-8" -d '{ "startTime"}'
curl -X PUT --user ADMIN:KYLIN -H "Content-Type: application/json;charset=utf-8" -d '{ "endTime":'$endTimeTimeStampMs',"buildType": "BUILD"}' http://bigdata1:7070/kylin/api/cubes/logger_cat/rebuild
#curl -X PUT --user ADMIN:KYLIN -H "Content-Type: application/json;charset=utf-8" -d '{ "startTime": 820454400000,"endTime": 821318400000,"buildType": "BUILD"}' http://localhost:7070/kylin/api/cubes/kylin_sales/build

1.1.4 auto-exec-4-analyze.sh

该脚本主要用于执行分析url访问次数,url平均访问时间

#!/bin/bash
sync
echo 3 > /proc/sys/vm/drop_caches

#echo "步骤4:执行分析程序"

#echo "休眠10秒"
#sleep 10s

#echo "休眠1分钟"
#sleep 1m

#echo "休眠1小时"
#sleep 1h

echo "休眠2个小时,开始"
sleep 120m
echo "休眠2个小时,结束"

cd /home/bigdata/workspace/logger-handler
#执行分析程序
hadoop jar bigdata-logger-kylin-1.0.0-SNAPSHOT-jar-with-dependencies.jar com.youx.bigdata.logger.kylin.LoggerKylinAnalyze

1.1.5 auto-exec-5-sqoop-MysqL.sh

该脚本暂时未做功能

1.1.6 auto-exec-6-pv-uv.sh

该脚本主要用于调用执行分析程序pv,uv的程序。
#!bin/bash 
sync
echo 3 > /proc/sys/vm/drop_caches

echo "休眠140分钟,开始"
sleep 140m
echo "休眠140分钟,结束"

#执行分析程序
cd /home/bigdata/workspace/logger-handler
hadoop jar bigdata-operation-info-1.0.0-SNAPSHOT-jar-with-dependencies.jar com.youx.bigdata.logger.analyze.OperationInfoAnalyze

1.2 Job任务编写

Azkaban的任务脚本是以.job结尾的文件

1.2.1 auto-exec-1-mr.job

具体内容是:

#auto-exec-1-mr.job
type=command
command=sh /home/bigdata/workspace/logger-handler/auto-exec-1-mr.sh

说明:
通过上面的写法,通过命令的方式执行job,其中命令是:

command=sh /home/bigdata/workspace/logger-handler/auto-exec-1-mr.sh

1.2.2 auto-exec-2-load-logger-data.job

下面的job主要的作用是将数据清洗的结果load到hive仓库中。
#auto-exec-2-load-logger-data.job
type=command
dependencies=auto-exec-1-mr
command=sh /home/bigdata/workspace/logger-handler/auto-exec-2-load-logger-data.sh
上面增加了一个关键字:dependencies,表示这个任务依赖任务auto-exec-1-mr,只有当auto-exec-1-mr任务执行完毕之后才会进行后续操作。

1.2.3 auto-exec-3-kylin-build.job

执行kylin的build任务。
#auto-exec-3-kylin-build.job
type=command
dependencies=auto-exec-2-load-logger-data
command=sh /home/bigdata/workspace/logger-handler/auto-exec-3-kylin-build.sh

1.2.4 auto-exec-4-analyze.job

执行url访问统计和访问量统计的任务

#auto-exec-4-analyze.job
type=command
dependencies=auto-exec-3-kylin-build
command=sh /home/bigdata/workspace/logger-handler/auto-exec-4-analyze.sh
@H_502_731@1.2.5 auto-exec-5-sqoop-MysqL.job
执行将hive中数据导入到MysqL中的操作。

1.2.6 auto-exec-6-pv-uv.job

执行pv,uv分析任务
#auto-exec-6-pv-uv.job
type=command
dependencies=auto-exec-5-sqoop-MysqL
command=sh /home/bigdata/workspace/logger-handler/auto-exec-6-pv-uv.sh

1.2.7 统一压缩job到zip包

Azkaban的执行需要一个压缩包,所以需要将上面编写的job统一压缩到一个zip中。效果图下:

1.3 项目创建/上传任务包/配置任务调度

当job都编写完成之后,开始创建azkaban的任务调度的项目,并上传任务执行包。
创建项目。
访问:https://bigdata1:8443/index,输入用户名/密码: admin / admin之后进入azkaban界面。

创建项目:
点击上面的”Create Project”

点击”Create Project”,进入一下界面:

点击“upload”

点击”选择文件


点击Upload按钮,进入以下界面:

点击”Execute Flow”,进入以下界面:

点击Schedule,进入以下界面:


点击schddule,任务配置完成

最终进入以下界面:

猜你在找的设计模式相关文章