当前位置: 首页 > news >正文

做营销型网站费用零食软文范例300字

做营销型网站费用,零食软文范例300字,漯河做网站zrgu,网站建设网站公司的序Shell定时上传日志到HDFS 一、任务需求二、实现思路三、具体实现流程3.1 规划文件上传目录3.2 开发 shell 脚本3.3 授予 shell 可执行权限3.4 手动执行查看3.4 定时执行 shell 脚本 一、任务需求 公司在线服务器每天都会产生网站运行日志,为了避免志文件过大&#…

Shell定时上传日志到HDFS

  • 一、任务需求
  • 二、实现思路
  • 三、具体实现流程
    • 3.1 规划文件上传目录
    • 3.2 开发 shell 脚本
    • 3.3 授予 shell 可执行权限
    • 3.4 手动执行查看
    • 3.4 定时执行 shell 脚本

一、任务需求

公司在线服务器每天都会产生网站运行日志,为了避免志文件过大,日志文件需按照群,后期再使用MapReduce计每小时进行回滚,现在要求每小时定时上传日志文件到算框架定时处理日志文件。

二、实现思路

在线服务器每小时滚动生成的访问日志文件名称为access.log,历史访问日志文件以时间为后缀精确到小时名称为access.log.2021-10-27-10。当前access.log会继续写入访问日志等待日志回滚,历史访问日志access.log.2021-10-27-10满足上传条件,可以先移动到待上传区间,然后再将待上传区间的文件上传至HDFS集群

三、具体实现流程

3.1 规划文件上传目录

  • 原始日志存放目录
[root@hadoop1 hadoop]# mkdir -p /usr/local/hadoop/data/tomcat/log/

在这里插入图片描述

  • 待传日志存放目录
[root@hadoop1 hadoop]# mkdir -p /usr/local/hadoop/data/unupload/log/

在这里插入图片描述

3.2 开发 shell 脚本

#!/bin/bash
#使得环境变量生效
source ~/.bashrc
#hadoop根目录
hadoop_home=/usr/local/hadoop/bin
#原始目录
log_src_dir=/usr/local/hadoop/data/tomcat/logs/
#待传目录
log_unupload_dir=/usr/local/hadoop/data/unupload/logs/
#hdfs日志存放路径
curDay=`date +%Y%m%d`
curHour=`date -d "1 hour ago" +"%H"`
hdfs_root_dir=/warehouse/web/ods/o_web_access_log_d/$curDay/$curHour/
#测试hdfs目录是否存在
$hadoop_home/hdfs dfs -test -e $hdfs_root_dir
if [ $? -eq 0 ] ;thenecho 'directory is exist'
else$hadoop_home/hdfs dfs -mkdir -p  $hdfs_root_dir
fi#第一步:将原始目录访问日志移动到待上传目录
ls $log_src_dir | while read logName
doif [[ "$logName" == access.log.* ]]; thensuffix=`date +%Y_%m_%d_%H_%M_%S`#将原始目录文件移动到待上传目录mv $log_src_dir$logName $log_unupload_dir#将待上传文件路径写入文件logUploadPath中echo $log_unupload_dir"$logName" >> $log_unupload_dir"logUploadPath."$suffixfi
done
#第二步:将待上传目录中的访问日志上传至HDFS
ls $log_unupload_dir | grep logUploadPath |grep -v "_Ready_" | grep -v "_Done_" | while read logName
do#将待上传logUploadPath文件更名为logUploadPath_Ready_mv $log_unupload_dir$logName $log_unupload_dir$logName"_Ready_"#循环将logUploadPath_Ready_文件内容,上传至hdfscat $log_unupload_dir$logName"_Ready_" |while read logNamedo$hadoop_home/hdfs dfs -put $logName $hdfs_root_dirdone    #将准备上传logUploadPath_Ready_文件名,改为logUploadPath_Done_mv $log_unupload_dir$logName"_Ready_"  $log_unupload_dir$logName"_Done_"
done

3.3 授予 shell 可执行权限

[root@hadoop1 bin]# chmod u+x uploadAccessLogToHDFS.sh 

在这里插入图片描述

3.4 手动执行查看

[root@hadoop1 bin]# ./uploadAccessLog2HDFS.sh 

在这里插入图片描述

3.4 定时执行 shell 脚本

[root@hadoop1 bin]# crontab -e

添加内容如下所示:

5 * * * * /usr/locl/shell/bin/uploadLog2HDFS.sh

http://www.dinnco.com/news/82031.html

相关文章:

  • 网站建设与网站设计哪个好学关键词优化的策略有哪些
  • 沅江网站开发app拉新推广平台渠道
  • 动漫美女做爰视频网站整站seo定制
  • 个人自建网站国内能用的搜索引擎
  • 制作哪个网站好廊坊seo培训
  • 合肥制作网站价格百度推广联系方式
  • 中山网站建设包括哪些优化大师软件大全
  • 继续浏览此网站(不推荐)百度新闻官网首页
  • wordpress主题电影seo优化标题
  • 做微信推送封面的网站什么叫口碑营销
  • 做网站书外贸网络推广服务
  • 深圳拼团手机网站开发佛山seo技术
  • 智云鸟网站建设seo免费浏览网站
  • 搭建好网站生情好域名后怎么做网站建设与管理是干什么的
  • 智慧团建网站pc端公司网站怎么弄
  • 威海专业做网站公司网络营销的六大功能
  • 投诉做单骗子网站广州网络营销推广公司
  • 如何制作网站视频的软件株洲企业seo优化
  • dede网站地图文章变量阿里大数据分析平台
  • 张店网站推广摘抄一篇新闻
  • 电子政务网站建设法律法规网络营销推广与策划
  • PC网站开发的意义百度推广怎么做效果好
  • 珠海企业网站建设报价网站seo优化分析
  • 潍坊市坊子区建设局网站哪里的网络推广培训好
  • 如何做网站的线下推广营销推广48个方法
  • 店招搜索栏在那个网站上可以做东莞网站制作十年乐云seo
  • WordPress未声明图片大小湖北短视频搜索seo
  • 做网站做什么赚钱搜索引擎营销的作用
  • wordpress4.4.1下载seo工程师是什么职业
  • 做旅游网站有前途吗廊坊网站建设优化