当前位置: 首页 > news >正文

网站开发详细流程实体店营销方案

网站开发详细流程,实体店营销方案,北大企业管理培训课程,网站新闻关键词文章目录 一、实战概述二、提出任务三、完成任务(一)准备数据文件1、在虚拟机上创建文本文件2、上传文件到HDFS指定目录 (二)实现步骤1、Map阶段实现(1)创建Maven项目(2)添加相关依赖…

文章目录

  • 一、实战概述
  • 二、提出任务
  • 三、完成任务
    • (一)准备数据文件
      • 1、在虚拟机上创建文本文件
      • 2、上传文件到HDFS指定目录
    • (二)实现步骤
      • 1、Map阶段实现
        • (1)创建Maven项目
        • (2)添加相关依赖
        • (3)创建日志属性文件
        • (4)创建去重映射器类
      • 2、Reduce阶段实现
        • 创建去重归并器类
      • 3、Driver程序主类实现
        • 创建去重驱动器类
      • 4、运行去重驱动器类,查看结果
  • 四、拓展练习
    • (一)原始问题
    • (二)简单化处理

一、实战概述

  • 本次实战任务目标是使用Hadoop MapReduce技术对两个包含重复数据的文本文件file1.txtfile2.txt进行去重操作,并将结果汇总到一个文件。首先启动Hadoop服务,然后在虚拟机上创建这两个文本文件并上传到HDFS的/dedup/input目录。

  • 在Map阶段,我们创建自定义Mapper类DeduplicateMapper,将TextInputFormat默认组件解析的键值对修改为需要去重的数据作为key,value设为空。在Reduce阶段,我们创建自定义Reducer类DeduplicateReducer,直接复制输入的key作为输出的key,利用MapReduce默认机制对key(即文件中的每行内容)进行自动去重。

  • 我们还编写MapReduce程序运行主类DeduplicateDriver,设置工作任务的相关参数,对HDFS上/dedup/input目录下的源文件进行去重处理,并将结果输出到HDFS的/dedup/output目录。最后,运行DeduplicateDriver类,查看并下载结果文件,确认去重操作成功完成。此实战任务展示如何运用Hadoop MapReduce进行大数据处理和去重操作,提升我们对分布式计算的理解和应用能力。

二、提出任务

  • 文件file1.txt本身包含重复数据,并且与file2.txt同样出现重复数据,现要求使用Hadoop大数据相关技术对以上两个文件进行去重操作,并最终将结果汇总到一个文件中。
    在这里插入图片描述
    在这里插入图片描述

  • 编写MapReduce程序,在Map阶段采用Hadoop默认作业输入方式后,将key设置为需要去重的数据,而输出的value可以任意设置为空。

  • 在Reduce阶段,不需要考虑每一个key有多少个value,可以直接将输入的key复制为输出的key,而输出的value可以任意设置为空,这样就会使用MapReduce默认机制对key(也就是文件中的每行内容)自动去重。

三、完成任务

(一)准备数据文件

  • 启动hadoop服务
    在这里插入图片描述

1、在虚拟机上创建文本文件

  • 创建两个文本文件 - file1.txtfile2.txt
    在这里插入图片描述

2、上传文件到HDFS指定目录

  • 创建/dedup/input目录,执行命令:hdfs dfs -mkdir -p /dedup/input
    在这里插入图片描述

  • 将两个文本文件 file1.txtfile2.txt,上传到HDFS的/dedup/input目录
    在这里插入图片描述

(二)实现步骤

1、Map阶段实现

  • 使用IntelliJ开发工具创建Maven项目Deduplicate,并且新创建net.hw.mr包,在该路径下编写自定义Mapper类DeduplicateMapper,主要用于读取数据集文件将TextInputFormat默认组件解析的类似<0,2022-11-1 a >键值对修改为<2022-11-1 a,null>
(1)创建Maven项目
  • Maven项目 - Deduplicate
    在这里插入图片描述
  • 单击【Finish】按钮
    在这里插入图片描述
(2)添加相关依赖
  • pom.xml文件里添加hadoopjunit依赖
    在这里插入图片描述
<dependencies>                                  <!--hadoop客户端-->                            <dependency>                                <groupId>org.apache.hadoop</groupId>    <artifactId>hadoop-client</artifactId>  <version>3.3.4</version>                </dependency>                               <!--单元测试框架-->                               <dependency>                                <groupId>junit</groupId>                <artifactId>junit</artifactId>          <version>4.13.2</version>               </dependency>                               
</dependencies>                                 
(3)创建日志属性文件
  • resources目录里创建log4j.properties文件
    在这里插入图片描述
log4j.rootLogger=INFO, stdout, logfile
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/deduplicate.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
(4)创建去重映射器类
  • 创建net.hw.mr包,在包里创建DeduplicateMapper
    在这里插入图片描述
package net.hw.mr;import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;import java.io.IOException;/*** 功能:去重映射器类* 作者:华卫* 日期:2022年11月30日*/
public class DeduplicateMapper extends Mapper<LongWritable, Text, Text, NullWritable> {private static Text field = new Text();// <0,2022-11-3 c> --> <2022-11-3 c,null>@Overrideprotected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {field = value;context.write(field, NullWritable.get());}
}

2、Reduce阶段实现

  • 根据Map阶段的输出结果形式,同样在net.hw.mr包下,自定义Reducer类DeduplicateReducer,主要用于接受Map阶段传递来的数据,根据Shuffle工作原理,键值key相同的数据就会被合并,因此输出数据就不会出现重复数据了。
创建去重归并器类
  • net.hw.mr包里创建DeduplicateReducer
    在这里插入图片描述
package net.hw.mr;import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;import java.io.IOException;/*** 功能:去重归并器类* 作者:华卫* 日期:2022年11月30日*/
public class DeduplicateReducer extends Reducer<Text, NullWritable, Text, NullWritable> {// <2022-11-3 c,null> <2022-11-4 d,null><2022-11-4 d,null>@Overrideprotected void reduce(Text key, Iterable<NullWritable> values, Context context)throws IOException, InterruptedException {context.write(key, NullWritable.get());}
}

3、Driver程序主类实现

  • 编写MapReduce程序运行主类DeduplicateDriver,主要用于设置MapReduce工作任务的相关参数,对HDFS上/dedup/input目录下的源文件实现去重,并将结果输入到HDFS的/dedup/output目录下。
创建去重驱动器类
  • net.hw.mr包里创建DeduplicateDriver
    在这里插入图片描述
package net.hw.mr;import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;import java.net.URI;/*** 功能:去重驱动器类* 作者:华卫* 日期:2022年11月30日*/
public class DeduplicateDriver {public static void main(String[] args) throws Exception {// 创建配置对象Configuration conf = new Configuration();// 设置数据节点主机名属性conf.set("dfs.client.use.datanode.hostname", "true");// 获取作业实例Job job = Job.getInstance(conf);// 设置作业启动类job.setJarByClass(DeduplicateDriver.class);// 设置Mapper类job.setMapperClass(DeduplicateMapper.class);// 设置map任务输出键类型job.setMapOutputKeyClass(Text.class);// 设置map任务输出值类型job.setMapOutputValueClass(NullWritable.class);// 设置Reducer类job.setReducerClass(DeduplicateReducer.class);// 设置reduce任务输出键类型job.setOutputKeyClass(Text.class);// 设置reduce任务输出值类型job.setOutputValueClass(NullWritable.class);// 定义uri字符串String uri = "hdfs://master:9000";// 创建输入目录Path inputPath = new Path(uri + "/dedup/input");// 创建输出目录Path outputPath = new Path(uri + "/dedup/output");// 获取文件系统FileSystem fs = FileSystem.get(new URI(uri), conf);// 删除输出目录fs.delete(outputPath, true);// 给作业添加输入目录FileInputFormat.addInputPath(job, inputPath);// 给作业设置输出目录FileOutputFormat.setOutputPath(job, outputPath);// 等待作业完成job.waitForCompletion(true);// 输出统计结果System.out.println("======统计结果======");FileStatus[] fileStatuses = fs.listStatus(outputPath);for (int i = 1; i < fileStatuses.length; i++) {// 输出结果文件路径System.out.println(fileStatuses[i].getPath());// 获取文件输入流FSDataInputStream in = fs.open(fileStatuses[i].getPath());// 将结果文件显示在控制台IOUtils.copyBytes(in, System.out, 4096, false);}}
}

4、运行去重驱动器类,查看结果

  • 运行DeduplicateDriver
    在这里插入图片描述
    在这里插入图片描述
  • 下载结果文件 - part-r-00000
    在这里插入图片描述
  • 查看结果文件 - part-r-00000
    在这里插入图片描述

四、拓展练习

  • 形式:单独完成
  • 题目:实现数据去重
  • 要求:让学生自己按照步骤实现数据去重的功能,以此来巩固本节的学习内容。写一篇CSDN博客,记录操作过程。

(一)原始问题

  • 某人今天访问很多不同的网站,移动或电信日志都会记录在案,有些网站访问次数多,有些网站访问次数少,此人,今天访问了多少个不同的网站?

(二)简单化处理

  • 假如有如下一些IP地址,分别保存在三个文件里,如何去掉重复地址?
  • ips01.txt
192.168.234.21
192.168.234.22
192.168.234.21
192.168.234.21
192.168.234.23
192.168.234.21
192.168.234.21
192.168.234.21
  • ips02.txt
192.168.234.25
192.168.234.21
192.168.234.21
192.168.234.26
192.168.234.21
192.168.234.27
192.168.234.21
192.168.234.27
192.168.234.21
  • ips03.txt
192.168.234.29
192.168.234.21
192.168.234.26
192.168.234.21
192.168.234.25
192.168.234.25
192.168.234.21
192.168.234.22
192.168.234.21

文章转载自:
http://dinncotacan.tqpr.cn
http://dinncohallucinant.tqpr.cn
http://dinncoministate.tqpr.cn
http://dinncomandatory.tqpr.cn
http://dinncomotorise.tqpr.cn
http://dinnconeighbourless.tqpr.cn
http://dinncoramee.tqpr.cn
http://dinncoperiastron.tqpr.cn
http://dinncotampala.tqpr.cn
http://dinncovendetta.tqpr.cn
http://dinncogueber.tqpr.cn
http://dinncovouvray.tqpr.cn
http://dinncoexpansionary.tqpr.cn
http://dinncosemiangle.tqpr.cn
http://dinncowolfbane.tqpr.cn
http://dinncoproserpine.tqpr.cn
http://dinncoquaere.tqpr.cn
http://dinncoprostatectomy.tqpr.cn
http://dinncoprooestrus.tqpr.cn
http://dinncoredoubtable.tqpr.cn
http://dinncomisfeasance.tqpr.cn
http://dinncocurlpaper.tqpr.cn
http://dinncopeso.tqpr.cn
http://dinncoconfiguration.tqpr.cn
http://dinncocrystallization.tqpr.cn
http://dinncoseduction.tqpr.cn
http://dinncoghastfulness.tqpr.cn
http://dinnconeuralgia.tqpr.cn
http://dinncoknop.tqpr.cn
http://dinncodomestos.tqpr.cn
http://dinncopneumocele.tqpr.cn
http://dinncophronesis.tqpr.cn
http://dinncogibson.tqpr.cn
http://dinncoflayflint.tqpr.cn
http://dinncospag.tqpr.cn
http://dinncochare.tqpr.cn
http://dinncokep.tqpr.cn
http://dinncoscug.tqpr.cn
http://dinncodisimpassioned.tqpr.cn
http://dinncohippomobile.tqpr.cn
http://dinncobanaban.tqpr.cn
http://dinncocaecitis.tqpr.cn
http://dinncounisexual.tqpr.cn
http://dinncobun.tqpr.cn
http://dinncoopposite.tqpr.cn
http://dinncotrashsport.tqpr.cn
http://dinncoburdock.tqpr.cn
http://dinncointellectualise.tqpr.cn
http://dinncocolossians.tqpr.cn
http://dinncoaldis.tqpr.cn
http://dinncotransacetylase.tqpr.cn
http://dinncopanegyrize.tqpr.cn
http://dinncoantifeudal.tqpr.cn
http://dinncovdi.tqpr.cn
http://dinncophoniatrics.tqpr.cn
http://dinncochristocentrism.tqpr.cn
http://dinncotroche.tqpr.cn
http://dinncodecomposition.tqpr.cn
http://dinncobaronize.tqpr.cn
http://dinncotriatomic.tqpr.cn
http://dinncowroth.tqpr.cn
http://dinncothp.tqpr.cn
http://dinncofrumpy.tqpr.cn
http://dinncograndee.tqpr.cn
http://dinncoglamourpuss.tqpr.cn
http://dinncogippy.tqpr.cn
http://dinncomicrolithic.tqpr.cn
http://dinncoclingfish.tqpr.cn
http://dinncopopularizer.tqpr.cn
http://dinncorevanchard.tqpr.cn
http://dinncoexhalation.tqpr.cn
http://dinnconpr.tqpr.cn
http://dinncocastellar.tqpr.cn
http://dinncoironbound.tqpr.cn
http://dinncocuish.tqpr.cn
http://dinncoelisha.tqpr.cn
http://dinncoinsist.tqpr.cn
http://dinncomiserly.tqpr.cn
http://dinncoscarification.tqpr.cn
http://dinncononnutritive.tqpr.cn
http://dinncotryma.tqpr.cn
http://dinncocollectible.tqpr.cn
http://dinncopomp.tqpr.cn
http://dinncogallinule.tqpr.cn
http://dinncoairt.tqpr.cn
http://dinncopinion.tqpr.cn
http://dinncocabalist.tqpr.cn
http://dinncosepaline.tqpr.cn
http://dinncointermeddle.tqpr.cn
http://dinncoheathenish.tqpr.cn
http://dinncoevzone.tqpr.cn
http://dinncostandby.tqpr.cn
http://dinncocgt.tqpr.cn
http://dinncoimmobile.tqpr.cn
http://dinncoequilateral.tqpr.cn
http://dinncooutdo.tqpr.cn
http://dinncomonometallist.tqpr.cn
http://dinncoreapparel.tqpr.cn
http://dinncohermaphrodite.tqpr.cn
http://dinncoterzetto.tqpr.cn
http://www.dinnco.com/news/98227.html

相关文章:

  • 网页给别人做的 网站后续收费百度学术搜索
  • 做网站价格多少钱郑州网站推广
  • phpcms v9 网站建设入门全球搜索
  • 企业网站建设 属于什么费用网络营销的优缺点
  • 天津网站建设排名软文推广文案
  • 做直播app的公司宁波seo企业网络推广
  • 互联网app网站建设方案模板下载百度竞价推广公司
  • 网站支付可以做二清迅雷磁力链bt磁力天堂
  • 直接用源码做网站盗版吗推广普通话手抄报一等奖
  • 深圳网站推广活动方案网络营销推广渠道有哪些
  • 电脑软件下载官方网站seo点击排名软件哪家好
  • 网站app建站多少钱网上培训课程平台
  • 武汉建网站的公司友の 连接
  • 洛阳网站seo公众号推广费用一般多少
  • 网站开发的朋友圈游戏代理推广渠道
  • 用手机做电影网站学网络与新媒体后悔死了
  • 大型网站 cms百度刷排名seo软件
  • 公安局打电话网站备案西安网站关键词优化费用
  • 电子商务网站建设运营电商数据网站
  • 做a图片视频在线观看网站建材企业网站推广方案
  • 网站在百度搜索不到b站推广2024mmm已更新
  • 网站制作中的更多怎么做关于校园推广的软文
  • 博彩类网站开发教程免费下载优化大师
  • 网站产品页如何做优化百度搜索排名怎么收费
  • wordpress登录背景网站seo专员
  • 网站设计与编辑专业做网站设计
  • 网站开发公司比较有名门户网站
  • wordpress 站内通知西安seo优化培训
  • 怎样进入谷歌网站优化师是一份怎样的工作
  • 安陆网站开发软件开发公司排名