当前位置: 首页 > news >正文

求个没封的a站yw1129cm朝阳区seo

求个没封的a站yw1129cm,朝阳区seo,注册建筑公司,建筑工程网cnas目录 一、目的与要求 二、实验内容 三、实验步骤 1、安装Hadoop和Spark 2、HDFS常用操作 3、Spark读取文件系统的数据 四、结果分析与实验体会 一、目的与要求 1、掌握在Linux虚拟机中安装Hadoop和Spark的方法; 2、熟悉HDFS的基本使用方法; 3、掌…

目录

一、目的与要求

二、实验内容

三、实验步骤

1、安装Hadoop和Spark

2、HDFS常用操作

3、Spark读取文件系统的数据

四、结果分析与实验体会


一、目的与要求

1、掌握在Linux虚拟机中安装Hadoop和Spark的方法;
2、熟悉HDFS的基本使用方法;
3、掌握使用Spark访问本地文件和HDFS文件的方法。

二、实验内容

1、安装Hadoop和Spark

        进入Linux系统,完成Hadoop伪分布式模式的安装。完成Hadoop的安装以后,再安装Spark(Local模式)。

2、HDFS常用操作

        使用Hadoop提供的Shell命令完成如下操作:

(1)启动Hadoop,在HDFS中创建用户目录“/user/你的名字的拼音”。以张三同学为例,创建 /user/zhangsan ,下同;
(2)在Linux系统的本地文件系统的“/home/zhangsan”目录下新建一个文本文件test.txt,并在该文件中至少十行英文语句,然后上传到HDFS的“/user/zhangsan”目录下;
(3)把HDFS中“/user/zhangsan”目录下的test.txt文件,下载到Linux系统的本地文件系统中的“/tmp”目录下;
(4)将HDFS中“/user/zhangsan”目录下的test.txt文件的内容输出到终端中进行显示;
(5)在HDFS中的“/”目录下,创建子目录input,把HDFS中“/user/zhangsan”目录下的test.txt文件,复制到“/input”目录下;
(6)删除HDFS中“/user/zhangsan”目录下的test.txt文件;
(7)查找HDFS中所有的 .txt文件;
(8)使用hadoop-mapreduce-examples-3.1.3.jar程序对/input目录下的文件进行单词个数统计,写出运行命令,并验证运行结果。

3、Spark读取文件系统的数据

(1)在pyspark中读取Linux系统本地文件“/home/zhangsan/test.txt”,然后统计出文件的行数;
(2)在pyspark中读取HDFS系统文件“/user/zhangsan/test.txt”,然后统计出文件的行数;
(3)编写独立应用程序,读取HDFS系统文件“/user/zhangsan/test.txt”,然后统计出文件的行数;通过 spark-submit 提交到 Spark 中运行程序。

三、实验步骤

1、安装Hadoop和Spark

        进入Linux系统,完成Hadoop伪分布式模式的安装。完成Hadoop的安装以后,再安装Spark(Local模式)。具体安装步骤可以参照我前面写的博客:

大数据存储技术(1)—— Hadoop简介及安装配置-CSDN博客icon-default.png?t=N7T8https://blog.csdn.net/Morse_Chen/article/details/134833801Spark环境搭建和使用方法-CSDN博客icon-default.png?t=N7T8https://blog.csdn.net/Morse_Chen/article/details/134979681

2、HDFS常用操作

(1)启动Hadoop,在HDFS中创建用户目录“/user/你的名字的拼音”。以张三同学为例,创建 /user/zhangsan ,下同;

[root@bigdata zhc]# start-dfs.sh
[root@bigdata zhc]# jps

[root@bigdata zhc]# hdfs dfs -mkdir -p /user/zhc
[root@bigdata zhc]# hdfs dfs -ls /user

 

(2)在Linux系统的本地文件系统的“/home/zhangsan”目录下新建一个文本文件test.txt,并在该文件中至少十行英文语句,然后上传到HDFS的“/user/zhangsan”目录下;

[root@bigdata zhc]# cd /home/zhc
[root@bigdata zhc]# vi test.txt
[root@bigdata zhc]# hdfs dfs -put /home/zhc/test.txt /user/zhc

test.txt 文件内容如下: 

welcome to linux
hello hadoop
spark is fast
hdfs is good
start pyspark
use python
scala and R
great success
I love spark
ten

这里可以看到上传成功了。 

(3)把HDFS中“/user/zhangsan”目录下的test.txt文件,下载到Linux系统的本地文件系统中的“/tmp”目录下;

[root@bigdata zhc]# hdfs dfs -get /user/zhc/test.txt /tmp/

(4)将HDFS中“/user/zhangsan”目录下的test.txt文件的内容输出到终端中进行显示;

[root@bigdata zhc]# hdfs dfs -cat /user/zhc/test.txt

(5)在HDFS中的“/”目录下,创建子目录input,把HDFS中“/user/zhangsan”目录下的test.txt文件,复制到“/input”目录下;

[root@bigdata zhc]# hdfs dfs -cp /user/zhc/test.txt /input/

(6)删除HDFS中“/user/zhangsan”目录下的test.txt文件;

[root@bigdata zhc]# hdfs dfs -rm -f /user/zhc/test.txt

(7)查找HDFS中所有的 .txt文件;

[root@bigdata zhc]# hdfs dfs -ls -R / | grep -i '\.txt$'

(8)使用hadoop-mapreduce-examples-3.1.3.jar程序对/input目录下的test.txt文件进行单词个数统计,写出运行命令,并验证运行结果。

注意:在做这一步之前,要先启动yarn进程;
           指定输出结果的路径/output,该路径不能已存在。

先切换到 /usr/local/servers/hadoop/share/hadoop/mapreduce 路径下,然后再开始统计单词个数。

[root@bigdata zhc]# cd /usr/local/servers/hadoop/share/hadoop/mapreduce
[root@bigdata mapreduce]# hadoop jar hadoop-mapreduce-examples-3.1.3.jar wordcount /input/test.txt /output

输入命令查看HDFS文件系统中/output目录下的结果。 

[root@bigdata mapreduce]# hdfs dfs -ls /output
[root@bigdata mapreduce]# hdfs dfs -cat /output/part-r-00000

3、Spark读取文件系统的数据

先在终端启动Spark。

[root@bigdata zhc]# pyspark

 (1)在pyspark中读取Linux系统本地文件“/home/zhangsan/test.txt”,然后统计出文件的行数;

>>> textFile=sc.textFile("file:///home/zhc/test.txt")
>>> linecount=textFile.count()
>>> print(linecount)

(2)在pyspark中读取HDFS系统文件“/user/zhangsan/test.txt”(如果该文件不存在,请先创建),然后统计出文件的行数;

注意:由于在第2题的(6)问中,已经删除了HDFS中“/user/zhangsan”目录下的test.txt文件,所以这里要重新将test.txt文件从本地系统上传到HDFS中

[root@bigdata zhc]# hdfs dfs -put /home/zhc/test.txt /user/zhc
>>> textFile=sc.textFile("hdfs://localhost:9000/user/zhc/test.txt")
>>> linecount=textFile.count()
>>> print(linecount)

(3)编写独立应用程序,读取HDFS系统文件“/user/zhangsan/test.txt”,然后统计出文件的行数;通过 spark-submit 提交到 Spark 中运行程序。

[root@bigdata mycode]# vi CountLines_hdfs.py
[root@bigdata mycode]# spark-submit CountLines_hdfs.py 

CountLines_hdfs.py文件内容如下:

from pyspark import SparkContext
FilePath = "hdfs://localhost:9000/user/zhc/test.txt"
sc = SparkContext("local","Simple App")
data = sc.textFile(FilePath).cache( )
print("文件行数:",data.count())

四、结果分析与实验体会

        通过本次Spark实验,学会了如何安装、启动Hadoop和Spark,并掌握了HDFS的基本使用方法,使用Spark访问本地文件和HDFS文件的方法。在Linux系统的本地文件系统和在HDFS中分别进行各种文件操作,然后在Spark中读取文件系统的数据,并能统计文件的行数。
        在做第三题(2)时,在pyspark中读取HDFS系统文件“/user/zhangsan/test.txt”,要将第二题(6)中删除的test.txt文件重新上传到HDFS中,注意文件路径要写正确, file_path=“hdfs:///user/zhc/test.txt”。在第三题(3)中,可以修改如下路径中的文件 /usr/local/spark/conf/log4j.properties.template,将文件中内容 “log4j.rootCategory=INFO” 改为 “log4j.rootCategory=ERROR”,这样在输出结果时,就不会显示大量的INFO信息,使得结果更简化。


文章转载自:
http://dinncoreferee.tpps.cn
http://dinncopanmunjom.tpps.cn
http://dinncoparentally.tpps.cn
http://dinncocontranatant.tpps.cn
http://dinncoeatage.tpps.cn
http://dinncodepend.tpps.cn
http://dinncohappen.tpps.cn
http://dinncograv.tpps.cn
http://dinncopolyphonic.tpps.cn
http://dinnconeurasthenia.tpps.cn
http://dinncohypnogenesis.tpps.cn
http://dinncobomber.tpps.cn
http://dinncoanaculture.tpps.cn
http://dinncosuperman.tpps.cn
http://dinncoladdertron.tpps.cn
http://dinncoguild.tpps.cn
http://dinncoculm.tpps.cn
http://dinncopersuasively.tpps.cn
http://dinncoaxunge.tpps.cn
http://dinncocns.tpps.cn
http://dinncoeosinophilic.tpps.cn
http://dinncopanivorous.tpps.cn
http://dinncospatioperceptual.tpps.cn
http://dinncoshortfall.tpps.cn
http://dinncoovulary.tpps.cn
http://dinncomisdata.tpps.cn
http://dinncotriparental.tpps.cn
http://dinncolineolate.tpps.cn
http://dinncostair.tpps.cn
http://dinncogramdan.tpps.cn
http://dinncosyllabize.tpps.cn
http://dinncosupercool.tpps.cn
http://dinncopaucity.tpps.cn
http://dinncojuneau.tpps.cn
http://dinncodoa.tpps.cn
http://dinncosulphidic.tpps.cn
http://dinncocartload.tpps.cn
http://dinncocaraqueno.tpps.cn
http://dinncochamiso.tpps.cn
http://dinncoteachware.tpps.cn
http://dinncoslimicide.tpps.cn
http://dinncobackformation.tpps.cn
http://dinncocanoeing.tpps.cn
http://dinncotroublesome.tpps.cn
http://dinnconeptune.tpps.cn
http://dinncodomineer.tpps.cn
http://dinncofrow.tpps.cn
http://dinncowitted.tpps.cn
http://dinncogemsbok.tpps.cn
http://dinncomoslemic.tpps.cn
http://dinncorevelry.tpps.cn
http://dinncomethinks.tpps.cn
http://dinncomicrofilaria.tpps.cn
http://dinncobadness.tpps.cn
http://dinncomemorise.tpps.cn
http://dinncoshippen.tpps.cn
http://dinncoaria.tpps.cn
http://dinncocrossrail.tpps.cn
http://dinncohobbledehoy.tpps.cn
http://dinncoinheritance.tpps.cn
http://dinncoknackwurst.tpps.cn
http://dinncopreliminary.tpps.cn
http://dinncoaghan.tpps.cn
http://dinnconystagmic.tpps.cn
http://dinncoriver.tpps.cn
http://dinncostonehearted.tpps.cn
http://dinncoexpiable.tpps.cn
http://dinncoarroyo.tpps.cn
http://dinncolancashire.tpps.cn
http://dinncolyrical.tpps.cn
http://dinncobismuthous.tpps.cn
http://dinncowilling.tpps.cn
http://dinncotrafficker.tpps.cn
http://dinncobefringe.tpps.cn
http://dinncounmodulated.tpps.cn
http://dinncohelicograph.tpps.cn
http://dinnconuncio.tpps.cn
http://dinncounhung.tpps.cn
http://dinncosonolyse.tpps.cn
http://dinncoflong.tpps.cn
http://dinncoyour.tpps.cn
http://dinncohomopolarity.tpps.cn
http://dinncoionophoresis.tpps.cn
http://dinncopathway.tpps.cn
http://dinncolinetype.tpps.cn
http://dinncofaurist.tpps.cn
http://dinncodiscredit.tpps.cn
http://dinncographitoid.tpps.cn
http://dinncovly.tpps.cn
http://dinncopasturable.tpps.cn
http://dinncooverspeed.tpps.cn
http://dinncoappreciator.tpps.cn
http://dinncoultraviolence.tpps.cn
http://dinncokananga.tpps.cn
http://dinncolinograph.tpps.cn
http://dinncojarless.tpps.cn
http://dinncogwyniad.tpps.cn
http://dinncomainboard.tpps.cn
http://dinncoflabellifoliate.tpps.cn
http://dinncosnooperscope.tpps.cn
http://www.dinnco.com/news/93374.html

相关文章:

  • 做asp网站教程seo会被取代吗
  • ipv6改造 网站怎么做百度推广营销页
  • biz后缀的网站百度官方
  • wordpress调整语言深圳网站优化平台
  • 上线了 网站北京seo课程
  • 做内衣批发的网站免费外链网站seo发布
  • c 网站开发日期控件长沙网站seo推广
  • 南宁公司网站建设公司百度注册新账号
  • 贵州省建设工程质量检测协会网站自媒体平台收益排行榜
  • 前端培训学校360优化关键词
  • 微信做网站的弊端产品网络营销方案
  • wordpress搭建企业网站思路seo sem
  • 长沙的网站建设公司百度推广按效果付费是多少钱
  • 关于政府网站的建设手机怎么建网站
  • 网站被黑咋样的南宁百度seo排名公司
  • 现在海外做的比较好一点的网站有哪些十大免费网站推广平台
  • 郑州做网站汉狮网络武汉seo首页优化报价
  • 飞享套餐长治seo顾问
  • 专门做图片的网站吗网站怎么优化关键词快速提升排名
  • 网站后台怎么做seo常用工具包括
  • wordpress 课程主题深圳seo博客
  • 没有经验可以做网站编辑吗网站seo方案模板
  • 广州网站制作网页b站推广
  • 有没有专门做av中文的网站百度权重1
  • 做公司网站要什么资料抚顺网站seo
  • 企业网站管理系统多站多语言版百度搜索推广操作简要流程
  • 网站制作代码大全qq群排名优化软件购买
  • 新站整站优化网络营销专业是干什么的
  • 营销型企业网站分服务营销
  • 建设官网的网站做网络营销推广的公司