欢迎来到得力文库 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
得力文库 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    (19.5)--实验实践5.大数据计算框架Hadoop3.0的安装部署与配置及H.pdf

    • 资源ID:67733709       资源大小:1.84MB        全文页数:19页
    • 资源格式: PDF        下载积分:8金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要8金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    (19.5)--实验实践5.大数据计算框架Hadoop3.0的安装部署与配置及H.pdf

    图示图示说明HDFS架构:NameNodeSecondaryNamenodeDataNodeClient1、大数据计算框架Hadoop3.0的安装部署与配置 1.1 Hadoop的概述 1、Hadoop是什么?Hadoop就是存储海量数据和分析海量数据的工具,是公认的大数据通用存储和分析平台,它实现了分布式文件系统HDFS(Hadoop Distributed File System)、分布式运行程序编程框架MapReduce以及资源管理系统YARN(Yet Another Resource Negotiator),其中HDFS和MapReduce是它的核心设计部分。2、Hadoop能够解决什么问题?Hadoop主要是为了解决海量数据的存储(HDFS)和分析计算(MapReduce)问题,同时为解决以上两种问题的资源(计算、存储)调度(Yarn)。3、HDFS Hadoop是专为离线和大规模数据分析而设计的,并不适合那种对几个记录随机读写的在线事务处理模式。HDFS是Master和Slave的主从结构。主从结构是一种概念模型,将设备分为主设备和从设备,主设备负责分配工作并整合结果,或作为指令的来源;从设备负责完成工作,一般只能和主设备通信)。(1)NameNode:分布式文件系统中的管理者,主要负责管理文件系统的命名空间、集群配置信息和存储块的复制等(2)Secondary NameNode:辅助 NameNode,分担其工作,紧急情况可以辅助恢复(3)DataNode:Slave节点,实际存储数据、执行数据块的读写并汇报存储信息给NameNodeHDFS客户端的存储流程:当客户需要写数据时,先在NameNode 上创建文件结构并确定数据块副本将要写到哪几个 DataNode,然后将多个待写 DataNode 组成一个写数据管道,保证写入过程完整统一写入。读取数据时则先通过 NameNode 找到存储数据块副本的所有 DataNode,根据与读取客户端距离排序数据块,然后取最近的。图示图示说明Yarn架构:整体属于master/slave模型1.2 伪分布式(seudo-Distributed Mode)(1)hadoop完全分布式(Fully Distributed Mode):所有的守护进程运行在集群中,3个及以上的实体机或者虚拟机组件的机群。(2)hadoop伪分布式:是在一台单机上运行,但用不同的Java进程模仿分布式运行中的各类结点。伪分布模式在“单节点集群”上运行Hadoop,其中所有的守护进程都运行在同一台机器上。该模式在单机模式之上增加了代码调试功能,允许你检查内存使用情况,HDFS输入输出,以及其他的守护进程交互。如果要开发基于Hadoop的分布式程序,伪分布式足够实验了。如果你要做很多其他事情,比如学习oozie、hbase,建议装多个虚拟机。Yarn(Yet Another Resource Negotiator的缩写)是hadoop集群资源管理器系统,Yarn从hadoop 2引入,最初是为了改善MapReduce的实现,但是它具有通用性,同样执行其他分布式计算模式。Yarn主要组件:(1)ResourceManager,是集群资源的仲裁者,它包括两部分:一个是可插拔式的调度Scheduler,一个是ApplicationManager,用于管理集群中的用户作业。(2)每个节点上的NodeManager,管理该节点上的用户作业和工作流,也会不断发送自己Container使用情况给ResourceManager。(3)ApplicationMaster,管理一个在YARN内运行的应用程序的每个实例。它的主要功能就是向ResourceManager(全局的)申请计算资源(Containers)并且和NodeManager交互来执行和监控具体的task。(4)ASM:applicationsmanager 应用程序管理器,负责管理系统中所有应用程序。(5)container:对任务运行环境进行抽象,封装CPU、内存等多维度的资源以及环境变量、启动命令等任务运行相关的信息。比如内存、CPU、磁盘、网络等,当AM向RM申请资源时,RM为AM返回的资源便是用Container表示的。YARN会为每个任务分配一个Container,且该任务只能使用该Container中描述的资源。(6)scheduler:根据应用程序的资源需求进行资源分配 https:/ 用VM程序创建几个虚拟机配置完全分布式,然后做实验是完全可行的。可能要求你的电脑cpu和内存足够支撑你这一计划。1.3 配置ssh免登陆 在启动机器中启动一台就要输密码,这里是伪分布式所以只输一次,若启动多台,则要输很多次,不现实,可以设置免密登录)。备注:伪分布式虽只有一台也要配置给自己,不然要不断输密码)1.4 安装环境准备 1.4.1设置主机名 1.4.2 完成主机名和IP地址映射 1、Hadoop中为什么要配置免密码登录 在集群中,Hadoop控制脚本依赖SSH来执行针对整个集群的操作。例如,某个脚本能够终止并重启集群中的所有守护进程。所以,需要安装SSH,但是,SSH远程登陆的时候,需要密码验证,集群中数千台计算机,数千台计算机都需要手工输入密码,这是不太现实的,所以,就需要配置SSH无密码登录。2、免密码登录的大致流程(1)在客户端创建密钥文件 每个节点都是客户端,也都是服务器端,需要在每个节点上创建一对密钥文件,密钥文件包括公钥(/.ssh/id_rsa.pub)和私钥文件(/.ssh/id_rsa)(2)把公钥文件放到要登录的节点上 客户端在使用ssh登录到其他节点上的时候,ssh会发送私钥去和其他节点上的公钥去匹配,如果匹配成功,那么就会自动登录,而不需要输入密码,这就实现了无密码登录。所以,客户端要实现免密码登录到目标节点上的时候,就需要把公钥写入目标节点上的/.ssh/authorized_keys中。3、设置主机A到主机B免密登录(1)在主机A上生成rsa密钥对 在命令行下输入命令:ssh-keygen-t rsa,所有提示均按回车默认。你会发现在用户的home目录下会自动生成一个隐藏的文件夹“.ssh”,里面会有两个文件,分别是id_rsa和id_rsa.pub。id_rsa是本机的私钥,在使用ssh协议向其它主机传输数据前,主机会使用该私钥对数据进行加密;id_rsa.pub是本机的公钥,因为ssh协议采用非对称加密法(公钥可以用来解密使用私钥进行加密的数据,同样,私钥也可以用来解密公钥进行加密的数据),所以主机一般将该公钥放到其它需要远程登录到的主机的ssh服务器中;(2)将主机A上生成的公钥传到主机B中 使用命令:在主机A的命令行上执行ssh-copy-id userhost,就可以将主机A上生成的公钥传到主机B中,开启无密码SSH登录。输入的命令是userhost,为何不是IP地址呢?这是因为我们在/etc/hosts文件中指定了userhost的ip地址为 192.168.1.*(3)测试免密登录 客户端通过ssh连接远程服务器,就可以免密登录了。ssh userhosthadoophadoop$hostnamehadoophadoophadoop$sudo vi/etc/hostname hadoop011.4.3 防火墙关闭 1.4.4 SELinux禁用 1.4.5 创建Hadoop用户并给用户提权 1.4.6 安装JDK并检查是否安装成功 hadoophadoop$sudo vi/etc/hosts192.168.1.180 hadoop01#增加一行,实现主机名和IP地址映射#查看防火墙是否永久关闭hadoophadoop$sudo systemctl status firewalld firewalld.service-firewalld-dynamic firewall daemon Loaded:loaded(/usr/lib/systemd/system/firewalld.service;disabled;vendor preset:enabled)Active:inactive(dead)Docs:man:firewalld(1)#查看SELINUX是否禁用hadoophadoop$sudo vi/etc/selinux/configSELINUX=disabled#SELINUX 禁用通过编辑/etc/sudoers文件,授权hadoop用户,进行提权,使得hadoop用户具有超级管理员的权限 思路:将用户添加到sudo列表 roothadoop etc#cat sudoers【1】修改/etc/sudoers权限,增加可写 chmod u+w/etc/sudoers【2】修改/etc/sudoers(101行添加hadoop用户的信任信息)hadoop ALL=(ALL)NOPASSWD:ALL【3】修改/etc/sudoers权限,删除可写 chmod u+w/etc/sudoershadoophadoop$which java/opt/model/jdk1.8/bin/javahadoophadoop$java-versionjava version 1.8.0_231Java(TM)SE Runtime Environment(build 1.8.0_231-b11)Java HotSpot(TM)64-Bit Server VM(build 25.231-b11,mixed mode)1.4.7 SSH免密登录(1)生成RSA公钥与私钥对(2)将生成的公钥复制到免密登录的主机上hadoophadoop$ssh-keygen-t rsa#创建rsa密钥对,3-4次回车确认Generating public/private rsa key pair.Enter file in which to save the key(/home/hadoop/.ssh/id_rsa):Created directory/home/hadoop/.ssh.Enter passphrase(empty for no passphrase):Enter same passphrase again:Your identification has been saved in/home/hadoop/.ssh/id_rsa.Your public key has been saved in/home/hadoop/.ssh/id_rsa.pub.The key fingerprint is:SHA256:neynCzhIfDS6r4lF8edU7R9sUahs+nKMaPnY4OENDGI hadoophadoopThe keys randomart image is:+-RSA 3072-+|.|.|.o .|.=.+o+.|E+S+o.+|+=B.o.|+o Bo.+.|o o+Ooo+|.o.+.*+|+-SHA256-+hadoophadoop$ll/.ssh#查看生成的密钥对总用量 8-rw-1 hadoop hadoop 2602 3月 26 15:42 id_rsa-rw-r-r-1 hadoop hadoop 567 3月 26 15:42 id_rsa.pubhadoophadoop$cat/.ssh/id_rsa#查看生成的私钥-BEGIN OPENSSH PRIVATE KEY-b3BlbnNzaC1rZXktdjEAAAAABG5vbmUAAAAEbm9uZQAAAAAAAAABAAABlwAAAAdzc2gtcnhadoophadoop$ssh-copy-id hadoop01/usr/bin/ssh-copy-id:INFO:Source of key(s)to be installed:/home/hadoop/.ssh/id_rsa.pubThe authenticity of host hadoop01(192.168.1.180)cant be established.ECDSA key fingerprint is SHA256:y/NxgLTyyWNRqBYSkP4scDIHWSLj7eaEyv+jujIB/9E.Are you sure you want to continue connecting(yes/no/fingerprint)?yes#确定连接hadoop01/usr/bin/ssh-copy-id:INFO:attempting to log in with the new key(s),to filter out any that are already installed/usr/bin/ssh-copy-id:INFO:1 key(s)remain to be installed-if you are prompted now it is to install the new keyshadoophadoop01s password:#输入hadoop用户密码Number of key(s)added:1Now try logging into the machine,with:ssh hadoop01and check to make sure that only the key(s)you wanted were added.图示图示说明从宿主物理机上传文件到Linux机器指定路径下(3)测试免密登录1.5 hadoop 安装 1.5.1 上传Hadoop安装包到Linux 机器上 1.5.2 解压安装包并配置环境变量 hadoophadoop$ll/.ssh#查看公钥是否复制到要登录的节点机器上。总用量 16-rw-1 hadoop hadoop 567 3月 26 15:46 authorized_keys-rw-1 hadoop hadoop 2602 3月 26 15:42 id_rsa-rw-r-r-1 hadoop hadoop 567 3月 26 15:42 id_rsa.pub-rw-r-r-1 hadoop hadoop 184 3月 26 15:46 known_hostshadoophadoop$ssh hadoop01Activate the web console with:systemctl enable-now cockpit.socketLast login:Sat Mar 26 15:04:10 2022#查看hadoop3.2.1安装包文件hadoophadoop$cd/opthadoophadoop opt$lsdata model softwarehadoophadoop opt$cd softwarehadoophadoop software$ll总用量 189604drwxrwxr-x 2 hadoop hadoop 119 3月 26 16:10 hadoop3.2.1-rw-rw-r-1 hadoop hadoop 194151339 10月 10 2020 jdk-8u231-linux-x64.tar.gzdrwxrwxr-x 2 hadoop hadoop 220 3月 26 15:06 MySQL-8.0.19hadoophadoop software$cd hadoop3.2.1/hadoophadoop hadoop3.2.1$ll总用量 350796-rw-rw-r-1 hadoop hadoop 1112 10月 10 2020 core-site.xml查看 hadoop是否安装成功1.5.3 修改配置文件-rw-rw-r-1 hadoop hadoop 359196911 10月 10 2020 hadoop-3.2.1.tar.gz-rw-rw-r-1 hadoop hadoop 1314 10月 10 2020 hdfs-site.xml-rw-rw-r-1 hadoop hadoop 1383 10月 10 2020 mapred-site.xml-rw-rw-r-1 hadoop hadoop 1429 10月 10 2020 yarn-site.xml#解压上传安装包到指定目录 /opt/modelhadoophadoop hadoop3.2.1$tar-zxvf hadoop-3.2.1.tar.gz-C/opt/model#配置环境变量hadoophadoop hadoop3.2.1$vi/.bashrcJAVA_HOME=/opt/model/jdk1.8HADOOP_HOME=/opt/model/hadoop-3.2.1#增加环境变量HADOOP_HOMEPATH=$HOME/.local/bin:$HOME/bin:$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin#增加:$HADOOP_HOME/bin:$HADOOP_HOME/sbin,bin目录和sbin目录下都有相应的可执行文件export PATHexport JAVA_HOMEexport HADOOP_HOME#输出export HADOOP_HOMEhadoophadoop hadoop3.2.1$source/.bashrc#执行source指令使环境变量立即生效hadoophadoop hadoop3.2.1$which hadoop#查看Hadoop安装路径/opt/model/hadoop-3.2.1/bin/hadoophadoophadoop hadoop3.2.1$hadoop version#查看Hadoop安装版本Hadoop 3.2.1Source code repository https:/gitbox.apache.org/repos/asf/hadoop.git-r b3cbbb467e22ea829b3808f4b7b01d07e0bf3842Compiled by rohithsharmaks on 2019-09-10T15:56ZCompiled with protoc 2.5.0From source with checksum 776eaf9eee9c0ffc370bcbc1888737This command was run using/opt/model/hadoop-3.2.1/share/hadoop/common/hadoop-common-3.2.1.jar(1)配置文件路径 /opt/model/hadoop-3.2.1/etc/hadoop/hadoophadoop hadoop3.2.1$cd/opt/model/hadoop-3.2.1 hadoophadoop hadoop-3.2.1$ll#查看配置文件路径/opt/model/hadoop-3.2.1 目录及文件信息,了解bin、sbin、share等目录下的文件信息总用量 180drwxr-xr-x 2 hadoop hadoop 203 9月 11 2019 bindrwxr-xr-x 3 hadoop hadoop 20 9月 10 2019 etcdrwxr-xr-x 2 hadoop hadoop 106 9月 11 2019 includedrwxr-xr-x 3 hadoop hadoop 20 9月 11 2019 libdrwxr-xr-x 4 hadoop hadoop 288 9月 11 2019 libexec-rw-rw-r-1 hadoop hadoop 150569 9月 10 2019 LICENSE.txt-rw-rw-r-1 hadoop hadoop 22125 9月 10 2019 NOTICE.txt-rw-rw-r-1 hadoop hadoop 1361 9月 10 2019 README.txtdrwxr-xr-x 3 hadoop hadoop 4096 9月 10 2019 sbindrwxr-xr-x 4 hadoop hadoop 31 9月 11 2019 share(2)创建目录 (3)修改配置文件etc/hadoop/hadoop-env.sh hadoop运行环境:用来定义hadoop运行环境相关的配置信息/opt/model/hadoop-3.2.1/etc/hadoop/tmp#是hadoop文件系统依赖的基础配置,很多路径都依赖它。如果hdfs-site.xml中不配置namenode和datanode的存放位置,默认就放在这个路径中 NameNode 数据存储路径/opt/model/hadoop-3.2.1/etc/hadoop/dfs/name DataNode 数据存储路径/opt/model/hadoop-3.2.1/etc/hadoop/dfs/datahadoophadoop hadoop-3.2.1$mkdir /opt/model/hadoop-3.2.1/tmphadoophadoop hadoop-3.2.1$mkdir-p /opt/model/hadoop-3.2.1/dfs/namehadoophadoop hadoop-3.2.1$mkdir-p /opt/model/hadoop-3.2.1/dfs/data#etc/hadoop下配置文件hadoophadoop01 hadoop-3.2.1$cd etc/hadoophadoophadoop01 hadoop$ll总用量 172-rw-r-r-1 hadoop hadoop 8260 9月 11 2019 capacity-scheduler.xml-rw-r-r-1 hadoop hadoop 1335 9月 11 2019 configuration.xsl-rw-r-r-1 hadoop hadoop 1940 9月 11 2019 container-executor.cfg-rw-r-r-1 hadoop hadoop 990 3月 26 16:58 core-site.xml-rw-r-r-1 hadoop hadoop 3999 9月 10 2019 hadoop-env.cmd-rw-r-r-1 hadoop hadoop 16251 3月 26 17:17 hadoop-env.sh-rw-r-r-1 hadoop hadoop 3321 9月 10 2019 hadoop-metrics2.properties-rw-r-r-1 hadoop hadoop 11392 9月 10 2019 hadoop-policy.xml-rw-r-r-1 hadoop hadoop 3414 9月 10 2019 hadoop-user-functions.sh.example-rw-r-r-1 hadoop hadoop 1194 3月 26 17:00 hdfs-site.xml-rw-r-r-1 hadoop hadoop 1484 9月 11 2019 httpfs-env.sh-rw-r-r-1 hadoop hadoop 1657 9月 11 2019 httpfs-log4j.properties-rw-r-r-1 hadoop hadoop 21 9月 11 2019 httpfs-signature.secret-rw-r-r-1 hadoop hadoop 620 9月 11 2019 httpfs-site.xml-rw-r-r-1 hadoop hadoop 3518 9月 10 2019 kms-acls.xml-rw-r-r-1 hadoop hadoop 1351 9月 10 2019 kms-env.sh-rw-r-r-1 hadoop hadoop 1860 9月 10 2019 kms-log4j.properties-rw-r-r-1 hadoop hadoop 682 9月 10 2019 kms-site.xml-rw-r-r-1 hadoop hadoop 13326 9月 10 2019 log4j.properties-rw-r-r-1 hadoop hadoop 951 9月 11 2019 mapred-env.cmd-rw-r-r-1 hadoop hadoop 1764 9月 11 2019 mapred-env.sh-rw-r-r-1 hadoop hadoop 4113 9月 11 2019 mapred-queues.xml.template-rw-r-r-1 hadoop hadoop 1053 3月 26 17:07 mapred-site.xmldrwxr-xr-x 2 hadoop hadoop 24 9月 10 2019 shellprofile.d-rw-r-r-1 hadoop hadoop 2316 9月 10 2019 ssl-client.xml.example-rw-r-r-1 hadoop hadoop 2697 9月 10 2019 ssl-server.xml.example-rw-r-r-1 hadoop hadoop 2642 9月 11 2019 user_ec_policies.xml.template-rw-r-r-1 hadoop hadoop 9 3月 26 17:13 workers-rw-r-r-1 hadoop hadoop 2250 9月 11 2019 yarn-env.cmd-rw-r-r-1 hadoop hadoop 6056 9月 11 2019 yarn-env.sh-rw-r-r-1 hadoop hadoop 2591 9月 11 2019 yarnservice-log4j.properties-rw-r-r-1 hadoop hadoop 1080 3月 26 17:12 yarn-site.xml(4)修改配置文件etc/hadoop/core-site.xml集群全局参数:用于定义系统级别的参数,如HDFS URL、Hadoop的临时目录等,配置HDFS的namenode的地址(NameNode的URI。hdfs:/主机名:端口),配置hadoop运行时产生的文件的目录(5)修改配置文件etc/hadoop/hdfs-site.xmlHDFS:如名称节点和数据节点的存放位置、文件副本的个数、文件的读取权限等hadoophadoop hadoop-3.2.1$vi etc/hadoop/hadoop-env.sh#修改 etc/hadoop/hadoop-env.sh文件中export JAVA_HOME=行后面文本如下#The java implementation to use.By default,this environment#variable is REQUIRED on ALL platforms except OS X!export JAVA_HOME=/opt/model/jdk1.8hadoophadoop hadoop-3.2.1$vi etc/hadoop/core-site.xml#fs.defaultFS hdfs:/hadoop01:9000#备注:hostname要用主机名或域名,不能使用ip#hadoop.tmp.dir /opt/model/hadoop-3.2.1/tmp#Hadoop的默认临时文件存放路径,这个最好配置,如果在新增节点或者其他情况下莫名其妙的DataNode启动不了,就删除此文件中的tmp目录即可。不过如果删除了NameNode机器的此目录,那么就需要重新执行NameNode格式化的命令hadoophadoop hadoop-3.2.1$vi etc/hadoop/hdfs-site.xml#默认block块的大小128M#dfs.replication(6)修改配置文件etc/hadoop/mapred-site.xmllMapReduce参数:包括JobHistory Server 和应用程序参数两部分,如reduce任务的默认个数、任务所能够使用内存的默认上下限等 1#定义dfs namenode web ui使用的监听地址和基本端口。dfs.namenode.http-address hadoop01:9870#dfs.namenode.name.dir /opt/model/hadoop-3.2.1/dfs/name dfs.datanode.data.dir /opt/model/hadoop-3.2.1/dfs/data hadoophadoop hadoop-3.2.1$vi etc/hadoop/mapred-site.xml#!-指定mr运行在yarn上,这个属性用于指定执行MapReduce作业的运行时框架。属性值可以是local,classic或yarn。mapreduce.framework.name yarn#指定了查看运行完Mapreduce程序的服务器的IPC协议的主机名和端口号,通过历史服务器查看已经运行完的Mapreduce作业记录 mapreduce.jobhistory.address hadoop01:10020#指定了使用WebUI查看mapreduce程序的主机名和端口号 mapreduce.jobhistory.webapp.address hadoop01:19888 (7)修改配置文件etc/hadoop/yarn-site.xml集群资源管理系统参数:配置ResourceManager,nodeManager的通信端口,web监控端口等(8)修改配置文件etc/hadoop/workers1.5.4 nameNode 格式化 hadoophadoop hadoop-3.2.1$vi etc/hadoop/yarn-site.xml#yarn.resourcemanager.hostname hadoop01#yarn.nodemanager.aux-services mapreduce_shuffle#是否开启日志聚合。日志聚合会在应用程序完成后收集每个容器的日志,并将这些日志移动到文件系统中,例如 HDFS。yarn.log-aggregation-enable true#聚合日志保存时间(默认-1为不删除)yarn.log-aggregation.retain-seconds 604800 hadoophadoop hadoop-3.2.1$vi etc/hadoop/workershadoop01#添加从节点名称,hadoop3.0以后slaves更名为workershadoophadoop hadoop-3.2.1$hdfs namenode-format成功的话,会看到“successfully formatted”和“Exitting with status 0”的提示,若为“Exitting with status 1”则是出错。1.5.6 启动集群服务(1)通过start-dfs.sh和start-yarn.sh或者直接执行start-all.sh(2)通过jps查看启动的Hadoop进程启动完成后,可以通过命令 jps 来判断是否成功启动,若成功启动则会列出如下进程:“NameNode”、”DataNode”和“SecondaryNameNode”(如果 SecondaryNameNode 没有启动,请运行 stop-dfs.sh 关闭进程,然后再次尝试启动尝试)。如果没有 NameNode 或 DataNode,那就是配置不成功,请仔细检查之前步骤,或通过查看启动日志排查原因。#开启 NameNode 和 DataNode 守护进程hadoophadoop01 hadoop-3.2.1$start-dfs.shStarting namenodes on hadoop01Starting datanodesStarting secondary namenodes hadoop01hadoophadoop01 hadoop-3.2.1$jps3267 SecondaryNameNode2900 NameNode3515 Jps3036 DataNodehadoophadoop01 hadoop-3.2.1$start-yarn.shStarting resourcemanagerStarting nodemanagershadoophadoop01 hadoop-3.2.1$jps3776 NodeManager3267 SecondaryNameNode2900 NameNode3638 ResourceManager4121 Jps3036 DataNodehadoophadoop01 hadoop-3.2.1$jps3776 NodeManager3267 SecondaryNameNode2900 NameNode3638 ResourceManager4121 Jps3036 DataNodeWebUI查看启动服务http:/master:9870/查看namenode信息:Note:如果是虚拟机配置的hadoop,成功启动后,可以访问 Web 界面 http:/localhost:50070 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。hadoophadoop hadoop-3.2.1$mr-jobhistory-daemon.sh start historyserverWARNING:Use of this script to start the MR JobHistory daemon is deprecated.WARNING:Attempting to execute replacement mapred-daemon start instead.hadoophadoop hadoop-3.2.1$jps7074 JobHistoryServer6532 ResourceManager6265 SecondaryNameNode5915 NameNode7132 Jps6654 NodeManager6047 DataNode图示图示说明HDFS成功:(HDFS管理界面)YARN成功Nodes信息Node节点信息图示图示说明jobhistory配置成功Note:如果是虚拟机配置的hadoop,成功启动后,可以访问 Web 界面 http:/localhost:50070 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。1.5.7 关闭集群服务 stop-dfs.sh和stop-yarn.sh或者直接执行stop-all.sh2.HDFS 常用命令及管理 2.1HDFS常用指令 HDFS的基本命令格式为:命令:hdfs dfs-cmd 注:cmd就是具体的命令,cmd前面的“-”不能省略。hadoophadoop01 hadoop-3.2.1$stop-all.shWARNING:Stopping all Apache Hadoop daemons as hadoop in 10 seconds.WARNING:Use CTRL-C to abort.Stopping namenodes on hadoop01Stopping datanodesStopping secondary namenodes hadoop01Stopping nodemanagersStopping resourcemanagerhadoophadoop01 hadoop-3.2.1$jps7139 Jps 在前面安装Hadoop和配置环境变量(回顾)#配置环境变量hadoophadoop hadoop3.2.1$vi/.bash

    注意事项

    本文((19.5)--实验实践5.大数据计算框架Hadoop3.0的安装部署与配置及H.pdf)为本站会员(奉***)主动上传,得力文库 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知得力文库 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于得利文库 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知得利文库网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号-8 |  经营许可证:黑B2-20190332号 |   黑公网安备:91230400333293403D

    © 2020-2023 www.deliwenku.com 得利文库. All Rights Reserved 黑龙江转换宝科技有限公司 

    黑龙江省互联网违法和不良信息举报
    举报电话:0468-3380021 邮箱:hgswwxb@163.com  

    收起
    展开