<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      Hadoop系列004-Hadoop運行模式(上)

      本人微信公眾號,歡迎掃碼關注!

      Hadoop運行模式

      1、概述

      1)官方網址

      2)Hadoop運行模式

      • 本地模式(默認模式):不需要啟用單獨進程,直接可以運行,測試和開發時使用。
      • 偽分布式模式:等同于完全分布式,只有一個節點。
      • 完全分布式模式:多個節點一起運行。

      2、案例

      2.1、本地文件運行Hadoop 案例
      • 官方grep案例

        • 1)創建在hadoop-2.7.2文件下面創建一個input文件夾

          [intflag@hadoop101 hadoop-2.7.2]$mkdir input
          
        • 2)將hadoop的xml配置文件復制到input

          [intflag@hadoop101 hadoop-2.7.2]$cp etc/hadoop/*.xml input
          
        • 3)執行share目錄下的mapreduce程序

          [intflag@hadoop101 hadoop-2.7.2]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input output 'dfs[a-z.]+'
          
        • 4)查看輸出結果

          [intflag@hadoop101 hadoop-2.7.2]$ cat output/*
          
      • 官方wordcount案例

        • 1)創建在hadoop-2.7.2文件下面創建一個wcinput文件夾

          [intflag@hadoop101 hadoop-2.7.2]$mkdir wcinput
          
        • 2)在wcinput文件下創建一個wc.input文件

          [intflag@hadoop101 hadoop-2.7.2]$cd wcinput
          [intflag@hadoop101 wcinput]$touch wc.input
          
        • 3)編輯wc.input文件

          [intflag@hadoop101 wcinput]$vim wc.input
          在文件中輸入如下內容
          hadoop yarn
          hadoop mapreduce 
          intflag
          intflag
          
          保存退出::wq
          
        • 4)回到hadoop目錄/opt/module/hadoop-2.7.2

        • 5)執行程序

          [intflag@hadoop101 hadoop-2.7.2]$hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount wcinput wcoutput
          
        • 6)查看結果

          [intflag@hadoop101 hadoop-2.7.2]$cat wcoutput/part-r-00000
          intflag 2
          hadoop  2
          mapreduce       1
          yarn    1
          
      2.2、偽分布式運行Hadoop 案例
      • HDFS上運行MapReduce 程序

        • 1)分析:

          • (1)準備1臺客戶機
          • (2)安裝jdk
          • (3)配置環境變量
          • (4)安裝hadoop
          • (5)配置環境變量
          • (6)配置集群
          • (7)啟動、測試集群增、刪、查
          • (8)在HDFS上執行wordcount案例
        • 2)執行步驟

          • (1)配置集群

            • (a)配置:hadoop-env.sh

              • Linux系統中獲取jdk的安裝路徑

                [root@ hadoop101 ~]# echo $JAVA_HOME
                /opt/module/jdk1.7.0_79
                
              • 修改JAVA_HOME 路徑

                export JAVA_HOME=/opt/module/jdk1.7.0_79
                
            • (b)配置:/etc/hadoop/下的core-site.xml

              <!-- 指定HDFS中NameNode的地址 -->
              <property>
              	<name>fs.defaultFS</name>
                  <value>hdfs://hadoop101:8020</value>
              </property>
              
              <!-- 指定hadoop運行時產生文件的存儲目錄 -->
              <property>
              	<name>hadoop.tmp.dir</name>
              	<value>/opt/module/hadoop-2.7.2/data/tmp</value>
              </property>
              
            • (c)配置:hdfs-site.xml

              <!-- 指定HDFS副本的數量 -->
              <property>
                  <name>dfs.replication</name>
                  <value>1</value>
              </property>
              
          • (2)啟動集群

            • (a)格式化namenode(第一次啟動時格式化,以后就不要總格式化)

              bin/hdfs namenode -format
              
            • (b)啟動namenode

              sbin/hadoop-daemon.sh start namenode
              
            • (c)啟動datanode

              sbin/hadoop-daemon.sh start datanode
              
          • (3)查看集群

            • (a)查看是否啟動成功

              [root@hadoop ~]# jps
              13586 NameNode
              13668 DataNode
              13786 Jps
              
            • (b)查看產生的log日志

              當前目錄:/opt/module/hadoop-2.7.2/logs
              
              [root@hadoop101 logs]# ls
              
              hadoop-root-datanode-hadoop.intflag.com.log
              hadoop-root-datanode-hadoop.intflag.com.out
              hadoop-root-namenode-hadoop.intflag.com.log
              hadoop-root-namenode-hadoop.intflag.com.out
              SecurityAuth-intflag.audit
              
              [root@hadoop101 logs]# cat hadoop-root-datanode-hadoop.intflag.com.log
              
            • (c)web端查看HDFS文件系統

              http://192.168.25.101:50070/dfshealth.html#tab-overview
              
              注意:如果不能查看,看如下帖子處理
              http://www.rzrgm.cn/zlslch/p/6604189.html
              
          • (4)操作集群

            • (a)在hdfs文件系統上創建一個input文件夾

              [intflag@hadoop101 hadoop-2.7.2]$ hadoop fs -mkdir -p /user/intflag/input
              
              或
              
              [intflag@hadoop101 hadoop-2.7.2]$ hdfs dfs -mkdir -p /user/intflag/input
              
            • (b)將測試文件內容上傳到文件系統上

              [intflag@hadoop101 hadoop-2.7.2]$ hadoop fs -put wcinput/wc.input /user/intflag/input
              
              或
              
              [intflag@hadoop101 hadoop-2.7.2]$ hdfs dfs -put wcinput/wc.input  /user/intflag/input
              
            • (c)查看上傳的文件是否正確

              [intflag@hadoop101 hadoop-2.7.2]$ hadoop fs -ls -R /
              
            • (d)在Hdfs上運行mapreduce程序

              [intflag@hadoop101 hadoop-2.7.2]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/intflag/input/wc.input /user/intflag/output
              
            • (e)查看輸出結果

              [intflag@hadoop101 hadoop-2.7.2]$ hadoop fs -cat /user/intflag/output/part-r-00000
              intflag 2
              doop    1
              hadoop  1
              mapreduce       1
              yarn    1
              
            • (f)將測試文件內容下載到本地

              [intflag@hadoop101 hadoop-2.7.2]$ hadoop fs -get /user/intflag/output/part-r-00000 ./wcoutput/
              
            • (g)刪除輸出結果

              [intflag@hadoop101 hadoop-2.7.2]$ hadoop fs -rm -r /user/intflag/output
              18/11/21 10:17:43 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 0 minutes, Emptier interval = 0 minutes.
              Deleted /user/intflag/output
              
            • (H)hadoop fs、hadoop dfs與hdfs dfs命令的區別

              • hadoop fs:使用面最廣,可以操作任何文件系統。
              • hadoop dfs與hdfs dfs:只能操作HDFS文件系統相關(包括與Local FS間的操作),前者已經Deprecated,一般使用后者。
      • YARN上運行MapReduce 程序

        • 1)分析:

          • (1)準備1臺客戶機
          • (2)安裝jdk
          • (3)配置環境變量
          • (4)安裝hadoop
          • (5)配置環境變量
          • (6)配置集群yarn上運行
          • (7)啟動、測試集群增、刪、查
          • (8)在yarn上執行wordcount案例
        • 2)執行步驟

          • (1)配置集群

            • (a)配置yarn-env.sh

              配置一下JAVA_HOME
              export JAVA_HOME=/opt/module/jdk1.7.0_79
              
            • (b)配置:mapred-env.sh

              配置一下JAVA_HOME
              export JAVA_HOME=/opt/module/jdk1.7.0_79
              
            • (c)配置yarn-site.xml

              <!-- reducer獲取數據的方式 -->
              <property>
               	<name>yarn.nodemanager.aux-services</name>
               	<value>mapreduce_shuffle</value>
              </property>
              
              <!-- 指定YARN的ResourceManager的地址 -->
              <property>
              	<name>yarn.resourcemanager.hostname</name>
              	<value>hadoop101</value>
              </property>
              
            • (d)配置: (對mapred-site.xml.template重新命名為) mapred-site.xml

              <!-- 指定mr運行在yarn上 -->
              <property>
              	<name>mapreduce.framework.name</name>
              	<value>yarn</value>
              </property>
              
          • (2)啟動集群

            • (a)啟動namenode和datanode(先用jps查看,若已啟動則不需要再啟)

              sbin/hadoop-daemon.sh start namenode
              sbin/hadoop-daemon.sh start datanode
              
              
            • (b)啟動resourcemanager

              sbin/yarn-daemon.sh start resourcemanager
              
              
            • (c)啟動nodemanager

              sbin/yarn-daemon.sh start nodemanager
              
              
          • (3)集群操作

            • (a)yarn的瀏覽器頁面查看:http://hadoop101:8088/cluster

            • (b)刪除文件系統上的output文件(若無則不用刪除)

              bin/hdfs dfs -rm -R /user/mapreduce/wordcount/output
              
              
            • (c)執行mapreduce程序

              hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/intflag/input /user/intflag/output
              
              
            • (d)查看運行結果

              [intflag@hadoop101 hadoop-2.7.2]$ hadoop fs -cat /user/intflag/output/part-r-00000
              intflag 2
              doop    1
              hadoop  1
              mapreduce       1
              yarn    1
              
              
      • 修改本地臨時文件存儲目錄

        • 1)停止進程

          [intflag@hadoop101 hadoop-2.7.2]$ sbin/yarn-daemon.sh stop nodemanager
          stopping nodemanager
          [intflag@hadoop101 hadoop-2.7.2]$ sbin/yarn-daemon.sh stop resourcemanager
          stopping resourcemanager
          [intflag@hadoop101 hadoop-2.7.2]$ sbin/hadoop-daemon.sh stop namenode
          stopping namenode
          [intflag@hadoop101 hadoop-2.7.2]$ sbin/hadoop-daemon.sh stop datanode
          stopping datanode
          [intflag@hadoop101 hadoop-2.7.2]$ 
          
          
        • 2)修改hadoop.tmp.dir

          <!-- 指定hadoop運行時產生文件的存儲目錄 -->
          <property>
          	<name>hadoop.tmp.dir</name>
          	<value>/opt/module/hadoop-2.7.2/data/tmp</value>
          </property>
          
          
        • 3)刪除舊的臨時文件

          [intflag@hadoop101 tmp]$ rm -rf hadoop-intflag
          [intflag@hadoop101 tmp]$ rm -rf hadoop-intflag-namenode.pid 
          [intflag@hadoop101 hadoop-2.7.2]$ rm -rf logs/
          
          
        • 4)格式化NameNode

          [intflag@hadoop101 hadoop-2.7.2]$ hadoop namenode -format
          
          
        • 5)啟動所有進程

          [intflag@hadoop101 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode
          [intflag@hadoop101 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start datanode
          [intflag@hadoop101 hadoop-2.7.2]$ sbin/yarn-daemon.sh start resourcemanager
          [intflag@hadoop101 hadoop-2.7.2]$ sbin/yarn-daemon.sh start nodemanager
          
          
        • 6)查看/opt/module/hadoop-2.7.2/data/tmp這個目錄下的內容。

      • Hadoop配置文件說明

        • Hadoop配置文件分兩類:默認配置文件和自定義配置文件,只有用戶想修改某一默認配置值時,才需要修改自定義配置文件,更改相應屬性值。

        • (1)默認配置文件:存放在hadoop相應的jar包中

          [core-default.xml]
          		hadoop-common-2.7.2.jar/ core-default.xml
          
          [hdfs-default.xml]
          		hadoop-hdfs-2.7.2.jar/ hdfs-default.xml
          
          [yarn-default.xml]
          		hadoop-yarn-common-2.7.2.jar/ yarn-default.xml
          
          [core-default.xml]
          		hadoop-mapreduce-client-core-2.7.2.jar/ core-default.xml
          
          
        • (2)自定義配置文件:存放在$HADOOP_HOME/etc/hadoop

          core-site.xml
          
          hdfs-site.xml
          
          yarn-site.xml
          
          mapred-site.xml
          
          
      2.3、完全分布式部署Hadoop
      • 見Hadoop系列005-Hadoop運行模式(下)
      posted @ 2018-12-01 14:56  云端笑猿  閱讀(141)  評論(0)    收藏  舉報
      主站蜘蛛池模板: 1区2区3区4区产品不卡码网站| 欧美日韩在线亚洲二区综二 | 欧美国产日韩久久mv| 国产成人AV国语在线观看| 777天堂麻豆爱综合视频| 精品国产熟女一区二区三区| 亚洲中文字幕国产精品| 免费一区二区无码东京热| 91人妻熟妇在线视频| 亚洲精品国产第一区二区| 999精品全免费观看视频| 国产一区| 亚洲嫩模喷白浆在线观看| 成人性能视频在线| 国产美女被遭强高潮免费一视频| 亚洲色最新高清AV网站| 内射少妇一区27p| 国产精品色三级在线观看| 日韩有码中文在线观看| 亚洲色欲久久久久综合网| 国产欧美亚洲精品a| 国产精品自拍午夜福利| 亚洲一区在线成人av| 国产精品爱久久久久久久电影| 免费无码AV一区二区波多野结衣| 久久一区二区中文字幕| 国产午夜视频在线观看| 一个人免费观看WWW在线视频| 国产AV巨作丝袜秘书| 欧美牲交40_50a欧美牲交aⅴ| 日韩精品中文字幕国产一| 亚洲人成网网址在线看| 欧美国产日产一区二区| 国产精品进线69影院| 亚洲AV无码破坏版在线观看| 国内自拍第一区二区三区| 亚洲av永久无码精品漫画| 亚洲欧美综合中文| 亚洲精品国产av成人网| 四虎在线成人免费观看| 久久精品国产精品亚洲综合|