<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      Hadoop入門進階課程3--Hadoop2.X64位環境搭建

      本文版權歸作者和博客園共有,歡迎轉載,但未經作者同意必須保留此段聲明,且在文章頁面明顯位置給出原文連接,博主為石山園,博客地址為 http://www.rzrgm.cn/shishanyuan  。該系列課程是應邀實驗樓整理編寫的,這里需要贊一下實驗樓提供了學習的新方式,可以邊看博客邊上機實驗,課程地址為 https://www.shiyanlou.com/courses/237

      【注】該系列所使用到安裝包、測試數據和代碼均可在百度網盤下載,具體地址為 http://pan.baidu.com/s/10PnDs,下載該PDF文件

      1搭建環境

      部署節點操作系統為CentOS,防火墻和SElinux禁用,創建了一個shiyanlou用戶并在系統根目錄下創建/app目錄,用于存放Hadoop等組件運行包。因為該目錄用于安裝hadoop等組件程序,用戶對shiyanlou必須賦予rwx權限(一般做法是root用戶在根目錄下創建/app目錄,并修改該目錄擁有者為shiyanlou(chown R shiyanlou:shiyanlou /app)。

      Hadoop搭建環境:

      l  虛擬機操作系統: CentOS6.6  64位,單核,1G內存

      l  JDK1.7.0_55 64

      l  Hadoop2.2.0 64位(該部署包為第2個實驗所編譯完成)

      2部署Hadooop2.X

      2.1配置Hadoop環境

      Apache網站上提供Hadoop2.X安裝包只支持32位操作系統安裝,在64位服務器安裝會出現3.1的錯誤異常。這里我們使用上一步驟編譯好的hadoop-2.2.0-bin.tar.gz文件作為安裝包(也可以在/home/shiyanlou/install-pack目錄中找到hadoop-2.2.0.tar.gz安裝包)

      2.1.1  下載并解壓hadoop安裝包

      解壓縮并移動到/app目錄下

      cd /home/shiyanlou/install-pack

      tar -xzf hadoop-2.2.0.tar.gz

      mv hadoop-2.2.0 /app

      clip_image002[10]

      2.1.2  Hadoop目錄下創建子目錄

      hadoop-2.2.0目錄下創建tmpnamedata目錄

      cd /app/hadoop-2.2.0

      mkdir tmp

      mkdir hdfs

      mkdir hdfs/name

      mkdir hdfs/data

      clip_image004[10]

      2.1.3配置hadoop-env.sh

      1. 打開配置文件hadoop-env.sh

      cd /app/hadoop-2.2.0/etc/hadoop

      sudo vi hadoop-env.sh

      clip_image006[10]

      2.  加入配置內容,設置了hadoopjdkhadoop/bin路徑

      export HADOOP_CONF_DIR=/app/hadoop2.2.0/etc/hadoop

      export JAVA_HOME=/app/lib/jdk1.7.0_55

      export PATH=$PATH:/app/hadoop-2.2.0/bin

      clip_image008[9]

      3. 編譯配置文件hadoop-env.sh,并確認生效

      source hadoop-env.sh

      hadoop version

      clip_image010[9]

      2.1.4配置yarn-env.sh

      打開配置文件yarn-env.sh,設置了hadoopjdk路徑,配置完畢后使用source yarn-env.sh編譯該文件

      export JAVA_HOME=/app/lib/jdk1.7.0_55

      clip_image012[9]

      2.1.5配置core-site.xml

      1. 使用如下命令打開core-site.xml配置文件

      cd /app/hadoop-2.2.0/etc/hadoop

      sudo vi core-site.xml

      2. 在配置文件中,按照如下內容進行配置

      <configuration>

        <property>

          <name>fs.default.name</name>

          <value>hdfs://hadoop:9000</value>

        </property>

        <property>

          <name>fs.defaultFS</name>

          <value>hdfs://hadoop:9000</value>

        </property>

        <property>

          <name>io.file.buffer.size</name>

          <value>131072</value>

        </property>

        <property>

          <name>hadoop.tmp.dir</name>

          <value>file:/app/hadoop-2.2.0/tmp</value>

          <description>Abase for other temporary directories.</description>

        </property>

        <property>

          <name>hadoop.proxyuser.hduser.hosts</name>

          <value>*</value>

        </property>

        <property>

          <name>hadoop.proxyuser.hduser.groups</name>

          <value>*</value>

        </property>

      </configuration>

      clip_image014[9]

      2.1.6配置hdfs-site.xml

      1.  使用如下命令打開hdfs-site.xml配置文件

      cd /app/hadoop-2.2.0/etc/hadoop

      sudo vi hdfs-site.xml

      2.在配置文件中,按照如下內容進行配置

      <configuration>

        <property>

         <name>dfs.namenode.secondary.http-address</name>

         <value>hadoop:9001</value>

        </property>

        <property>

         <name>dfs.namenode.name.dir</name>

         <value>file:/app/hadoop-2.2.0/hdfs/name</value>

        </property>

        <property>

         <name>dfs.datanode.data.dir</name>

         <value>file:/app/hadoop-2.2.0/hdfs/data</value>

        </property>

        <property>

         <name>dfs.replication</name>

         <value>1</value>

        </property>

        <property>

         <name>dfs.webhdfs.enabled</name>

         <value>true</value>

        </property>

      </configuration>

      clip_image016[9]

      2.1.7配置mapred-site.xml

      1.默認情況下不存在mapred-site.xml文件,可以從模板拷貝一份,并使用如下命令打開mapred-site.xml配置文件

      cd /app/hadoop-2.2.0/etc/hadoop

      cp mapred-site.xml.template mapred-site.xml

      sudo vi mapred-site.xml

      2.在配置文件中,按照如下內容進行配置

      <configuration>

        <property>

          <name>mapreduce.framework.name</name>

          <value>yarn</value>

        </property>

        <property>

          <name>mapreduce.jobhistory.address</name>

          <value>hadoop:10020</value>

        </property>

        <property>

          <name>mapreduce.jobhistory.webapp.address</name>

          <value>hadoop:19888</value>

        </property>

      </configuration>

      clip_image018[9]

      2.1.8配置yarn-site.xml

      1.使用如下命令打開yarn-site.xml配置文件

      cd /app/hadoop-2.2.0/etc/hadoop

      sudo vi yarn-site.xml

      2.在配置文件中,按照如下內容進行配置

      <configuration>

        <property>

          <name>yarn.nodemanager.aux-services</name>

          <value>mapreduce_shuffle</value>

        </property>

        <property>

          <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

          <value>org.apache.hadoop.mapred.ShuffleHandler</value>

        </property>

        <property>

          <name>yarn.resourcemanager.address</name>

          <value>hadoop:8032</value>

        </property>

        <property>

          <name>yarn.resourcemanager.scheduler.address</name>

          <value>hadoop:8030</value>

        </property>

        <property>

          <name>yarn.resourcemanager.resource-tracker.address</name>

          <value>hadoop:8031</value>

        </property>

        <property>

          <name>yarn.resourcemanager.admin.address</name>

          <value>hadoop:8033</value>

        </property>

        <property>

          <name>yarn.resourcemanager.webapp.address</name>

          <value>hadoop:8088</value>

        </property>

      </configuration>

      clip_image020[9]

      2.1.9配置slaves文件

      slaves配置文件中設置從節點,這里設置為hadoop,與Hadoop1.X區別的是Hadoop2.X不需要設置Master

      cd /app/hadoop-2.2.0/etc/hadoop

      vi slaves

      clip_image022[9]

      2.1.10格式化namenode

      cd /app/hadoop-2.2.0/bin

      ./hdfs namenode -format

      clip_image024[9]

      clip_image026[9]

      2.2啟動Hadoop

      2.2.1啟動hdfs

      cd /app/hadoop-2.2.0/sbin

      ./start-dfs.sh

      clip_image028[9]

      2.2.2驗證當前進行

      使用jps命令查看運行進程,此時在hadoop上面運行的進程有:namenodesecondarynamenodedatanode三個進行

      clip_image030[9]

      2.2.3啟動yarn

      cd /app/hadoop-2.2.0/sbin

      ./start-yarn.sh

      clip_image032[9]

      2.2.4驗證當前進行

      使用jps命令查看運行進程,此時在hadoop上運行的進程除了:namenodesecondarynamenodedatanode,增加了resourcemanagernodemanager兩個進程:

      clip_image034[9]

      2.3測試Hadoop

      2.3.1創建測試目錄

      cd /app/hadoop-2.2.0/bin

      ./hadoop fs -mkdir -p /class3/input

      clip_image036[9]

      2.3.2準備測試數據

      ./hadoop fs -copyFromLocal ../etc/hadoop/* /class3/input

      clip_image038[9]

      2.3.3運行wordcount例子

      cd /app/hadoop-2.2.0/bin

      ./hadoop jar ../share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar wordcount /class3/input /class3/output

      clip_image040[9]

      clip_image042[9]

      2.3.4查看結果

      使用如下命令查看運行結果:

      ./hadoop fs -ls /class3/output/ 

      ./hadoop fs -cat /class3/output/part-r-00000 | less

      clip_image044[9]

      3問題解決

      3.1CentOS 64bit安裝Hadoop2.2.0中出現文件編譯位數異常

      在安裝hadoop2.2.0過程中出現如下異常:Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

      clip_image046[9]

      通過分析是由于lib/native目錄中有些文件是在32位編譯,無法適應CentOS 64位環境造成

      clip_image048[9]

      有兩種辦法解決:

      l  重新編譯hadoop,然后重新部署

      l  暫時辦法是修改配置,忽略有問題的文件

      clip_image050[9]

      posted @ 2015-07-10 10:48  shishanyuan  閱讀(3508)  評論(4)    收藏  舉報
      主站蜘蛛池模板: 国产无套精品一区二区三区| 欧美xxxx做受欧美.88| 水蜜桃av导航| 成人小说亚洲一区二区三区| 亚洲人成网网址在线看| 国产免费一区二区不卡| AV人摸人人人澡人人超碰| 一本一本久久a久久精品综合 | 成在人线av无码免费| 色猫咪av在线网址| 动漫av纯肉无码av在线播放| 日韩一区二区三区无码a片| 欧美变态另类zozo| 桂东县| 性欧美暴力猛交69hd| 亚洲欧洲日产国码AV天堂偷窥| 花莲县| 国产精品无码不卡在线播放| 国产精品大全中文字幕| 日本一区二区三区黄色网| 精品剧情V国产在线观看| 瓮安县| 成人国产乱对白在线观看| 国产午夜福利视频在线| 久久er99热精品一区二区| 中文字幕日韩一区二区不卡| 麻花传剧mv在线看免费| 亚洲av成人一区在线| 日本一区二区三区在线播放| 公天天吃我奶躁我的在| 福利视频在线一区二区| 天堂av网一区二区三区| 亚洲亚洲人成综合网络| 亚洲最大成人av在线天堂网 | 变态另类视频一区二区三区| 成人网站免费观看永久视频下载| 从江县| 日韩欧美在线综合网另类 | 国产成人免费ā片在线观看| 人妻夜夜爽天天爽| 精品午夜久久福利大片|