<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      Hadoop第12周練習—HBase安裝部署

      1 運行環境說明... 3

      1.1 硬軟件環境... 3

      1.2 機器網絡環境... 3

      2  書面作業1:安裝HBase. 3

      2.1 書面作業1內容... 3

      2.2  安裝過程... 4

      2.2.1   下載HBase安裝包... 4

      2.2.2   上傳HBase. 4

      2.2.3   解壓并移動目錄... 5

      2.2.4   設置環境變量... 5

      2.2.5   編輯hbase-env.sh. 6

      2.2.6   編輯hbase-site.xml6

      2.2.7   編輯regionservers文件... 7

      2.2.8   分發程序文件... 8

      2.2.9   設置分發節點設置環境變量... 9

      2.2.10啟動HBase. 9

      2.2.11驗證啟動... 9

       

      1 運行環境說明

      1.1 硬軟件環境

      l  主機操作系統:Windows 64 bit,雙核4線程,主頻2.2G6G內存

      l  虛擬軟件:VMware? Workstation 9.0.0 build-812388

      l  虛擬機操作系統:CentOS 64位,單核,1G內存

      l  JDK1.7.0_55 64 bit

      l  Hadoop1.1.2

      1.2 機器網絡環境

      集群包含三個節點:1namenode2datanode,其中節點之間可以相互ping通。節點IP地址和主機名分布如下:

      序號

      IP地址

      機器名

      類型

      用戶名

      運行進程

      1

      10.88.147.221

      hadoop1

      名稱節點

      hadoop

      NNSNNJobTracer

      2

      10.88.147.222

      hadoop2

      數據節點

      hadoop

      DNTaskTracer

      3

      10.88.147.223

      hadoop3

      數據節點

      hadoop

      DNTaskTracer

      所有節點均是CentOS6.5 64bit系統,防火墻均禁用,所有節點上均創建了一個hadoop用戶,用戶主目錄是/usr/hadoop。所有節點上均創建了一個目錄/usr/local/hadoop,并且擁有者是hadoop用戶。

      2 書面作業1安裝HBase

      2.1 書面作業1內容

      安裝HBase,有條件的同學都按完全分布式安裝,將安裝過程和最后測試成功的界面抓圖提交。

       

      2.2 安裝過程

      2.2.1下載HBase安裝包

      Apache網站上(hbase.apache.org)下載HBase穩定發布包:

      http://mirrors.cnnic.cn/apache/hbase/hbase-0.96.2/

      clip_image002

      2.2.2上傳HBase

      把下載的hbase-0.96.2-hadoop1-bin.tar.gz安裝包,使用SSH Secure File Transfer工具(第12周作業2.1.3.1介紹)上傳到/home/hadoop/Downloads 目錄下

      clip_image004

      2.2.3解壓并移動目錄

      1.     使用如下命令解壓,解壓后出現hbase-0.96.2-hadoop1文件夾:

      cd /home/hadoop/Downloads

      tar -zxf hbase-0.96.2-hadoop1-bin.tar.gz

      clip_image006

      2.     使用如下命令把解壓目錄遷移到/usr/local下:

      sudo mv hbase-0.96.2-hadoop1 /usr/local/hbase-0.96.2

      clip_image008

      2.2.4設置環境變量

      1.     使用sudo vi /etc/profile命令修改系統環境變量

      export HBASE_HOME=/usr/local/hbase-0.96.2

      export PATH=$PATH:$HBASE_HOME/bin

      clip_image010

      2.     使環境變量生效

      source /etc/profile

      clip_image012

      3.     驗證環境變量生效

      hbase version

      clip_image014

      2.2.5編輯hbase-env.sh

      1.     打開hbase-env.sh文件

      cd /usr/local/hbase-0.96.2/conf

      sudo vi hbase-env.sh

      clip_image016

      2.     修改該文件配置

      #Java環境

      export JAVA_HOME=/usr/lib/java/jdk1.7.0_55

      #通過hadoop的配置文件找到hadoop集群

      export HBASE_CLASSPATH=/usr/local/hadoop-1.1.2/conf

      #使用HBASE自帶的zookeeper管理集群

      export HBASE_MANAGES_ZK=true

      clip_image018

      clip_image020

      2.2.6編輯hbase-site.xml

      1.     打開hbase-site.xml配置文件

      cd /usr/local/hbase-0.96.2/conf

      sudo vi hbase-site.xml

      clip_image022

      2.     配置hbase-site.xml文件

      <configuration>

        <property>

           <name>hbase.rootdir</name>

           <value>hdfs://hadoop1:9000/hbase</value>// Hbase該項并不識別機器IP,只能使用機器hostname

        </property>

        <property>

           <name>hbase.cluster.distributed</name>

           <value>true</value>

        </property>

        <property>

          <name>hbase.zookeeper.quorum</name>

          <value>hadoop1,hadoop2,hadoop3</value>

        </property>

      </configuration>

      clip_image024

      2.2.7編輯regionservers文件

      使用如下命令打開regionservers配置文件:

      sudo vi regionservers

      clip_image026

      加入如下內容:

      hadoop2

      hadoop3

      clip_image028

      2.2.8分發程序文件

      1.     在其他兩個節點hadoop2hadoop3創建HBase存放目錄并賦予權限

      sudo mkdir /usr/local/hbase-0.96.2

      sudo chown R hadoop /usr/local/hbase-0.96.2

      clip_image030

      2.     hadoop1節點把HBase分發到hadoop2hadoop3

      cd /usr/local

      scp -r hbase-0.96.2/* hadoop@hadoop2:/usr/local/hbase-0.96.2/

      scp -r hbase-0.96.2/* hadoop@hadoop3:/usr/local/hbase-0.96.2/

      clip_image032

      clip_image034

      2.2.9設置分發節點設置環境變量

      按照hadoop1節點環境修改hadoop2hadoop3系統環境變量,使用 sudo vi /etc/profile 打開配置文件:

      export HBASE_HOME=/usr/local/hbase-0.96.2

      export PATH=$PATH:$HBASE_HOME/bin

      clip_image036

      設置后使用 source /etc/profile 生效設置環境變量

      2.2.10   啟動HBase

      通過如下命令啟動Hbase

      cd /usr/local/hbase-0.96.2/bin

      ./start-hbase.sh

      clip_image038

      2.2.11   驗證啟動

      1.     查看各節點狀態

      hadoop1

      clip_image040

      hadoop2hadoop3

      clip_image042

      2.     進入hbaseshell命令行,創建表member并進行查看

      clip_image044

      posted @ 2015-01-26 11:23  shishanyuan  閱讀(5451)  評論(0)    收藏  舉報
      主站蜘蛛池模板: 白嫩人妻精品一二三四区| 国产成人亚洲精品狼色在线| 开心一区二区三区激情| 九九热精品视频在线免费| 成人资源网亚洲精品在线| 国产又色又爽又黄的视频在线| 护士张开腿被奷日出白浆| av色蜜桃一区二区三区| 内射一区二区三区四区| 国产高潮国产高潮久久久| 中文字幕精品无码一区二区| 91色老久久精品偷偷蜜臀| 家庭乱码伦区中文字幕在线| 亚洲一区久久蜜臀av| 国产精品无遮挡在线观看| 日韩深夜视频在线观看| 国产精品成人av在线观看春天| 无套内谢少妇毛片aaaa片免费| 在线综合亚洲欧洲综合网站| 国产一区二区黄色在线观看| 丁香五月亚洲综合深深爱| 久9视频这里只有精品| 免费超爽大片黄| 国产女人18毛片水真多1| 国产精品中文字幕一二三| 污网站在线观看视频| 成人免费A级毛片无码网站入口| 最新亚洲av日韩av二区| 午夜国产小视频| 超碰人人模人人爽人人喊手机版| 中文字幕制服国产精品| 99精品国产综合久久久久五月天| 国产午夜91福利一区二区| 狠狠噜天天噜日日噜视频麻豆| 中文字幕少妇人妻精品| 日韩一区二区三区一级片| 日韩人妻少妇一区二区三区| 亚洲区一区二区激情文学| 最新偷拍一区二区三区| 免费无码又爽又刺激网站| 国产a在视频线精品视频下载|