<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      HADOOP HDFS(5): DataNode

      1 DataNode工作機制

      DataNode工作機制,如圖3-15所示。

       

       

      3-15  DataNode工作機制

       

      1一個數據塊在DataNode上以文件形式存儲在磁盤上,包括兩個文件,一個是數據本身,一個是元數據包括數據塊的長度,塊數據校驗和,以及時間戳。

      2DataNode啟動后向NameNode注冊,通過后,周期性(1小時NameNode上報所有的塊信息。

       

      DNNN匯報當前解讀信息的時間間隔,默認6小時;

       

      <property>
          <name>dfs.blockreport.intervalMsec</name>
          <value>21600000</value>
          <description>Determines block reporting interval in milliseconds.</description>
      </property>

       

      DN掃描自己節點塊信息列表的時間,默認6小時

       

      <property>
          <name>dfs.datanode.directoryscan.interval</name>
          <value>21600s</value>
          <description>Interval in seconds for Datanode to scan data directories and reconcile the difference between blocks in memory and on the disk.
          Support multiple time unit suffix(case insensitive), as described
          in dfs.heartbeat.interval.
          </description>
      </property>

      3心跳是每3一次,心跳返回結果帶有NameNode給該DataNode的命令如復制塊數據到另一臺機器,或刪除某個數據塊。如果超過10分鐘沒有收到某個DataNode的心跳,則認為該節點不可用。

      4集群運行中可以安全加入和退出一些機器。

      2 數據完整性

      思考:如果電腦磁盤里面存儲的數據是控制高鐵信號燈的紅燈信號1)和綠燈信號0但是存儲該數據的磁盤壞了,一直顯示綠燈,是否很危險?同理DataNode節點上的數據損壞了,沒有發現,是否也很危險,那么如何解決呢?

      如下DataNode節點保證數據完整性的方法。

      1當DataNode讀取Block的時候,它會計算CheckSum

      2如果計算后的CheckSum,與Block創建時值不一樣,說明Block已經損壞。

      3Client讀取其他DataNode上的Block

      4DataNode在其文件創建后周期驗證CheckSum,如圖3-16所示。

      3-16  校驗和

      3 掉線時限參數設置

      需要注意的是hdfs-site.xml 配置文件中的heartbeat.recheck.interval的單位為毫秒,dfs.heartbeat.interval的單位為。

      <property>
          <name>dfs.namenode.heartbeat.recheck-interval</name>
          <value>300000</value>
      </property>
      <property>
          <name>dfs.heartbeat.interval</name>
          <value>3</value>
      </property>

      4 服役新數據節點

      0.  需求

      隨著公司業務的增長,數據量越來越,原有的數據節點的容量已經不能滿足存儲數據的需求,需要在原有集群基礎上動態添加的數據節點。

      1. 環境準備

      1)在hadoop104主機克隆一臺hadoop105主機

      2)修改IP地址和主機名稱

      (3)刪除原來HDFS文件系統留存的文件/opt/module/hadoop-2.7.2/datalog

      4source一下配置文件

      [atguigu@hadoop105 hadoop-2.7.2]$ source /etc/profile

      2. 服役新節點具體步驟

      (1)直接啟動DataNode,即可關聯到集群

      [atguigu@hadoop105 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start datanode
      [atguigu@hadoop105 hadoop-2.7.2]$ sbin/yarn-daemon.sh start nodemanager

       

      (2)在hadoop105上上傳文件

      [atguigu@hadoop105 hadoop-2.7.2]$ hadoop fs -put /opt/module/hadoop-2.7.2/LICENSE.txt /

      3)如果數據不均衡,可以用命令實現集群的再平衡

      [atguigu@hadoop102 sbin]$ ./start-balancer.sh
      starting balancer, logging to /opt/module/hadoop-2.7.2/logs/hadoop-atguigu-balancer-hadoop102.out
      Time Stamp               Iteration#  Bytes Already Moved  Bytes Left To Move  Bytes Being Moved

      5 退役舊數據節點

      5.1 添加白名單

      添加到白名單的主機節點,都允許訪問NameNode不在白名單的主機節點,都會退出。

      配置白名單的具體步驟如下:

      1)在NameNode/opt/module/hadoop-2.7.2/etc/hadoop目錄創建dfs.hosts文件

      [atguigu@hadoop102 hadoop]$ pwd
      /opt/module/hadoop-2.7.2/etc/hadoop
      [atguigu@hadoop102 hadoop]$ touch dfs.hosts
      [atguigu@hadoop102 hadoop]$ vi dfs.hosts

      添加如下主機名稱(不添加hadoop105)

      hadoop102
      hadoop103
      hadoop104

      2)在NameNodehdfs-site.xml配置文件中增加dfs.hosts屬性

      <property>
      <name>dfs.hosts</name>
      <value>/opt/module/hadoop-2.7.2/etc/hadoop/dfs.hosts</value>
      </property>

      (3)配置文件分發

      [atguigu@hadoop102 hadoop]$ xsync hdfs-site.xml

      (4)刷新NameNode

      [atguigu@hadoop102 hadoop-2.7.2]$ hdfs dfsadmin -refreshNodes

      Refresh nodes successful

      (5)更新ResourceManager節點

      [atguigu@hadoop102 hadoop-2.7.2]$ yarn rmadmin -refreshNodes
      17/06/24 14:17:11 INFO client.RMProxy: Connecting to ResourceManager at hadoop103/192.168.1.103:8033

      (6)在web瀏覽器上查看

      4. 如果數據不均衡,可以用命令實現集群的再平衡

      [atguigu@hadoop102 sbin]$ ./start-balancer.sh
      starting balancer, logging to /opt/module/hadoop-2.7.2/logs/hadoop-atguigu-balancer-hadoop102.out
      Time Stamp               Iteration#  Bytes Already Moved  Bytes Left To Move  Bytes Being Moved

      5.2 黑名單退役

      黑名單上面的主機都會被強制退出。

      1.NameNode的/opt/module/hadoop-2.7.2/etc/hadoop目錄創建dfs.hosts.exclude文件

      [atguigu@hadoop102 hadoop]$ pwd
      /opt/module/hadoop-2.7.2/etc/hadoop
      [atguigu@hadoop102 hadoop]$ touch dfs.hosts.exclude
      [atguigu@hadoop102 hadoop]$ vi dfs.hosts.exclude

      添加如下主機名稱(要退役的節點)

      hadoop105

      2.在NameNodehdfs-site.xml配置文件中增加dfs.hosts.exclude屬性

      <property>
      <name>dfs.hosts.exclude</name>
            <value>/opt/module/hadoop-2.7.2/etc/hadoop/dfs.hosts.exclude</value>
      </property>

      3.刷新NameNode、刷新ResourceManager

      [atguigu@hadoop102 hadoop-2.7.2]$ hdfs dfsadmin -refreshNodes
      Refresh nodes successful
      
      [atguigu@hadoop102 hadoop-2.7.2]$ yarn rmadmin -refreshNodes
      17/06/24 14:55:56 INFO client.RMProxy: Connecting to ResourceManager at hadoop103/192.168.1.103:8033

      4. 檢查Web瀏覽器,退役節點的狀態為decommission in progress(退役),說明數據節點正在復制塊到其他節點,如圖3-17所示

      3-17  退役中

      5 等待退役節點狀態decommissioned(所有塊已經復制完成),停止該節點及節點資源管理器。注意:如果副本數是3,服役的節點小于等于3,是不能退役成功的,需要修改副本數后才能退役,如圖3-18所示

      3-18 已退役

      [atguigu@hadoop105 hadoop-2.7.2]$ sbin/hadoop-daemon.sh stop datanode

      stopping datanode

      [atguigu@hadoop105 hadoop-2.7.2]$ sbin/yarn-daemon.sh stop nodemanager

      stopping nodemanager

      6. 如果數據不均衡,可以用命令實現集群的再平衡

      [atguigu@hadoop102 hadoop-2.7.2]$ sbin/start-balancer.sh 
      starting balancer, logging to /opt/module/hadoop-2.7.2/logs/hadoop-atguigu-balancer-hadoop102.out
      Time Stamp               Iteration#  Bytes Already Moved  Bytes Left To Move  Bytes Being Moved

      注意不允許白名單和黑名單同時出現同一個主機名稱

      6 Datanode目錄配置

      1. DataNode也可以配置成多個目錄,每個目錄存儲的數據不一樣。:數據不是副本

      2.具體配置如下

      hdfs-site.xml

      <property>
              <name>dfs.datanode.data.dir</name>
      <value>file:///${hadoop.tmp.dir}/dfs/data1,file:///${hadoop.tmp.dir}/dfs/data2</value>
      </property>

       

      posted @ 2020-07-16 22:13  秋華  閱讀(509)  評論(0)    收藏  舉報
      主站蜘蛛池模板: 亚洲不卡一区三区三区四| 精品一二三四区在线观看| 欧美gv在线| 亚洲欧美综合一区二区三区| 成人乱人乱一区二区三区 | 国语精品自产拍在线观看网站| 国产精品久久久久久亚洲色| 9久久伊人精品综合| av午夜福利亚洲精品福利| 免费无码又爽又刺激网站直播| 国产91丝袜在线观看| 国产成人欧美一区二区三区| 国产亚洲一级特黄大片在线| 99久久婷婷国产综合精品青草漫画| 亚洲狼人久久伊人久久伊| 日本一区不卡高清更新二区 | 天天狠天天透天天伊人| 一区二区三区国产综合在线| 国产精品无码无需播放器| 亚洲高清国产拍精品5G| 国产美女裸身网站免费观看视频| 国产午夜精品无码一区二区| 中文字幕熟妇人妻在线视频| 亚洲www永久成人网站| 在线 欧美 中文 亚洲 精品| 狠狠色丁香婷婷综合尤物| av日韩在线一区二区三区| 久久久久无码中| 国产高清小视频一区二区| 亚洲综合精品第一页| 99久久99这里只有免费费精品| 亚洲AV日韩精品久久久久| 五月综合婷婷久久网站| 最近中文国语字幕在线播放| 日本久久高清一区二区三区毛片 | 玩弄放荡人妻少妇系列| 亚洲AVAV天堂AV在线网阿V| 成人又黄又爽又色的视频| 日韩乱码卡一卡2卡三卡四| 色欲色香天天天综合网站免费| 亚洲永久一区二区三区在线|