<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      Java并發編程:并發容器之ConcurrentHashMap(轉載)

      Java并發編程:并發容器之ConcurrentHashMap(轉載)

        下面這部分內容轉載自:

        http://www.haogongju.net/art/2350374

        JDK5中添加了新的concurrent包,相對同步容器而言,并發容器通過一些機制改進了并發性能。因為同步容器將所有對容器狀態的訪問都

      串行化了,這樣保證了線程的安全性,所以這種方法的代價就是嚴重降低了并發性,當多個線程競爭容器時,吞吐量嚴重降低。因此Java5.0開

      始針對多線程并發訪問設計,提供了并發性能較好的并發容器,引入了java.util.concurrent包。與Vector和Hashtable、

      Collections.synchronizedXxx()同步容器等相比,util.concurrent中引入的并發容器主要解決了兩個問題:
      1)根據具體場景進行設計,盡量避免synchronized,提供并發性。
      2)定義了一些并發安全的復合操作,并且保證并發環境下的迭代操作不會出錯。

        util.concurrent中容器在迭代時,可以不封裝在synchronized中,可以保證不拋異常,但是未必每次看到的都是"最新的、當前的"數據。

        下面是對并發容器的簡單介紹:

        ConcurrentHashMap代替同步的Map(Collections.synchronized(new HashMap())),眾所周知,HashMap是根據散列值分段存儲的,同步Map在同步的時候鎖住了所有的段,而ConcurrentHashMap加鎖的時候根據散列值鎖住了散列值鎖對應的那段,因此提高了并發性能。ConcurrentHashMap也增加了對常用復合操作的支持,比如"若沒有則添加":putIfAbsent(),替換:replace()。這2個操作都是原子操作。

        CopyOnWriteArrayList和CopyOnWriteArraySet分別代替List和Set,主要是在遍歷操作為主的情況下來代替同步的List和同步的Set,這也就是上面所述的思路:迭代過程要保證不出錯,除了加鎖,另外一種方法就是"克隆"容器對象。

        ConcurrentLinkedQuerue是一個先進先出的隊列。它是非阻塞隊列。

          ConcurrentSkipListMap可以在高效并發中替代SoredMap(例如用Collections.synchronzedMap包裝的TreeMap)。

        ConcurrentSkipListSet可以在高效并發中替代SoredSet(例如用Collections.synchronzedSet包裝的TreeMap)。

        

        本篇文章著重講解2個并發容器:ConcurrentHashMap和CopyOnWriteArrayList其中的ConcurrentHashMap,CopyOnWriteArrayList在下一篇文章中講述。

        原文鏈接:http://www.iteye.com/topic/1103980

        大家都知道HashMap是非線程安全的,Hashtable是線程安全的,但是由于Hashtable是采用synchronized進行同步,相當于所有線程進行讀寫時都去競爭一把鎖,導致效率非常低下。

        ConcurrentHashMap可以做到讀取數據不加鎖,并且其內部的結構可以讓其在進行寫操作的時候能夠將鎖的粒度保持地盡量地小,不用對整個ConcurrentHashMap加鎖。

      ConcurrentHashMap的內部結構

        ConcurrentHashMap為了提高本身的并發能力,在內部采用了一個叫做Segment的結構,一個Segment其實就是一個類Hash Table的結構,Segment內部維護了一個鏈表數組,我們用下面這一幅圖來看下ConcurrentHashMap的內部結構:
      圖表1
        從上面的結構我們可以了解到,ConcurrentHashMap定位一個元素的過程需要進行兩次Hash操作,第一次Hash定位到Segment,第二次Hash定位到元素所在的鏈表的頭部,因此,這一種結構的帶來的副作用是Hash的過程要比普通的HashMap要長,但是帶來的好處是寫操作的時候可以只對元素所在的Segment進行加鎖即可,不會影響到其他的Segment,這樣,在最理想的情況下,ConcurrentHashMap可以最高同時支持Segment數量大小的寫操作(剛好這些寫操作都非常平均地分布在所有的Segment上),所以,通過這一種結構,ConcurrentHashMap的并發能力可以大大的提高。

      Segment

        我們再來具體了解一下Segment的數據結構:

      static final class Segment<K,V> extends ReentrantLock implements Serializable {
          transient volatile int count;
          transient int modCount;
          transient int threshold;
          transient volatile HashEntry<K,V>[] table;
          final float loadFactor;
      }
      

        詳細解釋一下Segment里面的成員變量的意義:

      • count:Segment中元素的數量
      • modCount:對table的大小造成影響的操作的數量(比如put或者remove操作)
      • threshold:閾值,Segment里面元素的數量超過這個值依舊就會對Segment進行擴容
      • table:鏈表數組,數組中的每一個元素代表了一個鏈表的頭部
      • loadFactor:負載因子,用于確定threshold

      HashEntry

        Segment中的元素是以HashEntry的形式存放在鏈表數組中的,看一下HashEntry的結構:

      static final class HashEntry<K,V> {
          final K key;
          final int hash;
          volatile V value;
          final HashEntry<K,V> next;
      }
      

        可以看到HashEntry的一個特點,除了value以外,其他的幾個變量都是final的,這樣做是為了防止鏈表結構被破壞,出現ConcurrentModification的情況。

      ConcurrentHashMap的初始化

        下面我們來結合源代碼來具體分析一下ConcurrentHashMap的實現,先看下初始化方法:

      public ConcurrentHashMap(int initialCapacity,
                               float loadFactor, int concurrencyLevel) {
          if (!(loadFactor > 0) || initialCapacity < 0 || concurrencyLevel <= 0)
              throw new IllegalArgumentException();
       
          if (concurrencyLevel > MAX_SEGMENTS)
              concurrencyLevel = MAX_SEGMENTS;
       
          // Find power-of-two sizes best matching arguments
          int sshift = 0;
          int ssize = 1;
          while (ssize < concurrencyLevel) {
              ++sshift;
              ssize <<= 1;
          }
          segmentShift = 32 - sshift;
          segmentMask = ssize - 1;
          this.segments = Segment.newArray(ssize);
       
          if (initialCapacity > MAXIMUM_CAPACITY)
              initialCapacity = MAXIMUM_CAPACITY;
          int c = initialCapacity / ssize;
          if (c * ssize < initialCapacity)
              ++c;
          int cap = 1;
          while (cap < c)
              cap <<= 1;
       
          for (int i = 0; i < this.segments.length; ++i)
              this.segments[i] = new Segment<K,V>(cap, loadFactor);
      }
      

         CurrentHashMap的初始化一共有三個參數,一個initialCapacity,表示初始的容量,一個loadFactor,表示負載參數,最后一個是concurrentLevel,代表ConcurrentHashMap內部的Segment的數量,ConcurrentLevel一經指定,不可改變,后續如果ConcurrentHashMap的元素數量增加導致ConrruentHashMap需要擴容,ConcurrentHashMap不會增加Segment的數量,而只會增加Segment中鏈表數組的容量大小,這樣的好處是擴容過程不需要對整個ConcurrentHashMap做rehash,而只需要對Segment里面的元素做一次rehash就可以了。

        整個ConcurrentHashMap的初始化方法還是非常簡單的,先是根據concurrentLevel來new出Segment,這里Segment的數量是不大于concurrentLevel的最大的2的指數,就是說Segment的數量永遠是2的指數個,這樣的好處是方便采用移位操作來進行hash,加快hash的過程。接下來就是根據intialCapacity確定Segment的容量的大小,每一個Segment的容量大小也是2的指數,同樣使為了加快hash的過程。

        這邊需要特別注意一下兩個變量,分別是segmentShift和segmentMask,這兩個變量在后面將會起到很大的作用,假設構造函數確定了Segment的數量是2的n次方,那么segmentShift就等于32減去n,而segmentMask就等于2的n次方減一。

      ConcurrentHashMap的get操作

        前面提到過ConcurrentHashMap的get操作是不用加鎖的,我們這里看一下其實現:

      public V get(Object key) {
          int hash = hash(key.hashCode());
          return segmentFor(hash).get(key, hash);
      }
      

        看第三行,segmentFor這個函數用于確定操作應該在哪一個segment中進行,幾乎對ConcurrentHashMap的所有操作都需要用到這個函數,我們看下這個函數的實現:

      final Segment<K,V> segmentFor(int hash) {
          return segments[(hash >>> segmentShift) & segmentMask];
      }
      

         這個函數用了位操作來確定Segment,根據傳入的hash值向右無符號右移segmentShift位,然后和segmentMask進行與操作,結合我們之前說的segmentShift和segmentMask的值,就可以得出以下結論:假設Segment的數量是2的n次方,根據元素的hash值的高n位就可以確定元素到底在哪一個Segment中。

        在確定了需要在哪一個segment中進行操作以后,接下來的事情就是調用對應的Segment的get方法:

      V get(Object key, int hash) {
          if (count != 0) { // read-volatile
              HashEntry<K,V> e = getFirst(hash);
              while (e != null) {
                  if (e.hash == hash && key.equals(e.key)) {
                      V v = e.value;
                      if (v != null)
                          return v;
                      return readValueUnderLock(e); // recheck
                  }
                  e = e.next;
              }
          }
          return null;
      }
      

         先看第二行代碼,這里對count進行了一次判斷,其中count表示Segment中元素的數量,我們可以來看一下count的定義:

      transient volatile int count;
      

         可以看到count是volatile的,實際上這里里面利用了volatile的語義:

         寫道

        對volatile字段的寫入操作happens-before于每一個后續的同一個字段的讀操作。

        因為實際上put、remove等操作也會更新count的值,所以當競爭發生的時候,volatile的語義可以保證寫操作在讀操作之前,也就保證了寫操作對后續的讀操作都是可見的,這樣后面get的后續操作就可以拿到完整的元素內容。

        然后,在第三行,調用了getFirst()來取得鏈表的頭部:

      HashEntry<K,V> getFirst(int hash) {
          HashEntry<K,V>[] tab = table;
          return tab[hash & (tab.length - 1)];
      }
      

         同樣,這里也是用位操作來確定鏈表的頭部,hash值和HashTable的長度減一做與操作,最后的結果就是hash值的低n位,其中n是HashTable的長度以2為底的結果。

        在確定了鏈表的頭部以后,就可以對整個鏈表進行遍歷,看第4行,取出key對應的value的值,如果拿出的value的值是null,則可能這個key,value對正在put的過程中,如果出現這種情況,那么就加鎖來保證取出的value是完整的,如果不是null,則直接返回value。

      ConcurrentHashMap的put操作

        看完了get操作,再看下put操作,put操作的前面也是確定Segment的過程,這里不再贅述,直接看關鍵的segment的put方法:

      V put(K key, int hash, V value, boolean onlyIfAbsent) {
          lock();
          try {
              int c = count;
              if (c++ > threshold) // ensure capacity
                  rehash();
              HashEntry<K,V>[] tab = table;
              int index = hash & (tab.length - 1);
              HashEntry<K,V> first = tab[index];
              HashEntry<K,V> e = first;
              while (e != null && (e.hash != hash || !key.equals(e.key)))
                  e = e.next;
       
              V oldValue;
              if (e != null) {
                  oldValue = e.value;
                  if (!onlyIfAbsent)
                      e.value = value;
              }
              else {
                  oldValue = null;
                  ++modCount;
                  tab[index] = new HashEntry<K,V>(key, hash, first, value);
                  count = c; // write-volatile
              }
              return oldValue;
          } finally {
              unlock();
          }
      }
      

         首先對Segment的put操作是加鎖完成的,然后在第五行,如果Segment中元素的數量超過了閾值(由構造函數中的loadFactor算出)這需要進行對Segment擴容,并且要進行rehash,關于rehash的過程大家可以自己去了解,這里不詳細講了。

        第8和第9行的操作就是getFirst的過程,確定鏈表頭部的位置。

        第11行這里的這個while循環是在鏈表中尋找和要put的元素相同key的元素,如果找到,就直接更新更新key的value,如果沒有找到,則進入21行這里,生成一個新的HashEntry并且把它加到整個Segment的頭部,然后再更新count的值。

      ConcurrentHashMap的remove操作

        Remove操作的前面一部分和前面的get和put操作一樣,都是定位Segment的過程,然后再調用Segment的remove方法:

      V remove(Object key, int hash, Object value) {
          lock();
          try {
              int c = count - 1;
              HashEntry<K,V>[] tab = table;
              int index = hash & (tab.length - 1);
              HashEntry<K,V> first = tab[index];
              HashEntry<K,V> e = first;
              while (e != null && (e.hash != hash || !key.equals(e.key)))
                  e = e.next;
       
              V oldValue = null;
              if (e != null) {
                  V v = e.value;
                  if (value == null || value.equals(v)) {
                      oldValue = v;
                      // All entries following removed node can stay
                      // in list, but all preceding ones need to be
                      // cloned.
                      ++modCount;
                      HashEntry<K,V> newFirst = e.next;
                      for (HashEntry<K,V> p = first; p != e; p = p.next)
                          newFirst = new HashEntry<K,V>(p.key, p.hash,
                                                        newFirst, p.value);
                      tab[index] = newFirst;
                      count = c; // write-volatile
                  }
              }
              return oldValue;
          } finally {
              unlock();
          }
      }
      

         首先remove操作也是確定需要刪除的元素的位置,不過這里刪除元素的方法不是簡單地把待刪除元素的前面的一個元素的next指向后面一個就完事了,我們之前已經說過HashEntry中的next是final的,一經賦值以后就不可修改,在定位到待刪除元素的位置以后,程序就將待刪除元素前面的那一些元素全部復制一遍,然后再一個一個重新接到鏈表上去,看一下下面這一幅圖來了解這個過程:
      1
        假設鏈表中原來的元素如上圖所示,現在要刪除元素3,那么刪除元素3以后的鏈表就如下圖所示:
      2

      ConcurrentHashMap的size操作

        在前面的章節中,我們涉及到的操作都是在單個Segment中進行的,但是ConcurrentHashMap有一些操作是在多個Segment中進行,比如size操作,ConcurrentHashMap的size操作也采用了一種比較巧的方式,來盡量避免對所有的Segment都加鎖。

        前面我們提到了一個Segment中的有一個modCount變量,代表的是對Segment中元素的數量造成影響的操作的次數,這個值只增不減,size操作就是遍歷了兩次Segment,每次記錄Segment的modCount值,然后將兩次的modCount進行比較,如果相同,則表示期間沒有發生過寫入操作,就將原先遍歷的結果返回,如果不相同,則把這個過程再重復做一次,如果再不相同,則就需要將所有的Segment都鎖住,然后一個一個遍歷了,具體的實現大家可以看ConcurrentHashMap的源碼,這里就不貼了。

        另外2篇講述關于ConcurrentHashMap原理的兩篇文章:

        《ConcurrentHashMap之實現細節》:http://www.iteye.com/topic/344876

        《聊聊并發(四)深入分析ConcurrentHashMap》:http://ifeve.com/ConcurrentHashMap/

        

      posted @ 2014-08-27 10:17  Matrix海子  閱讀(76696)  評論(20)    收藏  舉報
      主站蜘蛛池模板: 天天综合色天天综合色h| 中文国产成人精品久久不卡| 麻豆精品在线| 亚洲国产片一区二区三区| 狠狠综合久久av一区二| 国产老熟女视频一区二区| 国产亚洲精品第一综合另类灬| 亚洲最大成人av在线天堂网 | 亚洲欧美日韩综合一区在线| 精品一区二区不卡免费| 狠狠色噜噜狠狠狠狠蜜桃| 亚洲日本欧洲二区精品| 日本成本人片免费网站| 人人妻人人澡人人爽| 国产一区二区黄色在线观看| 最近免费中文字幕大全| 国产在线午夜不卡精品影院| 国产成人精品一区二区秒拍1o | 国产精品久久香蕉免费播放| 日韩丝袜欧美人妻制服| 精品在免费线中文字幕久久| 国产乱码精品一区二区三区四川人| 国产日韩av二区三区| 人妻精品动漫h无码| 加勒比中文字幕无码一区| 通许县| 久久不见久久见中文字幕免费 | 视频专区熟女人妻第二页| 国产精品店无码一区二区三区| 精品无码成人片一区二区| 亚洲国产欧美在线看片一国产| 国产精品午夜福利导航导| 成在人线av无码免费看网站直播| 国产+亚洲+制服| 任你躁国产自任一区二区三区| 国产精品极品美女自在线观看免费| 日韩毛片在线视频x| 国产 另类 在线 欧美日韩 | 国产偷自一区二区三区在线| 天天做天天爱夜夜爽| 东京道一本热中文字幕|