java同步容器与并发容器

1547次阅读  |  发布于5年以前

在编程的时候经常会用到容器,当容器被多线程读取的时候我们就要考虑线程安全的问题,哪些容器是线程是线程安全的,容器的哪些操作又是线程安全的,这些安全机制是怎么实现的,本文将一一介绍。

同步容器

1. vector和hashtable

jdk很早的时候就支持vector和hashtable,vector内部是一个数组,它的同步是在所有对元素的存取操作上进行synchronized的,也就是说每个时刻只能由一个线程可以访问容器的元素,这种线程安全是比较粗粒度的。
比如你在进行vector容器的迭代操作(iterator.next())时再调用vector.put(object o)时会抛出ConcurrentModificationException


hashtable的内部实现:
首先回顾下hashmap的实现,我们初始化一个hashmap时有两个参数inital capacity用来定义hashmap的初始化buckets数,reload factor加载因子,初始值为0.75,当hashmap中entry的数量超过这个比值时hashmap就会进行扩容,然后所有的entry进行rehash,这两个初始参数都必须选择合适的值,如果inital capacity选择太小,由于容器是开链的,会给查找元素增加额外的负担,reload factor不能选的过大,否则插入元素时出现碰撞的几率会增大。
hashtable就是在hashmap的基础上对所有元素的访问和插入操作用synchronized关键字同步,同样,在对容器元素迭代访问时进行插入操作会抛出ConcurrentModificationException。


2. collections.synchronizedXXX工厂方法创建

collections.synchronizedXXX是在jdk2引入的,和vector,hashtable一样,都是在整个容器上进行同步操作。
举个例子,下面这个是jdk7种collections.synchronizedMap的实现,这里只列出部分代码:

private static class SynchronizedMap<K,V>
        implements Map<K,V>, Serializable {
        private static final long serialVersionUID = 1978198479659022715L;

        private final Map<K,V> m;     // Backing Map
        final Object      mutex;        // Object on which to synchronize

        SynchronizedMap(Map<K,V> m) {
            this.m = Objects.requireNonNull(m);
            mutex = this;
        }

        SynchronizedMap(Map<K,V> m, Object mutex) {
            this.m = m;
            this.mutex = mutex;
        }
        //所有的操作都是在同一个监视器上进行同步
        public int size() {
            synchronized (mutex) {return m.size();}
        }
        public boolean isEmpty() {
            synchronized (mutex) {return m.isEmpty();}
        }
        public boolean containsKey(Object key) {
            synchronized (mutex) {return m.containsKey(key);}
        }
        public boolean containsValue(Object value) {
            synchronized (mutex) {return m.containsValue(value);}
        }
        public V get(Object key) {
            synchronized (mutex) {return m.get(key);}
        }

        public V put(K key, V value) {
            synchronized (mutex) {return m.put(key, value);}
        }
        public V remove(Object key) {
            synchronized (mutex) {return m.remove(key);}
        }
        public void putAll(Map<? extends K, ? extends V> map) {
            synchronized (mutex) {m.putAll(map);}
        }
        public void clear() {
            synchronized (mutex) {m.clear();}
        }

并发容器

JDK5中添加了新的concurrent包,其中包含了很多并发容器,这些容器针对多线程环境进行了优化,大大提高了容器类在并发环境下的执行效率。
下面所有的代码都是来源于jdk7。

CopyOnWriteArrayList

CopyOnWriteArrayList类是一个线程安全的List接口的实现,在该类的内部进行元素的写操作时,底层的数组将被完整的复制,这对于读操作远远多于写操作的应用非常适合。在CopyOnWriteArrayList上进行操作时,读操作不需要加锁,而写操作类实现中对其进行了加锁

底层实现如下:

public class CopyOnWriteArrayList<E>  
        implements List<E>, RandomAccess, Cloneable, java.io.Serializable {  

    /** The lock protecting all mutators */
    final transient ReentrantLock lock = new ReentrantLock();

    /** The array, accessed only via getArray/setArray. */
    private transient volatile Object[] array;
     final Object[] getArray() {
        return array;
    }

      ...  
    }  

读写操作:

 @SuppressWarnings("unchecked")
    private E get(Object[] a, int index) {
        return (E) a[index];
    }

    public E get(int index) {
        return get(getArray(), index);
    }
    //使用ReentrantLock加锁保护
     public E set(int index, E element) {
        final ReentrantLock lock = this.lock;
        lock.lock();
        try {
            Object[] elements = getArray();
            E oldValue = get(elements, index);

            if (oldValue != element) {
                int len = elements.length;
    //创建一个新的数组,复制原来的元素
                Object[] newElements = Arrays.copyOf(elements, len);
    //set的元素
                newElements[index] = element;
                setArray(newElements);
            } else {
    // 替换底层的数组
                setArray(elements);
            }
            return oldValue;
        } finally {
            lock.unlock();
        }
    }

特别注意:在CopyOnWriteArrayList上获得的Iterator是不能进行set和remove操作的,否则会抛出ConcurrentModificationException。


BlockingQueue

BlockingQueue接口定义了一种阻塞的FIFO queue,基于生产者消费者模式,每一个BlockingQueue都有一个容量,让容量满时往BlockingQueue中添加数据时会造成阻塞,当容量为空时取元素操作会阻塞。

ArrayBlockingQueue是对BlockingQueue的一个数组实现,它使用一把全局的锁并行对queue的读写操作,同时使用两个Condition阻塞容量为空时的取操作和容量满时的写操作。
底层实现:

public class ArrayBlockingQueue<E> extends AbstractQueue<E>  
        implements BlockingQueue<E>, java.io.Serializable {  

    // 使用循环数组来实现queue,初始时takeIndex和putIndex均为0  
    private final E[] items;  
    private transient int takeIndex;  
    private transient int putIndex;  
    private int count;  

    // 用于并发的锁和条件  
    private final ReentrantLock lock;  
    private final Condition notEmpty;  
    private final Condition notFull;  

    /** 
     * 循环数组 
     * Circularly increment i. 
     */  
    final int inc(int i) {  
        return (++i == items.length)? 0 : i;  
    }  

    public ArrayBlockingQueue(int capacity, boolean fair) {  
        if (capacity <= 0)  
            throw new IllegalArgumentException();  
        this.items = (E[]) new Object[capacity];  
        // 分配锁及该锁上的condition  
        lock = new ReentrantLock(fair);  
        notEmpty = lock.newCondition();  
        notFull =  lock.newCondition();  
    }  

      ...  
    }  

ArrayBlockingQueue的取操作:

public class ArrayBlockingQueue<E> extends AbstractQueue<E>  
        implements BlockingQueue<E>, java.io.Serializable {  

    private E extract() {  
        final E[] items = this.items;  
        E x = items[takeIndex];  
        items[takeIndex] = null;  
        takeIndex = inc(takeIndex);  
        --count;  
       // 激发notFull条件  
        notFull.signal();  
        return x;  
    }  

     /** 
     * condition的await的语义如下: 
     * 与condition相关的锁以原子方式释放,并禁用该线程 
     * 方法返回时,线程必须获得与该condition相关的锁 
     */  
    public E take() throws InterruptedException {  
        final ReentrantLock lock = this.lock;  
        lock.lockInterruptibly();  
        try {  
            try {  
                  // 等待notEmpty的条件  
                while (count == 0)  
                    notEmpty.await();  
            } catch (InterruptedException ie) {  
            // 唤醒其他正在等待的线程  
                notEmpty.signal(); 

                throw ie;  
            }  
            E x = extract();  
            return x;  
        } finally {  
            lock.unlock();  
        }  
    }  

      ...  
    }  

ArrayBlockingQueue的写操作:

public class ArrayBlockingQueue<E> extends AbstractQueue<E>  
        implements BlockingQueue<E>, java.io.Serializable {  

    private void insert(E x) {  
        items[putIndex] = x;  
        putIndex = inc(putIndex);  
        ++count;  
        notEmpty.signal();  
    }  

    public void put(E o) throws InterruptedException {  
        if (o == null) throw new NullPointerException();  
        final E[] items = this.items;  
        final ReentrantLock lock = this.lock;  
        lock.lockInterruptibly();  
        try {  
            try {  
                  // 等待notFull条件  
           while (count == items.length)  
                    notFull.await();  
            } catch (InterruptedException ie) {  
        // 唤醒其他正在等待的线程      
                  notFull.signal(); 

                throw ie;  
            }  
            insert(o);  
        } finally {  
            lock.unlock();  
        }  
    }  

      ...  
    }  

注意:ArrayBlockingQueue在读写操作上都需要锁住整个容器,因此吞吐量与一般的实现是相似的,适合于实现"生产者消费者"模式。

LinkedBlockingQueue

LinkedBlockingQueue是BlockingQueue的一种使用Link List的实现,它对头和尾(取和添加操作)采用两把不同的锁,相对于ArrayBlockingQueue提高了吞吐量。它也是一种阻塞型的容器,适合于实现"消费者生产者"模式。

LinkedBlockingQueue底层的定义如下:

public class LinkedBlockingQueue<E> extends AbstractQueue<E>  
        implements BlockingQueue<E>, java.io.Serializable {  

    static class Node<E> {  
        /** The item, volatile to ensure barrier separating write and read */  

        volatile E item;  
        Node<E> next;  
        Node(E x) { item = x; }  
    }  

    // 支持原子操作  
    private final AtomicInteger count = new AtomicInteger(0);  

    // 链表的头和尾  
    private transient Node<E> head;  
    private transient Node<E> last;  

    // 针对取和添加操作的两把锁及其上的条件  
    private final ReentrantLock takeLock = new ReentrantLock();  
    private final Condition notEmpty = takeLock.newCondition();  

    private final ReentrantLock putLock = new ReentrantLock();  
    private final Condition notFull = putLock.newCondition();  

       ...  
    } 

LinkedBlockingQueue的添加操作:

public class LinkedBlockingQueue<E> extends AbstractQueue<E>  
        implements BlockingQueue<E>, java.io.Serializable {  

    private void insert(E x) {  
        last = last.next = new Node<E>(x);  
    }  

    /** 
     * signal方法在被调用时,当前线程必须拥有该condition相关的锁! 
     * Signal a waiting take. Called only from put/offer (which do not otherwise ordinarily lock takeLock.) 
     */  
    private void signalNotEmpty() {  
        final ReentrantLock takeLock = this.takeLock;  
        takeLock.lock();  
        try {  
            notEmpty.signal();  
        } finally {  
            takeLock.unlock();  
        }  
    }  

    public void put(E o) throws InterruptedException {  
        if (o == null) throw new NullPointerException();  
        int c = -1;  
        final ReentrantLock putLock = this.putLock;  
        final AtomicInteger count = this.count;  
        // 使用putLock  
        putLock.lockInterruptibly();  
        try {  
            try {  
                  // 当容量已满时,等待notFull条件  
            while (count.get() == capacity)  
                    notFull.await();  
            } catch (InterruptedException ie) {  
                notFull.signal(); // propagate to a non-interrupted thread  
                throw ie;  
            }  
            insert(o);  
            // 取出当前值,并将原数据增加1  
            c = count.getAndIncrement();  
            // 容量不满,再次激活notFull上等待的put线程  
        if (c + 1 < capacity)  
                notFull.signal();  
        } finally {  
            putLock.unlock();  
        }  
        // 必须先释放putLock再在notEmpty上signal,否则会造成死锁  
     if (c == 0)  
            signalNotEmpty();  
    }  

      ...  
    }   

LinkedBlockingQueue的取操作:

public class LinkedBlockingQueue<E> extends AbstractQueue<E>  
        implements BlockingQueue<E>, java.io.Serializable {  

    private E extract() {  
        Node<E> first = head.next;  
        head = first;  
        E x = first.item;  
        first.item = null;  
        return x;  
    }  

    private void signalNotFull() {  
        final ReentrantLock putLock = this.putLock;  
        putLock.lock();  
        try {  
            notFull.signal();  
        } finally {  
            putLock.unlock();  
        }  
    }  

    public E take() throws InterruptedException {  
        E x;  
        int c = -1;  
        final AtomicInteger count = this.count;  
        final ReentrantLock takeLock = this.takeLock;  
        // 使用takeLock  
        takeLock.lockInterruptibly();  
        try {  
            try {  
                  // 若容量为空,等待notEmpty  
                while (count.get() == 0)  
                    notEmpty.await();  
            } catch (InterruptedException ie) {  
                notEmpty.signal(); // propagate to a non-interrupted thread  
                throw ie;  
            }  

            x = extract();  
            c = count.getAndDecrement();  
            // 再次激活notEmpty  
            if (c > 1)  
                notEmpty.signal();  
        } finally {  
            takeLock.unlock();  
        }  
        // take执行之前容量已满,则激活notFull  
        if (c == capacity)  
            signalNotFull();  
        return x;  
    }  

      ...  
    }  

ConcurrentHashMap

ConcurrentHashMap是Map的一种并发实现,在该类中元素的read操作都是无锁了,而write操作需要被同步。这非常适合于读操作远大于写操作的情况。在实现过程中,ConcurrentHashMap将所有元素分成了若干个segment,每个segment是独立的,在一个segment上加锁并不影响其他segment的操作。segment本身是一个hashtable,对于一个加入ConcurrentHashMap的对,key的hash值中的高位被用来索引segment,而低位用于segment中的索引。

虽然读操作不阻塞,但是读到的值可能不是最新的值,因为可能有其他线程又更新了元素,Iterator操作也是一样,包括size(),isEmpty(),containValue()返回的结果可能是错误的,而且每个时刻只有一个线程可以访问迭代器。

segment是ConcurrentHashMap存储元素的基本段,它本身是一个hashtable的实现,read操作时无锁的,write需要同步,定义如下:

public class ConcurrentHashMap<K, V> extends AbstractMap<K, V>  
        implements ConcurrentMap<K, V>, Serializable {  


    /** 
     *  key, hash, next都是不可改的 
    *  value值可被重写 
    */  
    static final class HashEntry<K,V> {  
        final K key;  
        final int hash;  
        volatile V value;  
        final HashEntry<K,V> next;  

        ...  
     }  

       static final class Segment<K,V> extends ReentrantLock   implements Serializable {  

        transient volatile int count;  
        transient volatile HashEntry[] table;  
        // 当segment中元素个数达到threshold时,需要rehash  
        transient int threshold;  
    }  

      ...  
    }

segment的read操作:

static final class Segment<K,V> extends ReentrantLock implements Serializable {  

      HashEntry<K,V> getFirst(int hash) {  
          HashEntry[] tab = table;  
          return (HashEntry<K,V>) tab[hash & (tab.length - 1)];  
      }  

     V get(Object key, int hash) { // 该操作是无锁的  
          if (count != 0) { // read-volatile  
              HashEntry<K,V> e = getFirst(hash);  
              while (e != null) {  
                  if (e.hash == hash && key.equals(e.key)) {  
                      V v = e.value;  
                      if (v != null)  
                          return v;  
                        // recheck  
                      return readValueUnderLock(e);

                  }  
                  e = e.next;  
              }  
          }  
          return null;  
      }  

    ...  
    } 

由于HashEntry当中的key和next都是final的,所以segment之上的操作不可能影响HashEntry列表之间相对的顺序,而value是可变的,当第一次读值失败时,尝试加锁读。
segment的replace操作:

static final class Segment<K,V> extends ReentrantLock implements Serializable {  

       /** 
       * replace操作是就地替换,HashEntry的value是非final的 
       */  
        boolean replace(K key, int hash, V oldValue, V newValue) {  
            lock();  // replace操作是同步的  
        try {  
                // 得到该hash值对应的entry列表  
           HashEntry<K,V> e = getFirst(hash);  
           while (e != null && (e.hash != hash || !                key.equals(e.key)))  
                 e = e.next;  

                boolean replaced = false;  
                if (e != null && oldValue.equals(e.value)) {     // 替换  
                      replaced = true;  
                     e.value = newValue;  
                }  
                return replaced;  
            } finally {  
                unlock();  
            }  
        }  

      ...  
    }  

segment的remove操作一种copy on write 的方法,保留被删元素之后的列表,copy被删元素之前的hashEntry:

static final class Segment<K,V> extends ReentrantLock implements Serializable {  

        V remove(Object key, int hash, Object value) {  
            lock();  
            try {  
                int c = count - 1;  
                HashEntry[] tab = table;  
                int index = hash & (tab.length - 1);  
                HashEntry<K,V> first = (HashEntry<K,V>)tab[index];  
                HashEntry<K,V> e = first;  
                while (e != null && (e.hash != hash || !key.equals(e.key)))  
                    e = e.next;  

                V oldValue = null;  
                if (e != null) {  
                    V v = e.value;  
                    if (value == null || value.equals(v)) { // copy on write  
                        oldValue = v;  
                        ++modCount;  
                        // e之后的列表可以保留,只需要重新创建e之前的HashEntry即可  
                 HashEntry<K,V> newFirst = e.next;  
                        // copy on write e之前的HashEntry  
                        for (HashEntry<K,V> p = first; p != e; p = p.next)  
                            newFirst = new HashEntry<K,V>(p.key, p.hash,    
                                                          newFirst, p.value);  
                        tab[index] = newFirst;  
                        count = c; // write-volatile  
                    }  
                }  
                return oldValue;  
            } finally {  
                unlock();  
            }  
        }  

      ...  
    }  

segment的rehash操作实现比较特别,为了保证rehash过程中copy的元素尽可能少,segment在rehash时Entry入口的个数是以2的倍数增长,这可以保证一个entry在rehash之后要么在原来的列表中,要么在下一个列表中:

static final class Segment<K,V> extends ReentrantLock implements Serializable {  

        void rehash() {  
            // 局部变量引用table  
            HashEntry[] oldTable = table;              
            int oldCapacity = oldTable.length;  
            if (oldCapacity >= MAXIMUM_CAPACITY)  
                return;  

            // 右移1位相当于乘以2  
            HashEntry[] newTable = new HashEntry[oldCapacity << 1];  
            threshold = (int)(newTable.length * loadFactor);  
            int sizeMask = newTable.length - 1;  
            for (int i = 0; i < oldCapacity ; i++) {  
                // 第i个entry列表  
           HashEntry<K,V> e = (HashEntry<K,V>)oldTable[i];  

                if (e != null) {  
                    HashEntry<K,V> next = e.next;  
                    // 在新table上的索引  
                    int idx = e.hash & sizeMask;  

                    if (next == null)  
                        newTable[idx] = e;  
                    else {  
                        // 寻找该entry列表末端,rehash之后idx相同的元素  
                        // 这些元素不需要被copy  
                        HashEntry<K,V> lastRun = e;  
                        int lastIdx = idx;  
                        for (HashEntry<K,V> last = next;  
                             last != null;  
                             last = last.next) {  
                            int k = last.hash & sizeMask;  
                            if (k != lastIdx) {  
                                lastIdx = k;  
                                lastRun = last;  
                            }  
                        }  
                        // 将lastRun之后的整个列表挂到新位置上  
                        newTable[lastIdx] = lastRun;  

                        // Clone all remaining nodes  
                        for (HashEntry<K,V> p = e; p != lastRun; p = p.next) {  
                            int k = p.hash & sizeMask;  
                            HashEntry<K,V> n = (HashEntry<K,V>)newTable[k];  
                            newTable[k] = new HashEntry<K,V>(p.key, p.hash,  
                                                             n, p.value);  
                        }  
                    }  
                }  
            }  
            table = newTable;  
        }  

      ...  
    }

ConcurrentHashMap在Segment的基础上,通过首先将对hash到一个segment,再由segment实现对entry的管理。

ConcurrentHashMap的get实现:

public class ConcurrentHashMap<K, V> extends AbstractMap<K, V>  
        implements ConcurrentMap<K, V>, Serializable {  

    final Segment<K,V> segmentFor(int hash) {  
        return (Segment<K,V>) segments[(hash >>> segmentShift) & segmentMask];  
    }  

    public V get(Object key) {  
        int hash = hash(key); // throws NullPointerException if key null  
        return segmentFor(hash).get(key, hash);  
    }  

      ...  
    }  

ConcurrentHashMap的put和get方法:

public class ConcurrentHashMap<K, V> extends AbstractMap<K, V>  
        implements ConcurrentMap<K, V>, Serializable {  

    public V put(K key, V value) {  
        if (value == null)  
            throw new NullPointerException();  
        int hash = hash(key);  
        return segmentFor(hash).put(key, hash, value, false);  
    }  

    public V remove(Object key) {  
        int hash = hash(key);  
        return segmentFor(hash).remove(key, hash, null);  
    }  


}


ConcurrentLinkedQueue

ConcurrentLinkedQueue充分使用了atomic包的实现打造了一个无锁并发线程安全的队列。对比锁机制的实现,个人认为使用无锁机制的难点在于要充分考虑线程间的协调。简单的说就是多个线程对内部数据结构进行访问时,如果其中一个线程执行的中途因为一些原因出现故障,其他的线程能够检测并帮助完成剩下的操作。这就需要把对数据结构的操作过程精细的划分成多个状态或阶段,考虑每个阶段或状态多线程访问会出现的情况。上述的难点在此次分析的并发Queue的实现中有很好的说明。

对于多线程同时访问容器元素的情况,concurrentLinkedQueue是一个很好的选择,因为所有的操作都是非阻塞的,所以它的迭代操作返回的结果并不是最新的,不会出现concurrentmodificationException。

而且不像很多其他容器,ConcurrentLinkedQueue的size()操作不是常量时间,返回的结果也不一定是准确的。

public class ConcurrentLinkedQueue<E> extends AbstractQueue<E>  
        implements Queue<E>, java.io.Serializable {  
    private static final long serialVersionUID = 196745693267521676L;  

    private static class Node<E> {  
        private volatile E item;  
        private volatile Node<E> next;  

        private static final  
            AtomicReferenceFieldUpdater<Node, Node>  
            nextUpdater =  
            AtomicReferenceFieldUpdater.newUpdater  
            (Node.class, Node.class, "next");  
        private static final  
            AtomicReferenceFieldUpdater<Node, Object>  
            itemUpdater =  
            AtomicReferenceFieldUpdater.newUpdater  
            (Node.class, Object.class, "item");  

        Node(E x) { item = x; }  

        Node(E x, Node<E> n) { item = x; next = n; }  

        E getItem() {  
            return item;  
        }  

        boolean casItem(E cmp, E val) {  
            return itemUpdater.compareAndSet(this, cmp, val);  
        }  

        void setItem(E val) {  
            itemUpdater.set(this, val);  
        }  

        Node<E> getNext() {  
            return next;  
        }  

        boolean casNext(Node<E> cmp, Node<E> val) {  
            return nextUpdater.compareAndSet(this, cmp, val);  
        }  

        void setNext(Node<E> val) {  
            nextUpdater.set(this, val);  
        }  

    }  

    private static final  
        AtomicReferenceFieldUpdater<ConcurrentLinkedQueue, Node>  
        tailUpdater =  
        AtomicReferenceFieldUpdater.newUpdater  
        (ConcurrentLinkedQueue.class, Node.class, "tail");  
    private static final  
        AtomicReferenceFieldUpdater<ConcurrentLinkedQueue, Node>  
        headUpdater =  
        AtomicReferenceFieldUpdater.newUpdater  
        (ConcurrentLinkedQueue.class,  Node.class, "head");  

    private boolean casTail(Node<E> cmp, Node<E> val) {  
        return tailUpdater.compareAndSet(this, cmp, val);  
    }  

    private boolean casHead(Node<E> cmp, Node<E> val) {  
        return headUpdater.compareAndSet(this, cmp, val);  
    }  

    private transient volatile Node<E> head = new Node<E>(null, null);  

    private transient volatile Node<E> tail = head;  
    ...  
    }  

先看看其内部数据结构Node的实现。由于使用了原子字段更新器AtomicReferenceFieldUpdater<T,V>(其中T表示持有字段的类的类型,V表示字段的类型),所以其对应的需要更新的字段要使用volatile进行声明。其newUpdater(Class<U> tclass, Class<W> vclass, String fieldName)方法实例化一个指定字段的更新器,参数分别表示:持有需要更新字段的类,字段的类,要更新的字段的名称。Node的内部变量item,next分别有对应自己的字段更新器,并且包含了对其原子性操作的方法compareAndSet(T obj, V expect, V update),其中T是持有被设置字段的对象,后两者分别是期望值和新值。

对于ConcurrentLinkedQueue自身也有两个volatile的线程共享变量:head,tail分别对应队列的头指针和尾指针。要保证这个队列的线程安全就是保证对这两个Node的引用的访问(更新,查看)的原子性和可见性,由于volatile本身能够保证可见性,所以就是对其修改的原子性要被保证:

public boolean offer(E e) {  
    if (e == null) throw new NullPointerException();  
    Node<E> n = new Node<E>(e, null);  
    for (;;) {  
        Node<E> t = tail;  
        Node<E> s = t.getNext();  
        if (t == tail) { //-----------------------------a  
            if (s == null) { //-------------------------b  
                if (t.casNext(s, n)) { //---------------c  
                    casTail(t, n); //-------------------d  
                    return true;  
                }  
            } else {  
                casTail(t, s); //-----------------------e  
            }  
        }  
    }  

}

offer()方法都很熟悉了,就是入队的操作。涉及到改变尾指针的操作,所以要看这个方法实现是否保证了原子性。CAS操作配合循环是原子性操作的保证,这里也不例外。此方法的循环内首先获得尾指针和其next指向的对象,由于tail和Node的next均是volatile的,所以保证了获得的分别都是最新的值。


通过分析这个入队的操作,可以清晰的看到无锁实现的每个步骤和状态下多线程之间的协调和工作。理解了入队的整个过程,出队的操作poll()的实现也就变得简单了。基本上是大同小异的,无非就是同时牵涉到了head和tail的状态,在改变head的同时照顾到tail的协调,在此不多赘述。下面介绍一下其无锁下的查看访问,其内部不单单是查看更包含了线程间的协调,这是无锁实现的一个特点。不管是contains(),size()还是isEmpty(),只要获得了head后面第一个最新的Node就可以很轻松的实现,毕竟Node的getNext()和getItem()返回的都是对应的最新值。所以先看看这些方法内部的first()如何获得最新的第一个Node:

Node<E> first() {  
    for (;;) {  
        Node<E> h = head;  
        Node<E> t = tail;  
        Node<E> first = h.getNext();  
        if (h == head) { //----------------  ---------a  
            if (h == t) { //--------------------------b  
                if (first ==null) --------------------c  
                    return null;  
                else  
                    casTail(t, first); //-------------d  
            } else {  
                if (first.getItem() != null) //-------e  
                    return first;  
                else
                 // remove deleted node and continue  
                    casHead(h, first); //-------------f  
            }  
        }  
    }  

}

此方法在尝试获得最新的第一个非head结点的时候,在不同的阶段同样在协调着head和tail的更新任务,让人感觉无锁的世界没有纯粹的工作,呵呵。

这样通过这两个方法的分析可以推及对ConcurrentLinkedQueue共享变量的其他操作的实现,这样的无锁的实现印象最深的就是要考虑线程间的协调。不像锁机制的实现虽然牺牲了一定的性能,但是至少操作这些非线程安全的共享变量时不用过多的考虑其他线程的操作。

Copyright© 2013-2020

All Rights Reserved 京ICP备2023019179号-8