一、场景

当咱们在多线程的环境下操作一个汇合,比方 ArrayList或者Hashmap,这些汇合默认状况下必定是线程不平安的,如果说多个线程同时去读和写这些汇合就会有线程平安问题。

好,问题来了,咱们应该怎么让一个汇合变成线程平安的呢?

二、synchronized 或者lock锁

有一个非常简单的方法,对这些汇合的拜访都加上线程同步的管制,或者说是加锁。

这里能够去另一篇文章看一下Synchronized和lock锁的原理简述synchronized和lock锁

最简略的做法就是加一个Synchronized或者Lock锁。

咱们假如就是用 ReadWriteLock 读写锁的形式来管制对这些汇合的拜访。

这样多个读申请能够同时执行从这些汇合里读取数据,然而读申请和写申请之间互斥,写申请和写申请也是互斥的。

public Object  read() {

   lock.readLock().lock();

   // 对汇合的读操作

   lock.readLock().unlock();

}

public void write() {

   lock.writeLock().lock();

   // 对汇合的写操作

   lock.writeLock().unlock();

}

大家想想,相似下面的代码有什么问题呢?

最大的问题,其实就在于写锁和读锁的互斥。假如写操作频率很低,读操作频率很高,是写少读多的场景。

那么偶然执行一个写操作的时候,是不是会加上写锁,此时大量的读操作过去是不是就会被阻塞住,无奈执行?大数据培训

这个就是读写锁可能遇到的最大的问题。

三、从kafka源码获取灵感

kafka实现了一个 CopyOnWriteMap解决了下面的一系列问题,这个 CopyOnWriteMap采纳的是CopyOnWrite思维,它是一种相似于读写拆散的思维。

咱们来看一下这个 CopyOnWriteMap 的源码实现:

// 典型的volatile润饰一般Map

  private volatile Map map;

  @Override

  public synchronized V put(K k, V v) {

      // 更新的时候先创立正本,更新正本,而后对volatile变量赋值写回去

      Map copy = new HashMap(this.map);

      V prev = copy.put(k, v);

      this.map = Collections.unmodifiableMap(copy);

      return prev;

  }

  @Override

  public V get(Object k) {

      // 读取的时候间接读volatile变量援用的map数据结构,无需锁

      return map.get(k);

  }

如果你是写操作(put)的话,它会先去创立一个正本,而后对这个正本用syn锁,这样就能确保一次只能有一个线程去批改这个正本,而读操作(get),间接不加锁,因为不论多少个线程读,对数据都没有影响,这样就既能保障读写的线程平安,又能极大晋升性能!

而他这里最精妙的中央在于,如何确保你读到的都是最新的数据呢?他这里应用了volatile润饰这个map,volatile是确保多线程环境下的可见性问题,那么当咱们写操作更新了这个正本,它就会马上更新咱们读的那个数据,这样就解决了读写拆散最难的同步数据问题!