多线程高并发学习之并发容器

HashMap相干的同步容器

  • 前世今生介绍:HashMap是从HashTable演变过去的,HashTable设计之初的志愿是容器的的所有办法必须都得是同步的,所以HashTable的所有办法都是加了synchronized关键字来保障同步,这显然是不太正当的,因为大多数状况下,都是只有一个线程来操作容器,所以又在HashTable之后推出了HashMap

    • HashTable——>全锁操作
    • HashMap——>无锁操作
    • ConcurrentHashMap——>新的同步容器(CAS)
    • HashMap也应该有同步办法,所以又出了一个Collections这么一个工具类,他能够把HashMap变成一个同步容器,如下图,还能够将许多容器都变为同步容器
    • Collections.synchronizedMap( )给出的同步容器HashMapHashTable有什么区别呢,区别其实很小,就是HashTable用的是办法锁,而Collections.synchronizedMap( )用的是同步代码块,都是用的synchronized,只不过相比于HashTable锁的力度要小一些,效率略高一丢丢ConcurrentHashMap采纳的是CAS无锁操作,在put的过程中如果没有发生冲突,则采纳CAS操作进行无锁化更新只有产生了哈希抵触的时候才锁住在链表上增加新Node或者更新Node的操作
  • 读写效率:

    • HashTable写入效率高,实测100W数据写入用时700毫秒左右,读效率低,100W数据读取用时37秒左右
    • Collections.synchronizedMap( )写入效率高,实测100W数据写入用时600毫秒左右,读效率低,100W数据读取用时38秒左右
    • ConcurrentHashMap写入效率低,实测100W数据写入用时1.8秒左右,读效率超高,100W数据读取用时1.7秒左右
    • 总结:理论用哪一个须要看我的项目的应用场景,到底是读操作多,还是写操作多,而后依据理论压测数据来决定到底是用哪个同步容器

List、Vector、Queue

  • List同步须要加锁,或者上图所示,应用collectios的synchronizedXXX的办法,获取同步的List,原理也是synchronized代码块
  • Vector是同步容器,是在办法上加了synchronized关键字,为办法锁,相比synchronizedList锁的力度要大一些,所以效率偏慢一丢丢
  • Queue队列,实现类中有多个同步队列,都能够实现同步,甚至还有的实现了生产者消费者模型,所以大并发下单个元素的操作,尽量能够多思考Queue,少思考List

常常在多线程下应用的容器

Map

  • ConcurrentHashMap,基于CAS实现,不多解释
  • ConcurrentSkipListMap,基于跳表实现

    • 可能是因为,思考到利用CAS实现了一个ConcurrentHashMap,也应该须要用CAS实现一个 ”ConcurrentTreeMap“ (此处多逼逼一句,TreeMap基于红黑树实现),但可怜的是,应用CAS实现 ”ConcurrentTreeMap“ 太难了,难度超高,超简单,所以退一步,应用跳表实现了一个ConcurrentSkipListMap
  • HashTable
  • Collections.synchronizedMap( )

List

  • CopyOnWriteArrayList,写时复制,顾名思义,在写入数据的时候,将array数组copy一次,如下图

    • 有点相似Lock里的ReadWriteLock,读不加锁,写入加锁
  • Collections.synchronizedList( )

    • 和上边提到的Collections.synchronizedMap( )一个样子,都是同步代码块

Queue

  • ConcurrentLinkedQueue

    • 办法介绍:

      • add:增加元素,加不进去,满了,跑异样
      • offer:增加元素,增加胜利返回true,满了增加不进去了,返回false
      • peek:获取元素,然而获取后不删除元素
      • poll:获取元素并且删除元素

BlockingQueue:天生的生产者消费者模型

LinkedBlockingQueue无界队列

  • 介绍:基于链表实现的无界队列,能够始终增加,直到内存溢出
  • 办法介绍:除了上边的add、offer、peek、poll办法外

    • put:增加元素,如果增加满了,就阻塞住,期待能够持续增加元素
    • take:获取元素,如果没有能够获取的元素,就阻塞住,期待能够持续往外取元素

ArrayBlockingQueue有界队列

  • 与LinkedBlockingQueue雷同,只不过是指定大小的,有界的

PriorityQueue

  • 介绍:能够依据增加进来的对象进行比拟排序,而后安程序取出

    • 例如:顺次增加“a”、“z”、“f”、“c”,而后循环调用poll,顺次取出,程序是排好序的

DelayQueue工夫排序队列

  • 介绍:依据工夫排序,要进入队列的对象必须实现Delayed接口,重写getDelay(获取等待时间)办法以及compareTo(比拟工夫)办法

SynchronusQueue

  • 介绍:容量为0的队列,其实,这货色不是用来装货色的,是用来让一个线程给另外一个线程下达任务的,一个线程往里放数据,期待另一个线程来取数据
  • 容量为0,所以调用add办法往里面增加数据是会报错,正确的应用办法是一个线程调用put办法往里放数据,另一个线程调用take办法,取数据

TransferQueue

  • 介绍:具备独有的transfer办法,调用该办法写入数据,在被其余线程取走数据前始终阻塞的等着,晓得有人将数据取走
  • 办法:

    • transfer办法,写入数据,并且阻塞住,期待数据被取走后继续执行
说了这么多,那么,你学废了吗?
不点个赞再走嘛