vector的并发读写问题
家喻户晓,C++规范库中的vector不保障线程平安。当咱们在并发读写vector时,往往会面临两方面的危险:
- 内容读取异样:例如两个线程一个在读,一个在写,或者两个线程同时在写,都会导致单个数据外部呈现不统一的状况。
- vector扩容时,内存地位产生扭转导致Segmentation fault谬误。因为vector在扩容时会将内容全副拷贝到新的内存区域中,原有的内存区域被开释,此时如果有线程仍然在向旧的内存区域读或写就会出问题。
举一个简略的例子:
vector<int> vec;void add_vector(int range, unsigned int seed){ srand(seed); for(int i = 0 ; i < range; i++){ vec.push_back(rand()); }}int main(){ vec.reserve(100); thread t1 = thread(add_vector, 1000, 2); thread t2 = thread(add_vector, 1000, 1); t1.join(); t2.join();}
两个线程都在向vec中增加元素,如果没有任何解决,很容易解体,就是因为第二个起因。而这种并发写的状况,在很多业务场景中都是很可能呈现的,例如:在举荐零碎中,为了进步运算效率每个线程都依照不同的策略生产举荐召回,这些线程产生召回后就会向同一个数组中合并。而后依据这些召回中选出最好的举荐后果。
在文章中提出了三种向vector并发增加元素的计划,目标是保障多线程并发条件下能正确向vector中。我的项目放在了safe_vector。
多线程平安的vector设计---有锁的设计
对于解决并发问题中的最简略的设计就是加锁。在这里咱们应用规范库为咱们提供的mutex来对push_back临界区加锁。
template<typename T>class lock_vector{ std::mutex mlock; vector<T> mvec;public: T operator[](unsigned int idx){ return mvec[idx]; } lock_vector()=default; lock_vector(lock_vector<T>& vec){ vec.getVector(mvec); }; lock_vector(lock_vector<T>&& vec){ vec.getVector(mvec); }; void push_back(const T& value) noexcept{ mlock.lock(); mvec.push_back(value); mlock.unlock(); } void getVector(vector<T> & res){ res = mvec; }};
多线程平安的vector设计---无锁设计
除了应用互斥锁,还能够通过无锁的设计来实现线程同步。其中一种常见的思路就是CAS(compare-and-swap)。C++的原子变量(atomic)就提供了compare_exchange_weak和compare_exchange_strong来实现CAS机制。上面的代码是基于CAS实现的多线程平安计划。
template<typename T>class cas_vector{ std::atomic<bool> flag; vector<T> mvec; void lock(){ bool expect = false; while(!flag.compare_exchange_weak(expect, true)){ expect = false; } } void unlock(){ flag.store(false); }public: T operator[](unsigned int idx){ return mvec[idx]; } cas_vector(){ flag.store(false); }; cas_vector(const cas_vector& vec){ mvec = vec; flag.store(false); }; cas_vector(cas_vector&& vec){ mvec = vec; flag.store(false); }; void replace(const int idx, const T& value) noexcept{ lock(); mvec[idx] = value; unlock(); } void push_back(const T& value) noexcept{ lock(); mvec.push_back(value); unlock(); }};
多线程平安的vector设计---借助thread_local变量
thread_local变量简介
thread_local是C++11之后才引入的关键字。thread_local变量与其所在线程同步创立和销毁,并且只能被创立它的线程所拜访,也就是说thread_local变量是线程平安的。每个线程在本身TIB(Thread Information Block)中存储thread_local变量的正本。
基于thread_local变量实现的计划
该计划的代码实现如下,vector_thl就是多线程增加元素平安的类型。在我的实现中,每个类别离存在两个vector,一个是thread_local类型,每次调用push_back时,都会向其中增加元素。因为该变量在每个线程中都存在一个正本,因而不须要进行线程同步,但同时,为了获取最终后果,必须将这些扩散在各个线程的正本合并到一起。因而在vector_thl减少了merge接口来合并这些线程部分的vector。
template<typename T>class vector_thl{ vector<T> mvec; mutex lock;public: thread_local static vector<T> vec; vector_thl()=default; vector_thl(const vector_thl& vec){ mvec = vec; vec = vec; }; vector_thl(vector_thl&& vec){ mvec = vec; vec = vec; }; void push_back(const T& value) noexcept{ vec.push_back(value); } void merge(){ mvec.insert(mvec.end(), vec.begin(), vec.end()); } void getVector(vector<T>& res){ res = mvec; }};template<typename T>thread_local vector<T> vector_thl<T>::vec(0);
性能比拟
对三种实现计划进行基准测试,失去以下后果:
Run on (12 X 2994.27 MHz CPU s)CPU Caches: L1 Data 32 KiB (x6) L1 Instruction 32 KiB (x6) L2 Unified 512 KiB (x6) L3 Unified 4096 KiB (x1)Load Average: 0.00, 0.09, 0.22--------------------------------------------------------Benchmark Time CPU Iterations--------------------------------------------------------BM_VEC_LOC/10 4574464 ns 1072230 ns 639BM_VEC_LOC/2 6627843 ns 176688 ns 1000BM_VEC_CAS/10 9280705 ns 1027921 ns 683BM_VEC_CAS/2 7537580 ns 180541 ns 1000BM_VEC_THL/10 1108654 ns 993997 ns 687BM_VEC_THL/2 693148 ns 123333 ns 5723
可见借助thread_local实现的计划是运行效率最高的,大略是互斥计划的4倍,是无锁计划的8倍。同时也是CPU利用效率最高的计划。
总结
在文章中咱们实现了三种多线程并发增加元素平安的vector。其中利用thread_local实现的计划效率最高,次要起因是thread_local变量在每个线程中都有一个正本,不会并发写,防止了锁竞争。
然而这种计划并非完满,因为每个线程的thread_local变量都是不残缺的,因而在增加元素阶段并不能正确的读取元素,只有在每个增加元素的线程都讲元素合并到之后能力进行读。