乐趣区

关于java:连接池-Druid-一-初始化过程

HikariPool 之后,明天钻研另一支流连接池 Druid。

对于数据库连接池的根本认知

先对数据库连接池的根本工作原理做个理解,不论是 HikariPool、还是 druid,所有的数据库连接池应该都是依照这个基本原理工作和实现的,带着这个思路去学习数据库连接池,防止盲人摸象。

数据库连接池肯定会蕴含以下根本逻辑:

  1. 创立连贯并池化:初始化的时候创立、或者是在利用获取连贯的过程中创立,连贯创立好之后放在连接池(内存中的容器,比方 List)中保留。
  2. 获取数据库连贯:接管了获取数据库连贯的办法,从连接池中获取、而不是创立连贯。
  3. 敞开数据库连贯:接管了敞开数据库连贯的办法,将连贯偿还到连接池、而不是真正的敞开数据库连贯。
  4. 连接池保护:连接池容量、连贯超时清理等工作。

带着这个思路钻研 HikariPool 的源码,会有事倍功半的效用。

意识 Druid 的构造

包含以下几个局部:

  1. DruidConnectionHolder
  2. Connections
  3. evictConnections
  4. keepAliveConnections
  5. destroyConnectionThread/destroySchedulerFuture
  6. createConnectionThread/createSchedulerFuture

DruidConnectionHolder

HikariPool 通过 poolEntry 持有数据库连贯,Druid 通过 DruidConnectionHolder 持有数据库连贯。

DruidConnectionHolder 持有物理数据库连贯 Connectin 对象,以及该连贯的相干属性,比方 connectTimeMillis、lastActiveTimeMillis、lastExecTimeMillis,以及 underlyingReadOnly、underlyingAutoCommit、underlyingTransactionIsolation 等等。连接池能够依据这些属性以及相干参数执行相应的 houseKeep。

Connections

Connections 是 DruidConnectionHolder 组成的数组,是 Druid 连接池中惟一存储可用连贯的中央,看起来会比 HikariPool 简略许多(HikariPool 有三个存储连贯的中央),然而这可能也是 Druid 在性能上稍逊于 HikariPool 的起因之一。

evictConnections

存储须要被回收的连贯的数组,在连接池进行清理的时候用来存储须要被敞开的连贯。

keepAliveConnections

存储放弃流动的连贯的数组。

createConnectionThread/createSchedulerFuture

Druid 依据配置,能够通过 createConnectionThread 线程、或者 createSchedulerFuture 线程工作创立数据库连贯并退出连接池。

Druid 兴许并没有默认的 createSchedulerFuture 的实现,如果要启用 createSchedulerFuture,须要配置 createSchedulerFuture 的实现类。

createConnectionThread 是 Druid 默认的创立连贯的线程,负责获取物理连贯、组装物理连贯为 DruidConnectionHolder 并退出到 connections 数组中。

destroyConnectionThread/destroySchedulerFuture

与创立连贯的形式相似,Druid 提供两种不同的形式销毁(或者敞开)过期的数据库连贯。默认实现是 destroyConnectionThread。

好了,Druid 的根底构造理解完了,咱们采纳和 HikariPool 齐全一样的剖析套路,接下来要进入源码剖析了,次要包含:

  1. Druid 连接池的初始化
  2. 获取数据库连贯 – getConnection 办法
  3. 敞开数据库连贯 – close 办法

Druid 的初始化

Druid 的初始化过程貌似和 HikariPool 稍有不同,因为 HikariPool 默认的在获取连贯之前的 HikariPool 实例化过程中就实现了连接池的初始化。

所谓实现连接池的初始化,指的是依照参数的设定,实现了数据库连贯的创立和池化,也就是说连接池曾经筹备好了,利用在通过 getConnecton 办法获取连贯的时候,间接从连接池中 borrow 就能够了。

Druid 貌似不这样。咱们看一下 DruidDataSource 的实例化办法:

public DruidDataSource(){this(false);
    }

    public DruidDataSource(boolean fairLock){super(fairLock);

        configFromPropety(System.getProperties());
    }

super 指的是 DruidAbstractDataSource,他的构造方法:

public DruidAbstractDataSource(boolean lockFair){lock = new ReentrantLock(lockFair);

        notEmpty = lock.newCondition();
        empty = lock.newCondition();}

只初始化了 ReentrantLock,以及他的两个 Condition:empty 和 notEmpty。

而 configFromPropety 只是负责把参数从配置文件中读入,不做其余的事件。

所以,连接池的初始化过程没有放在 DruidDataSource 的创立过程中。

既然构造方法中没有实现连接池的初始化,咱们自然而然的就想到去看看 getConnection 办法,不做初始化、怎么能获取到数据库连贯?

果然,getConnectin 办法的第一行代码就是:调用 init() 办法。

init 的办法很长,不过有很多代码都是查看参数合理性的,这部分代码咱们间接跳过:

            ... 疏忽 n 多行代码
            connections = new DruidConnectionHolder[maxActive];
            evictConnections = new DruidConnectionHolder[maxActive];
            keepAliveConnections = new DruidConnectionHolder[maxActive];

创立了咱们后面说过的存储数据库连贯的 connections(其实就是池),以及另外两个辅助数组 evictConnections 和 keepAliveConnections,连接池的大小初始化为 maxActive。

接下来:

            if (createScheduler != null && asyncInit) {for (int i = 0; i < initialSize; ++i) {submitCreateTask(true);
                }
            } else if (!asyncInit) {
                // init connections
                while (poolingCount < initialSize) {
                    try {PhysicalConnectionInfo pyConnectInfo = createPhysicalConnection();
                        DruidConnectionHolder holder = new DruidConnectionHolder(this, pyConnectInfo);
                        connections[poolingCount++] = holder;
                    } catch (SQLException ex) {LOG.error("init datasource error, url:" + this.getUrl(), ex);
                        if (initExceptionThrow) {
                            connectError = ex;
                            break;
                        } else {Thread.sleep(3000);
                        }
                    }
                }

                if (poolingCount > 0) {
                    poolingPeak = poolingCount;
                    poolingPeakTime = System.currentTimeMillis();}
            }

查看 createScheduler 不空、并且参数设置为 asyncInit(异步初始化)的话,则提交 initialSize 个连贯创立工作。 咱们说过 createScheduler 并非 Druid 的默认实现,所以咱们临时不论这部分代码。

上面的代码逻辑是:如果不是异步初始化的话,那就是要同步初始化,也就是以后线程要负责实现连接池的初始化,则循环创立 initialSize 个物理连贯、封装为 DruidConnectionHolder 后间接退出到 connections 中。

这个过程就相当于实现了数据库连接池的初始化,然而倡议设置 asyncInit 参数为 true:异步初始化。因为如果同步初始化、并且 initialSize 设置比拟大的话,利用的首个 getConnection 办法必定会耗时比拟长,用户体验不好。

持续看代码,如果 asyncInit 设置为 true,异步初始化的话:

            createAndLogThread();
            createAndStartCreatorThread();
            createAndStartDestroyThread();

从办法名上看,应该是启动了 3 个线程,别离是 createAndLogThread 线程、负责线程创立连贯的线程和负责销毁(敞开)连贯的线程。

createAndLogThread 线程负责定期收集 Druid 连接池的状态并通过 log 打印进去,是 Druid 统计分析的一部分。

createAndStartCreatorThread 是启动连贯创立线程,异步初始化的状况下,连接池就是通过 createAndStartCreatorThread 线程创立的。

createAndStartDestroyThread 是启动连贯销毁的线程,作用相似于 HikariPool 的 houseKeep 线程。

createAndStartCreatorThread 办法以及连贯创立线程、reateAndStartDestroyThread 办法以及连贯销毁线程的源码咱们先放放,稍后剖析。

咱们先一鼓作气实现 init() 办法源码的残余局部:

            initedLatch.await();
            init = true;

            initedTime = new Date();
            registerMbean();

            if (connectError != null && poolingCount == 0) {throw connectError;}

initedLatch 是数量 = 2 的 CountDownLatch,在 DruidDataSource 类成员变量初始化的时候定义好的,这里 initedLatch.await(); 的意思是期待连贯创立线程和连贯销毁线程实现启动。

之后,打标签 init=true,表明初始化已实现,进行异样解决、锁开释等开头工作。

初始化实现!

createAndStartCreatorThread

创立并启动“创立连接线程”:

   protected void createAndStartCreatorThread() {if (createScheduler == null) {String threadName = "Druid-ConnectionPool-Create-" + System.identityHashCode(this);
            createConnectionThread = new CreateConnectionThread(threadName);
            createConnectionThread.start();
            return;
        }

        initedLatch.countDown();}

代码非常简单,就是创立并启动 createConnectionThread。createConnectionThread 线程负责物理连贯的创立、以及连贯的池化。

createConnectionThread#run

连贯的创立及池化是在 createConnectionThread 线程的 run 办法中实现的。

       public void run() {initedLatch.countDown();

            long lastDiscardCount = 0;
            int errorCount = 0;
            for (;;) {
                // addLast
                try {lock.lockInterruptibly();
                } catch (InterruptedException e2) {break;}

               long discardCount = DruidDataSource.this.discardCount;
                boolean discardChanged = discardCount - lastDiscardCount > 0;
                lastDiscardCount = discardCount;

                try {
                    boolean emptyWait = true;

                    if (createError != null
                            && poolingCount == 0
                            && !discardChanged) {emptyWait = false;}

                    if (emptyWait
                            && asyncInit && createCount < initialSize) {emptyWait = false;}

线程启动之后会一直检测是否须要创立连贯,在 run 办法的无条件 for 循环中实现。

首先取得锁。

discardChanged 变量示意在每次循环检测过程中,被 discardCount 的连接数是否有增长。

而后定义了一个 emptyWait 变量,用来示意是否须要暂缓创立连贯、直到期待获取连贯的线程唤醒之后才创立。

对 emptyWait 的解决逻辑是:如果创立连贯产生了谬误并且以后连接池空、并且没有产生 discardChanged,则不期待。或者,如果是异步初始化并且初始化的连接池数量尚未满足 initialSize 的要求,则不期待。

而后:

                  if (emptyWait) {
                        // 必须存在线程期待,才创立连贯
                        if (poolingCount >= notEmptyWaitThreadCount //
                                && (!(keepAlive && activeCount + poolingCount < minIdle))
                                && !isFailContinuous()) {empty.await();
                        }

                        // 避免创立超过 maxActive 数量的连贯
                        if (activeCount + poolingCount >= maxActive) {empty.await();
                            continue;
                        }
                    }

                } catch (InterruptedException e) {
                    lastCreateError = e;
                    lastErrorTimeMillis = System.currentTimeMillis();

                    if ((!closing) && (!closed)) {LOG.error("create connection Thread Interrupted, url:" + jdbcUrl, e);
                    }
                    break;
                } finally {lock.unlock();
                }

这段代码是须要期待的状况,判断以后线程池数量满足期待条件(连接池数量大于 notEmptyWaitThreadCount 数量,activeCount + poolingCount 数量大于等于 minIdle 或者是 keepAlive)。或者,activeCount + poolingCount 曾经大于等于 maxActive 了,则调用 empty.await(); 也就是临时不再创立连贯了,期待获取连贯的线程唤醒之后再创立。 当然,期待是须要开释锁资源的。

接下来是不期待的代码:

               PhysicalConnectionInfo connection = null;

                try {connection = createPhysicalConnection();
                } catch (SQLException e) {// 上面是一堆创立连贯失败的异样解决,疏忽 

创立数据库物理连贯。之后:


                if (connection == null) {continue;}

                boolean result = put(connection);
                if (!result) {JdbcUtils.close(connection.getPhysicalConnection());
                    LOG.info("put physical connection to pool failed.");
                }

                errorCount = 0; // reset errorCount

                if (closing || closed) {break;}
            }
        }
    }

如果创立连贯过程中产生异样,connection==null,则 continue,持续创立。

否则,调用 put 办法,将新创建的连贯退出连接池。当然,如果退出失败的话则敞开刚创立好的连贯,免得资源节约。

接下来看一下连贯放入 connections 的 put 办法。

put 办法

   protected boolean put(PhysicalConnectionInfo physicalConnectionInfo) {
        DruidConnectionHolder holder = null;
        try {holder = new DruidConnectionHolder(DruidDataSource.this, physicalConnectionInfo);
        } catch (SQLException ex) {lock.lock();
            try {if (createScheduler != null) {clearCreateTask(physicalConnectionInfo.createTaskId);
                }
            } finally {lock.unlock();
            }
            LOG.error("create connection holder error", ex);
            return false;
        }

        return put(holder, physicalConnectionInfo.createTaskId);
    }

将 connection 封装为 DruidConnectionHolder,之后调用 put:

private boolean put(DruidConnectionHolder holder, long createTaskId) {lock.lock();
        try {if (this.closing || this.closed) {return false;}

            if (poolingCount >= maxActive) {if (createScheduler != null) {clearCreateTask(createTaskId);
                }
                return false;
            }
            connections[poolingCount] = holder;
            incrementPoolingCount();

            if (poolingCount > poolingPeak) {
                poolingPeak = poolingCount;
                poolingPeakTime = System.currentTimeMillis();}

            notEmpty.signal();
            notEmptySignalCount++;

            if (createScheduler != null) {clearCreateTask(createTaskId);

                if (poolingCount + createTaskCount < notEmptyWaitThreadCount //
                    && activeCount + poolingCount + createTaskCount < maxActive) {emptySignal();
                }
            }
        } finally {lock.unlock();
        }
        return true;
    }

首先获取锁资源。

之后判断如果创立的连接数大于最大流动连接数 poolingCount >= maxActive 的话,则不放入连接池间接返回。

接下来,连贯放入连接池 connections 中,poolingCount 加 1。

接下来 notEmpty.signal(); 告诉期待获取连贯的线程。

之后开释锁资源,连贯退出连接池实现!

createAndStartDestroyThread 办法

创立并启动 DestroyThread,间接看 destroyConnectionThread 的 run 办法:

        public void run() {initedLatch.countDown();

            for (;;) {
                // 从后面开始删除
                try {if (closed || closing) {break;}

                    if (timeBetweenEvictionRunsMillis > 0) {Thread.sleep(timeBetweenEvictionRunsMillis);
                    } else {Thread.sleep(1000); //
                    }

                    if (Thread.interrupted()) {break;}

                    destroyTask.run();} catch (InterruptedException e) {break;}
            }
        }

    }

查看 timeBetweenEvictionRunsMillis,该参数的意思是执行连贯回收的间隔时间,如果该参数设置为 >0,则线程睡眠 timeBetweenEvictionRunsMillis 之后再执行,否则线程每秒执行一次。

调用 destroyTask.run();-> shrink() 办法执行线程回收。

连贯回收的次要工作是 shrink 办法实现的,篇幅起因,放在下一篇文章钻研。

小结

理解了 Druid 连接池的根底构造及其初始化过程,以及连接池中连贯销毁的发动机制:通过 destroyConnectionThread 线程调用 destroyTask 对闲暇超时的连贯进行回收,确保连接池中的连贯放弃在衰弱状态。连贯回收的次要逻辑是在 shrink 办法中,其实也是 Druid 连接池中比拟要害的一部分,下一篇文章剖析。

Thanks a lot!

上一篇 连接池 HikariPool(二)– 获取及敞开连贯

退出移动版