关于springboot:SpringBoot-Mybatis-Druid-PageHelper在多数据源下如何配置并实现分页

前言

本篇文章次要讲述的是SpringBoot整合Mybatis、Druid和PageHelper 并实现多数据源和分页。其中SpringBoot整合Mybatis这块,在之前的的一篇文章中曾经讲述了,这里就不过多阐明了。重点是讲述在多数据源下的如何配置应用Druid和PageHelper 。

SpringBoot + Mybatis + Druid + PageHelper学习笔记和最新面试题

Druid介绍和应用

在应用Druid之前,先来简略的理解下Druid。

Druid是一个数据库连接池。Druid能够说是目前最好的数据库连接池!因其优良的性能、性能和扩展性方面,深受开发人员的青眼。

Druid曾经在阿里巴巴部署了超过600个利用,通过一年多生产环境大规模部署的严苛考验。Druid是阿里巴巴开发的号称为监控而生的数据库连接池!

同时Druid不仅仅是一个数据库连接池,Druid 外围次要包含三局部:

  • 基于Filter-Chain模式的插件体系。
  • DruidDataSource 高效可治理的数据库连接池。
  • SQLParser

Druid的次要性能如下:

  • 是一个高效、功能强大、可扩展性好的数据库连接池。
  • 能够监控数据库拜访性能。
  • 数据库明码加密
  • 取得SQL执行日志
  • 扩大JDBC

介绍方面这块就不再多说,具体的能够看官网文档。那么开始介绍Druid如何应用。

首先是Maven依赖,只须要增加druid这一个jar就行了。

<dependency>         <groupId>com.alibaba</groupId>         <artifactId>druid</artifactId>         <version>1.1.8</version>  </dependency>

配置方面,次要的只须要在application.properties或application.yml增加如下就能够了。

阐明:因为这里我是用来两个数据源,所以略微有些不同而已。Druid 配置的阐明在上面中曾经说的很具体了,这里我就不在阐明了。

# 默认的数据源master.datasource.url=jdbc:mysql://localhost:3306/springBoot?useUnicode=true&characterEncoding=utf8&allowMultiQueries=truemaster.datasource.username=rootmaster.datasource.password=123456master.datasource.driverClassName=com.mysql.jdbc.Driver
# 另一个的数据源cluster.datasource.url=jdbc:mysql://localhost:3306/springBoot_test?useUnicode=true&characterEncoding=utf8cluster.datasource.username=rootcluster.datasource.password=123456cluster.datasource.driverClassName=com.mysql.jdbc.Driver
# 连接池的配置信息# 初始化大小,最小,最大spring.datasource.type=com.alibaba.druid.pool.DruidDataSourcespring.datasource.initialSize=5spring.datasource.minIdle=5spring.datasource.maxActive=20
# 配置获取连贯期待超时的工夫spring.datasource.maxWait=60000
# 配置距离多久才进行一次检测,检测须要敞开的闲暇连贯,单位是毫秒spring.datasource.timeBetweenEvictionRunsMillis=60000
# 配置一个连贯在池中最小生存的工夫,单位是毫秒spring.datasource.minEvictableIdleTimeMillis=300000spring.datasource.validationQuery=SELECT 1 FROM DUALspring.datasource.testWhileIdle=truespring.datasource.testOnBorrow=falsespring.datasource.testOnReturn=false# 关上PSCache,并且指定每个连贯上PSCache的大小spring.datasource.poolPreparedStatements=truespring.datasource.maxPoolPreparedStatementPerConnectionSize=20
# 配置监控统计拦挡的filters,去掉后监控界面sql无奈统计,'wall'用于防火墙spring.datasource.filters=stat,wall,log4j# 通过connectProperties属性来关上mergeSql性能;慢SQL记录spring.datasource.connectionProperties=druid.stat.mergeSql=true;druid.stat.slowSqlMillis=5000

胜利增加了配置文件之后,咱们再来编写Druid相干的类。

首先是MasterDataSourceConfig.java这个类,这个是默认的数据源配置类。

@Configuration
@MapperScan(basePackages = MasterDataSourceConfig.PACKAGE, sqlSessionFactoryRef = "masterSqlSessionFactory")public class MasterDataSourceConfig {    static final String PACKAGE = "com.pancm.dao.master";    static final String MAPPER_LOCATION = "classpath:mapper/master/*.xml";    
@Value("${master.datasource.url}")    private String url;    
@Value("${master.datasource.username}")    private String username;    
@Value("${master.datasource.password}")    private String password;    
@Value("${master.datasource.driverClassName}")    private String driverClassName;    
@Value("${spring.datasource.initialSize}")    private int initialSize;    
@Value("${spring.datasource.minIdle}")    private int minIdle;    
@Value("${spring.datasource.maxActive}")    private int maxActive;   
@Value("${spring.datasource.maxWait}")    private int maxWait;    
@Value("${spring.datasource.timeBetweenEvictionRunsMillis}")    private int timeBetweenEvictionRunsMillis;    
@Value("${spring.datasource.minEvictableIdleTimeMillis}")    private int minEvictableIdleTimeMillis;    
@Value("${spring.datasource.validationQuery}")    private String validationQuery;    
@Value("${spring.datasource.testWhileIdle}")    private boolean testWhileIdle;    
@Value("${spring.datasource.testOnBorrow}")    private boolean testOnBorrow;    
@Value("${spring.datasource.testOnReturn}")    private boolean testOnReturn;    
@Value("${spring.datasource.poolPreparedStatements}")    private boolean poolPreparedStatements;    
@Value("${spring.datasource.maxPoolPreparedStatementPerConnectionSize}")    private int maxPoolPreparedStatementPerConnectionSize;    
@Value("${spring.datasource.filters}")    private String filters;    
@Value("{spring.datasource.connectionProperties}")    private String connectionProperties;    
@Bean(name = "masterDataSource")    
@Primary    
public DataSource masterDataSource() {        
DruidDataSource dataSource = new DruidDataSource();        
dataSource.setUrl(url);        
dataSource.setUsername(username);       
 dataSource.setPassword(password);        
dataSource.setDriverClassName(driverClassName);        //具体配置        
dataSource.setInitialSize(initialSize);        
dataSource.setMinIdle(minIdle);        
dataSource.setMaxActive(maxActive);        
dataSource.setMaxWait(maxWait);        
dataSource.setTimeBetweenEvictionRunsMillis(timeBetweenEvictionRunsMillis);        
dataSource.setMinEvictableIdleTimeMillis(minEvictableIdleTimeMillis);        
dataSource.setValidationQuery(validationQuery);        
dataSource.setTestWhileIdle(testWhileIdle);        
dataSource.setTestOnBorrow(testOnBorrow);        
dataSource.setTestOnReturn(testOnReturn);       
dataSource.setPoolPreparedStatements(poolPreparedStatements);        
dataSource.setMaxPoolPreparedStatementPerConnectionSize(maxPoolPreparedStatementPerConnectionSize);        
try {            dataSource.setFilters(filters);       
 } catch (SQLException e) {           
 e.printStackTrace();       
 }        dataSource.setConnectionProperties(connectionProperties);        
return dataSource;    }  

  
@Bean(name = "masterTransactionManager")    
@Primary    public DataSourceTransactionManager masterTransactionManager() {       
 return new DataSourceTransactionManager(masterDataSource());    }    

@Bean(name = "masterSqlSessionFactory")    
@Primary    public SqlSessionFactory masterSqlSessionFactory(@Qualifier("masterDataSource") DataSource masterDataSource)            throws Exception {       
 final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();        sessionFactory.setDataSource(masterDataSource);       
 sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()                
.getResources(MasterDataSourceConfig.MAPPER_LOCATION));        return sessionFactory.getObject();    }}

其中这两个注解阐明下:

  • @Primary :标记这个 Bean 如果在多个同类 Bean 候选时,该 Bean 优先被思考。多数据源配置的时候留神,必须要有一个主数据源,用 @Primary 标记该 Bean。
  • @MapperScan:扫描 Mapper 接口并容器治理。

须要留神的是sqlSessionFactoryRef 示意定义一个惟一 SqlSessionFactory 实例。

下面的配置完之后,就能够将Druid作为连接池应用了。然而Druid并不简简单单的是个连接池,它也能够说是一个监控利用,它自带了web监控界面,能够很清晰的看到SQL相干信息。

在SpringBoot中使用Druid的监控作用,只须要编写StatViewServlet和WebStatFilter类,实现注册服务和过滤规定。这里咱们能够将这两个写在一起,应用@Configuration和@Bean。

为了不便了解,相干的配置阐明也写在代码中了,这里就不再过多赘述了。

代码如下:

@Configurationpublic class DruidConfiguration {    
@Bean    public ServletRegistrationBean druidStatViewServle() {        

//注册服务        ServletRegistrationBean servletRegistrationBean = new ServletRegistrationBean(               
 new StatViewServlet(), "/druid/*");      
  
// 白名单(为空示意,所有的都能够拜访,多个IP的时候用逗号隔开)        servletRegistrationBean.addInitParameter("allow", "127.0.0.1");        
// IP黑名单 (存在独特时,deny优先于allow)        servletRegistrationBean.addInitParameter("deny", "127.0.0.2");        
// 设置登录的用户名和明码        servletRegistrationBean.addInitParameter("loginUsername", "pancm");        servletRegistrationBean.addInitParameter("loginPassword", "123456");        
// 是否可能重置数据.        servletRegistrationBean.addInitParameter("resetEnable", "false");       
 return servletRegistrationBean;    }    
@Bean    public FilterRegistrationBean druidStatFilter() {        
FilterRegistrationBean filterRegistrationBean = new FilterRegistrationBean(                new WebStatFilter());        
// 增加过滤规定        filterRegistrationBean.addUrlPatterns("/*");        
// 增加不须要疏忽的格局信息        filterRegistrationBean.addInitParameter("exclusions",               
 "*.js,*.gif,*.jpg,*.png,*.css,*.ico,/druid/*");        System.out.println("druid初始化胜利!");        return filterRegistrationBean;    }}

编写完之后,启动程序,在浏览器输出:http://127.0.0.1:8084/druid/i… ,而后输出设置的用户名和明码,便能够拜访Web界面了。

多数据源配置

在进行多数据源配置之前,先别离在springBoot和springBoot_test的mysql数据库中执行如下脚本。

-- springBoot库的脚本CREATE TABLE `t_user` 
(  `id` int(11) NOT NULL AUTO_INCREMENT COMMENT '自增id',  `name` varchar(10) DEFAULT NULL COMMENT '姓名',  `age` in
t(2) DEFAULT NULL COMMENT '年龄',  PRIMARY KEY (`id`)) ENGINE=InnoDB AUTO_INCREMENT=15 DEFAULT 
CHARSET=utf8-- springBoot_test库的脚本CREATE TABLE `t_student` (  `id` int(11) NOT NULL AUTO_INCREMENT,  
`name` varchar(16) DEFAULT NULL,  `age` int(11) DEFAULT NULL,  
PRIMARY KEY (`id`)) ENGINE=InnoDB AUTO_INCREMENT=2 DEFAULT CHARSET=utf8

注:为了偷懒,将两张表的构造弄成一样了!不过不影响测试!

在application.properties中曾经配置这两个数据源的信息,下面曾经贴出了一次配置,这里就不再贴了。

这里重点说下 第二个数据源的配置。和下面的MasterDataSourceConfig.java差不多,区别在与没有应用@Primary 注解和名称不同而已。须要留神的是MasterDataSourceConfig.java对package和mapper的扫描是准确到目录的,这里的第二个数据源也是如此。

那么代码如下:

@Configuration@MapperScan(basePackages 
= ClusterDataSourceConfig.PACKAGE, sqlSessionFactoryRef 
= "clusterSqlSessionFactory")public class ClusterDataSourceConfig { static final String PACKAGE 
= "com.pancm.dao.cluster"; static final String MAPPER_LOCATION = "classpath:mapper/cluster/*.xml"; 
@Value("${cluster.datasource.url}") private String url; 
@Value("${cluster.datasource.username}") private String username; 
@Value("${cluster.datasource.password}") private String password; 
@Value("${cluster.datasource.driverClassName}") private String driverClass; 
// 和MasterDataSourceConfig一样,这里略 @Bean(name 
= "clusterDataSource") public DataSource clusterDataSource() {     DruidDataSource dataSource 
= new DruidDataSource();    
 dataSource.setUrl(url);     
dataSource.setUsername(username);     
dataSource.setPassword(password);    
 dataSource.setDriverClassName(driverClass);     /
/ 和MasterDataSourceConfig一样,这里略 ...     
return dataSource; } @Bean(name 
= "clusterTransactionManager") public DataSourceTransactionManager clusterTransactionManager() {   
  return new DataSourceTransactionManager(clusterDataSource()); } @Bean(name 
= "clusterSqlSessionFactory") public SqlSessionFactory clusterSqlSessionFactory(@Qualifier("clusterDataS
ource") DataSource clusterDataSource)         throws Exception {     final SqlSessionFactoryBean 
sessionFactory 
= new SqlSessionFactoryBean();     sessionFactory.setDataSource(clusterDataSource);     sessionFactory.s
etMapperLocations(new PathMatchingResourcePatternResolver().getResources(ClusterDataSourceConfig.
MAPPER_LOCATION));     return sessionFactory.getObject(); }}

胜利写完配置之后,启动程序,进行测试。

别离在springBoot和springBoot_test库中应用接口进行增加数据。

t_user

POST http://localhost:8084/api/user{"name":"张三","age":25}{"name":"李四","age":25}{"name":"王五","age":25}

t_student

POST http://localhost:8084/api/student{"name":"学生A","age":16}{"name":"学生B","age":17}{"name":"学生C","age":18}

胜利增加数据之后,而后进行调用不同的接口进行查问。

申请:

GET http://localhost:8084/api/use…

返回:

{    "id": 2,    "name": "李四",    "age": 25}

申请:

GET http://localhost:8084/api/stu…

返回:

{    "id": 1,    "name": "学生C",    "age": 16}

通过数据能够看出,胜利配置了多数据源了。

PageHelper 分页实现

PageHelper是Mybatis的一个分页插件,十分的好用!这里强烈推荐!!!

PageHelper的应用很简略,只须要在Maven中增加pagehelper这个依赖就能够了。

Maven的依赖如下:

<dependency>   
<groupId>com.github.pagehelper</groupId>   
<artifactId>pagehelper-spring-boot-starter</artifactId> 
  <version>1.2.3</version></dependency>

注:这里我是用springBoot版的!也能够应用其它版本的。

增加依赖之后,只须要增加如下配置或代码就能够了。

第一种,在application.properties或application.yml增加

pagehelper:  helperDialect: mysql  offsetAsPageNum: true  rowBoundsWithCount: true  reasonable: false

第二种,在mybatis.xml配置中增加:

<bean 
id="sqlSessionFactory" class="org.mybatis.spring.SqlSessionFactoryBean">    <property name="dataSourc
e" ref="dataSource" />    <!-- 扫描mapping.xml文件 --
>    <property name="mapperLocations" value="classpath:mapper/*.xml"></property>    <!-- 配置分页插件 --
>     <property name="plugins">        <array>          <bean class="com.github.pagehelper.PageHelper">            
<property name="properties">              <value>                helperDialect=mysql                offsetAsPageNum=t
rue                rowBoundsWithCount=true                reasonable=false              </value>            </property>       
   </bean>        </array>      </property>  </bean>

第三种,在代码中增加,应用@Bean注解在启动程序的时候初始化。


@Bean  public PageHelper pageHelper(){    PageHelper pageHelper = new PageHelper();   Properties 
properties = new Properties();   //数据库   properties.setProperty("helperDialect", "mysql");   //是否将参数
offset作为PageNum应用   properties.setProperty("offsetAsPageNum", "true");   
//是否进行count查
询   properties.setProperty("rowBoundsWithCount", "true");   
//是否分页正当
化   properties.setProperty("reasonable", "false");   pageHelper.setProperties(properties);  }

因为这里咱们应用的是多数据源,所以这里的配置略微有些不同。咱们须要在sessionFactory这里配置。这里就对MasterDataSourceConfig.java进行相应的批改。

在masterSqlSessionFactory办法中,增加如下代码。

@Bean(name = "masterSqlSessionFactory")    
@Primary    public SqlSessionFactory masterSqlSessionFactory(
@Qualifier("masterDataSource") DataSource masterDataSource)            
throws Exception {        final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();        
sessionFactory.setDataSource(masterDataSource);        
sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()               
 .getResources(MasterDataSourceConfig.MAPPER_LOCATION));        
//分页插件        Interceptor interceptor = new PageInterceptor();        Properties properties = new Properties();        
//数据库        properties.setProperty("helperDialect", "mysql");        
//是否将参数offset作为PageNum应用        properties.setProperty("offsetAsPageNum", "true");        
//是否进行count查问        properties.setProperty("rowBoundsWithCount", "true");        
//是否分页合理化        
properties.setProperty("reasonable", "false");        interceptor.setProperties(properties);        sessionFactory.
setPlugins(new Interceptor[] {interceptor});    return sessionFactory.getObject();  }

注:其它的数据源也想进行分页的时候,参照下面的代码即可。

这里须要留神的是reasonable参数,示意分页合理化,默认值为false。如果该参数设置为 true 时,pageNum<=0 时会查问第一页,pageNum>pages(超过总数时),会查问最初一页。默认false 时,间接依据参数进行查问。

设置完PageHelper 之后,应用的话,只须要在查问的sql后面增加PageHelper.startPage(pageNum,pageSize);,如果是想晓得总数的话,在查问的sql语句后买呢增加 page.getTotal()就能够了。

代码示例:

public List<T> findByListEntity(T entity) {        List<T> list = null;        
try {            Page<?> page =PageHelper.startPage(1,2);            
System.out.println(getClassName(entity)+"设置第一页两条数据!");          
  list = getMapper().findByListEntity(entity);            
System.out.println("总共有:"+page.getTotal()+"条数据,理论返回:"+list.size()+"两条数据!");        } catch (Exception e) {          
  logger.error("查问"+getClassName(entity)+"失败!起因是:",e);        }      
  return list;    }

代码编写结束之后,开始进行最初的测试。

查问t_user表的所有的数据,并进行分页。

申请:

GET http://localhost:8084/api/user

返回:

[    {        "id": 1,        "name": "张三",        "age": 25    },    
{        "id": 2,        "name": "李四",        "age": 25    }]

控制台打印:


开始查问...User设置第一页两条数据!2018-04-27 19:55:50.769 DEBUG 6152 --- [io-8084-exec-
10] c.p.d.m.UserDao.findByListEntity_COUNT :
 ==> Preparing: SELECT count(0) FROM t_user 
WHERE 1 = 12018-04-27 19:55:50.770 DEBUG 6152 --- [io-8084-exec-
10] c.p.d.m.UserDao.findByListEntity_COUNT :
 ==> Parameters:2018-04-27 19:55:50.771 DEBUG 6152 --- 
[io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT : 
<== Total: 12018-04-
27 19:55:50.772 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity :
 ==> 
Preparing: select id, name, age from t_user where 1=1 LIMIT ?2018-04-27 19:55:50.773 DEBUG 6152 --- 
[io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity : 
==> Parameters: 2(Integer)2018-04-
27 19:55:50.774 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity : 
<== Total: 2总共有:3条数据,理论返回:2两条数据!

查问t_student表的所有的数据,并进行分页。

申请:

GET http://localhost:8084/api/stu…

返回:

[    
{        "id": 1,        "name": "学生A",        "age": 16    },  
  {        "id": 2,        "name": "学生B",        "age": 17    }]

控制台打印:

开始查问...Studnet设置第一页两条数据!2018-04-27 19:54:56.155 DEBUG 6152 ---
[nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT : 
==> Preparing: SELECT count(0) FROM t_student WHERE 1 = 12018-04-27 19:54:56.155 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT : 
==> Parameters:2018-04-27 19:54:56.156 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT :
 <== Total: 12018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity : 
==> Preparing: select id, name, age from t_student where 1=1 LIMIT ?2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity : 
=
=> Parameters: 2(Integer)2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity :

 <== Total: 2总共有:3条数据,理论返回:2两条数据!

查问结束之后,咱们再来看Druid 的监控界面。

在浏览器输出:http://127.0.0.1:8084/druid/i…

能够很清晰的看到操作记录!

如果想晓得更多的Druid相干常识,能够查看官网文档!

结语

这篇终于写完了,在进行代码编写的时候,碰到过很多问题,而后缓缓的尝试和找材料解决了。本篇文章只是很浅的介绍了这些相干的应用,在理论的利用可能会更简单。如果有有更好的想法和倡议,欢送留言进行探讨!


参考文章:https://www.bysocket.com/?p=1712

Durid官网地址:https://github.com/alibaba/druid

PageHelper官网地址:https://github.com/pagehelper…

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

这个站点使用 Akismet 来减少垃圾评论。了解你的评论数据如何被处理