乐趣区

关于springboot:SpringBoot-Mybatis-Druid-PageHelper在多数据源下如何配置并实现分页

前言

本篇文章次要讲述的是 SpringBoot 整合 Mybatis、Druid 和 PageHelper 并实现多数据源和分页。其中 SpringBoot 整合 Mybatis 这块,在之前的的一篇文章中曾经讲述了,这里就不过多阐明了。重点是讲述在多数据源下的如何配置应用 Druid 和 PageHelper。

SpringBoot + Mybatis + Druid + PageHelper 学习笔记和最新面试题

Druid 介绍和应用

在应用 Druid 之前,先来简略的理解下 Druid。

Druid 是一个数据库连接池。Druid 能够说是目前最好的数据库连接池!因其优良的性能、性能和扩展性方面,深受开发人员的青眼。

Druid 曾经在阿里巴巴部署了超过 600 个利用,通过一年多生产环境大规模部署的严苛考验。Druid 是阿里巴巴开发的号称为监控而生的数据库连接池!

同时 Druid 不仅仅是一个数据库连接池,Druid 外围次要包含三局部:

  • 基于 Filter-Chain 模式的插件体系。
  • DruidDataSource 高效可治理的数据库连接池。
  • SQLParser

Druid 的次要性能如下:

  • 是一个高效、功能强大、可扩展性好的数据库连接池。
  • 能够监控数据库拜访性能。
  • 数据库明码加密
  • 取得 SQL 执行日志
  • 扩大 JDBC

介绍方面这块就不再多说,具体的能够看官网文档。那么开始介绍 Druid 如何应用。

首先是 Maven 依赖,只须要增加 druid 这一个 jar 就行了。

<dependency>         <groupId>com.alibaba</groupId>         <artifactId>druid</artifactId>         <version>1.1.8</version>  </dependency>

配置方面,次要的只须要在 application.properties 或 application.yml 增加如下就能够了。

阐明:因为这里我是用来两个数据源,所以略微有些不同而已。Druid 配置的阐明在上面中曾经说的很具体了,这里我就不在阐明了。

# 默认的数据源 master.datasource.url=jdbc:mysql://localhost:3306/springBoot?useUnicode=true&characterEncoding=utf8&allowMultiQueries=truemaster.datasource.username=rootmaster.datasource.password=123456master.datasource.driverClassName=com.mysql.jdbc.Driver
# 另一个的数据源 cluster.datasource.url=jdbc:mysql://localhost:3306/springBoot_test?useUnicode=true&characterEncoding=utf8cluster.datasource.username=rootcluster.datasource.password=123456cluster.datasource.driverClassName=com.mysql.jdbc.Driver
# 连接池的配置信息# 初始化大小,最小,最大 spring.datasource.type=com.alibaba.druid.pool.DruidDataSourcespring.datasource.initialSize=5spring.datasource.minIdle=5spring.datasource.maxActive=20
# 配置获取连贯期待超时的工夫 spring.datasource.maxWait=60000
# 配置距离多久才进行一次检测,检测须要敞开的闲暇连贯,单位是毫秒 spring.datasource.timeBetweenEvictionRunsMillis=60000
# 配置一个连贯在池中最小生存的工夫,单位是毫秒 spring.datasource.minEvictableIdleTimeMillis=300000spring.datasource.validationQuery=SELECT 1 FROM DUALspring.datasource.testWhileIdle=truespring.datasource.testOnBorrow=falsespring.datasource.testOnReturn=false# 关上 PSCache,并且指定每个连贯上 PSCache 的大小 spring.datasource.poolPreparedStatements=truespring.datasource.maxPoolPreparedStatementPerConnectionSize=20
# 配置监控统计拦挡的 filters,去掉后监控界面 sql 无奈统计,'wall' 用于防火墙 spring.datasource.filters=stat,wall,log4j# 通过 connectProperties 属性来关上 mergeSql 性能;慢 SQL 记录 spring.datasource.connectionProperties=druid.stat.mergeSql=true;druid.stat.slowSqlMillis=5000

胜利增加了配置文件之后,咱们再来编写 Druid 相干的类。

首先是 MasterDataSourceConfig.java 这个类,这个是默认的数据源配置类。

@Configuration
@MapperScan(basePackages = MasterDataSourceConfig.PACKAGE, sqlSessionFactoryRef = "masterSqlSessionFactory")public class MasterDataSourceConfig {    static final String PACKAGE = "com.pancm.dao.master";    static final String MAPPER_LOCATION = "classpath:mapper/master/*.xml";    
@Value("${master.datasource.url}")    private String url;    
@Value("${master.datasource.username}")    private String username;    
@Value("${master.datasource.password}")    private String password;    
@Value("${master.datasource.driverClassName}")    private String driverClassName;    
@Value("${spring.datasource.initialSize}")    private int initialSize;    
@Value("${spring.datasource.minIdle}")    private int minIdle;    
@Value("${spring.datasource.maxActive}")    private int maxActive;   
@Value("${spring.datasource.maxWait}")    private int maxWait;    
@Value("${spring.datasource.timeBetweenEvictionRunsMillis}")    private int timeBetweenEvictionRunsMillis;    
@Value("${spring.datasource.minEvictableIdleTimeMillis}")    private int minEvictableIdleTimeMillis;    
@Value("${spring.datasource.validationQuery}")    private String validationQuery;    
@Value("${spring.datasource.testWhileIdle}")    private boolean testWhileIdle;    
@Value("${spring.datasource.testOnBorrow}")    private boolean testOnBorrow;    
@Value("${spring.datasource.testOnReturn}")    private boolean testOnReturn;    
@Value("${spring.datasource.poolPreparedStatements}")    private boolean poolPreparedStatements;    
@Value("${spring.datasource.maxPoolPreparedStatementPerConnectionSize}")    private int maxPoolPreparedStatementPerConnectionSize;    
@Value("${spring.datasource.filters}")    private String filters;    
@Value("{spring.datasource.connectionProperties}")    private String connectionProperties;    
@Bean(name = "masterDataSource")    
@Primary    
public DataSource masterDataSource() {DruidDataSource dataSource = new DruidDataSource();        
dataSource.setUrl(url);        
dataSource.setUsername(username);       
 dataSource.setPassword(password);        
dataSource.setDriverClassName(driverClassName);        // 具体配置        
dataSource.setInitialSize(initialSize);        
dataSource.setMinIdle(minIdle);        
dataSource.setMaxActive(maxActive);        
dataSource.setMaxWait(maxWait);        
dataSource.setTimeBetweenEvictionRunsMillis(timeBetweenEvictionRunsMillis);        
dataSource.setMinEvictableIdleTimeMillis(minEvictableIdleTimeMillis);        
dataSource.setValidationQuery(validationQuery);        
dataSource.setTestWhileIdle(testWhileIdle);        
dataSource.setTestOnBorrow(testOnBorrow);        
dataSource.setTestOnReturn(testOnReturn);       
dataSource.setPoolPreparedStatements(poolPreparedStatements);        
dataSource.setMaxPoolPreparedStatementPerConnectionSize(maxPoolPreparedStatementPerConnectionSize);        
try {dataSource.setFilters(filters);       
 } catch (SQLException e) {e.printStackTrace();       
 }        dataSource.setConnectionProperties(connectionProperties);        
return dataSource;    }  

  
@Bean(name = "masterTransactionManager")    
@Primary    public DataSourceTransactionManager masterTransactionManager() {return new DataSourceTransactionManager(masterDataSource());    }    

@Bean(name = "masterSqlSessionFactory")    
@Primary    public SqlSessionFactory masterSqlSessionFactory(@Qualifier("masterDataSource") DataSource masterDataSource)            throws Exception {final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();        sessionFactory.setDataSource(masterDataSource);       
 sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()                
.getResources(MasterDataSourceConfig.MAPPER_LOCATION));        return sessionFactory.getObject();}}

其中这两个注解阐明下:

  • @Primary:标记这个 Bean 如果在多个同类 Bean 候选时,该 Bean 优先被思考。多数据源配置的时候留神,必须要有一个主数据源,用 @Primary 标记该 Bean。
  • @MapperScan:扫描 Mapper 接口并容器治理。

须要留神的是 sqlSessionFactoryRef 示意定义一个惟一 SqlSessionFactory 实例。

下面的配置完之后,就能够将 Druid 作为连接池应用了。然而 Druid 并不简简单单的是个连接池,它也能够说是一个监控利用,它自带了 web 监控界面,能够很清晰的看到 SQL 相干信息。

在 SpringBoot 中使用 Druid 的监控作用,只须要编写 StatViewServlet 和 WebStatFilter 类,实现注册服务和过滤规定。这里咱们能够将这两个写在一起,应用 @Configuration 和 @Bean。

为了不便了解,相干的配置阐明也写在代码中了,这里就不再过多赘述了。

代码如下:

@Configurationpublic class DruidConfiguration {@Bean    public ServletRegistrationBean druidStatViewServle() {        

// 注册服务        ServletRegistrationBean servletRegistrationBean = new ServletRegistrationBean(new StatViewServlet(), "/druid/*");      
  
// 白名单 (为空示意, 所有的都能够拜访, 多个 IP 的时候用逗号隔开)        servletRegistrationBean.addInitParameter("allow", "127.0.0.1");        
// IP 黑名单 (存在独特时,deny 优先于 allow)        servletRegistrationBean.addInitParameter("deny", "127.0.0.2");        
// 设置登录的用户名和明码        servletRegistrationBean.addInitParameter("loginUsername", "pancm");        servletRegistrationBean.addInitParameter("loginPassword", "123456");        
// 是否可能重置数据.        servletRegistrationBean.addInitParameter("resetEnable", "false");       
 return servletRegistrationBean;    }    
@Bean    public FilterRegistrationBean druidStatFilter() {FilterRegistrationBean filterRegistrationBean = new FilterRegistrationBean(                new WebStatFilter());        
// 增加过滤规定        filterRegistrationBean.addUrlPatterns("/*");        
// 增加不须要疏忽的格局信息        filterRegistrationBean.addInitParameter("exclusions",               
 "*.js,*.gif,*.jpg,*.png,*.css,*.ico,/druid/*");        System.out.println("druid 初始化胜利!");        return filterRegistrationBean;    }}

编写完之后,启动程序,在浏览器输出:http://127.0.0.1:8084/druid/i…,而后输出设置的用户名和明码,便能够拜访 Web 界面了。

多数据源配置

在进行多数据源配置之前,先别离在 springBoot 和 springBoot_test 的 mysql 数据库中执行如下脚本。

-- springBoot 库的脚本 CREATE TABLE `t_user` 
(`id` int(11) NOT NULL AUTO_INCREMENT COMMENT '自增 id',  `name` varchar(10) DEFAULT NULL COMMENT '姓名',  `age` in
t(2) DEFAULT NULL COMMENT '年龄',  PRIMARY KEY (`id`)) ENGINE=InnoDB AUTO_INCREMENT=15 DEFAULT 
CHARSET=utf8-- springBoot_test 库的脚本 CREATE TABLE `t_student` (`id` int(11) NOT NULL AUTO_INCREMENT,  
`name` varchar(16) DEFAULT NULL,  `age` int(11) DEFAULT NULL,  
PRIMARY KEY (`id`)) ENGINE=InnoDB AUTO_INCREMENT=2 DEFAULT CHARSET=utf8

注: 为了偷懒,将两张表的构造弄成一样了!不过不影响测试!

在 application.properties 中曾经配置这两个数据源的信息,下面曾经贴出了一次配置,这里就不再贴了。

这里重点说下 第二个数据源的配置。和下面的 MasterDataSourceConfig.java 差不多,区别在与没有应用 @Primary 注解和名称不同而已。须要留神的是 MasterDataSourceConfig.java 对 package 和 mapper 的扫描是准确到目录的,这里的第二个数据源也是如此。

那么代码如下:

@Configuration@MapperScan(basePackages 
= ClusterDataSourceConfig.PACKAGE, sqlSessionFactoryRef 
= "clusterSqlSessionFactory")public class ClusterDataSourceConfig { static final String PACKAGE 
= "com.pancm.dao.cluster"; static final String MAPPER_LOCATION = "classpath:mapper/cluster/*.xml"; 
@Value("${cluster.datasource.url}") private String url; 
@Value("${cluster.datasource.username}") private String username; 
@Value("${cluster.datasource.password}") private String password; 
@Value("${cluster.datasource.driverClassName}") private String driverClass; 
// 和 MasterDataSourceConfig 一样,这里略 @Bean(name 
= "clusterDataSource") public DataSource clusterDataSource() {     DruidDataSource dataSource 
= new DruidDataSource();    
 dataSource.setUrl(url);     
dataSource.setUsername(username);     
dataSource.setPassword(password);    
 dataSource.setDriverClassName(driverClass);     /
/ 和 MasterDataSourceConfig 一样,这里略 ...     
return dataSource; } @Bean(name 
= "clusterTransactionManager") public DataSourceTransactionManager clusterTransactionManager() {return new DataSourceTransactionManager(clusterDataSource()); } @Bean(name 
= "clusterSqlSessionFactory") public SqlSessionFactory clusterSqlSessionFactory(@Qualifier("clusterDataS
ource") DataSource clusterDataSource)         throws Exception {     final SqlSessionFactoryBean 
sessionFactory 
= new SqlSessionFactoryBean();     sessionFactory.setDataSource(clusterDataSource);     sessionFactory.s
etMapperLocations(new PathMatchingResourcePatternResolver().getResources(ClusterDataSourceConfig.
MAPPER_LOCATION));     return sessionFactory.getObject();}}

胜利写完配置之后,启动程序,进行测试。

别离在 springBoot 和 springBoot_test 库中应用接口进行增加数据。

t_user

POST http://localhost:8084/api/user{"name":"张三","age":25}{"name":"李四","age":25}{"name":"王五","age":25}

t_student

POST http://localhost:8084/api/student{"name":"学生 A","age":16}{"name":"学生 B","age":17}{"name":"学生 C","age":18}

胜利增加数据之后,而后进行调用不同的接口进行查问。

申请:

GET http://localhost:8084/api/use…

返回:

{"id": 2,    "name": "李四",    "age": 25}

申请:

GET http://localhost:8084/api/stu…

返回:

{"id": 1,    "name": "学生 C",    "age": 16}

通过数据能够看出,胜利配置了多数据源了。

PageHelper 分页实现

PageHelper 是 Mybatis 的一个分页插件,十分的好用!这里强烈推荐!!!

PageHelper 的应用很简略,只须要在 Maven 中增加 pagehelper 这个依赖就能够了。

Maven 的依赖如下:

<dependency>   
<groupId>com.github.pagehelper</groupId>   
<artifactId>pagehelper-spring-boot-starter</artifactId> 
  <version>1.2.3</version></dependency>

注:这里我是用 springBoot 版的!也能够应用其它版本的。

增加依赖之后,只须要增加如下配置或代码就能够了。

第一种,在 application.properties 或 application.yml 增加

pagehelper:  helperDialect: mysql  offsetAsPageNum: true  rowBoundsWithCount: true  reasonable: false

第二种,在 mybatis.xml 配置中增加:

<bean 
id="sqlSessionFactory" class="org.mybatis.spring.SqlSessionFactoryBean">    <property name="dataSourc
e"ref="dataSource" />    <!-- 扫描 mapping.xml 文件 --
>    <property name="mapperLocations" value="classpath:mapper/*.xml"></property>    <!-- 配置分页插件 --
>     <property name="plugins">        <array>          <bean class="com.github.pagehelper.PageHelper">            
<property name="properties">              <value>                helperDialect=mysql                offsetAsPageNum=t
rue                rowBoundsWithCount=true                reasonable=false              </value>            </property>       
   </bean>        </array>      </property>  </bean>

第三种,在代码中增加,应用 @Bean 注解在启动程序的时候初始化。


@Bean  public PageHelper pageHelper(){    PageHelper pageHelper = new PageHelper();   Properties 
properties = new Properties();   // 数据库   properties.setProperty("helperDialect", "mysql");   // 是否将参数
offset 作为 PageNum 应用   properties.setProperty("offsetAsPageNum", "true");   
// 是否进行 count 查
询   properties.setProperty("rowBoundsWithCount", "true");   
// 是否分页正当
化   properties.setProperty("reasonable", "false");   pageHelper.setProperties(properties);  }

因为这里咱们应用的是多数据源,所以这里的配置略微有些不同。咱们须要在 sessionFactory 这里配置。这里就对 MasterDataSourceConfig.java 进行相应的批改。

在 masterSqlSessionFactory 办法中,增加如下代码。

@Bean(name = "masterSqlSessionFactory")    
@Primary    public SqlSessionFactory masterSqlSessionFactory(@Qualifier("masterDataSource") DataSource masterDataSource)            
throws Exception {final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();        
sessionFactory.setDataSource(masterDataSource);        
sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()               
 .getResources(MasterDataSourceConfig.MAPPER_LOCATION));        
// 分页插件        Interceptor interceptor = new PageInterceptor();        Properties properties = new Properties();        
// 数据库        properties.setProperty("helperDialect", "mysql");        
// 是否将参数 offset 作为 PageNum 应用        properties.setProperty("offsetAsPageNum", "true");        
// 是否进行 count 查问        properties.setProperty("rowBoundsWithCount", "true");        
// 是否分页合理化        
properties.setProperty("reasonable", "false");        interceptor.setProperties(properties);        sessionFactory.
setPlugins(new Interceptor[] {interceptor});    return sessionFactory.getObject();}

注:其它的数据源也想进行分页的时候,参照下面的代码即可。

这里须要留神的是 reasonable 参数,示意分页合理化,默认值为 false。如果该参数设置为 true 时,pageNum<=0 时会查问第一页,pageNum>pages(超过总数时),会查问最初一页。默认 false 时,间接依据参数进行查问。

设置完 PageHelper 之后,应用的话,只须要在查问的 sql 后面增加 PageHelper.startPage(pageNum,pageSize);,如果是想晓得总数的话,在查问的 sql 语句后买呢增加 page.getTotal() 就能够了。

代码示例:

public List<T> findByListEntity(T entity) {        List<T> list = null;        
try {Page<?> page =PageHelper.startPage(1,2);            
System.out.println(getClassName(entity)+"设置第一页两条数据!");          
  list = getMapper().findByListEntity(entity);            
System.out.println("总共有:"+page.getTotal()+"条数据, 理论返回:"+list.size()+"两条数据!");        } catch (Exception e) {logger.error("查问"+getClassName(entity)+"失败! 起因是:",e);        }      
  return list;    }

代码编写结束之后,开始进行最初的测试。

查问 t_user 表的所有的数据,并进行分页。

申请:

GET http://localhost:8084/api/user

返回:

[{        "id": 1,        "name": "张三",        "age": 25},    
{"id": 2,        "name": "李四",        "age": 25}]

控制台打印:


开始查问...User 设置第一页两条数据!2018-04-27 19:55:50.769 DEBUG 6152 --- [io-8084-exec-
10] c.p.d.m.UserDao.findByListEntity_COUNT :
 ==> Preparing: SELECT count(0) FROM t_user 
WHERE 1 = 12018-04-27 19:55:50.770 DEBUG 6152 --- [io-8084-exec-
10] c.p.d.m.UserDao.findByListEntity_COUNT :
 ==> Parameters:2018-04-27 19:55:50.771 DEBUG 6152 --- 
[io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT : 
<== Total: 12018-04-
27 19:55:50.772 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity :
 ==> 
Preparing: select id, name, age from t_user where 1=1 LIMIT ?2018-04-27 19:55:50.773 DEBUG 6152 --- 
[io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity : 
==> Parameters: 2(Integer)2018-04-
27 19:55:50.774 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity : 
<== Total: 2 总共有:3 条数据, 理论返回:2 两条数据!

查问 t_student 表的所有的数据,并进行分页。

申请:

GET http://localhost:8084/api/stu…

返回:

[{        "id": 1,        "name": "学生 A",        "age": 16},  
  {"id": 2,        "name": "学生 B",        "age": 17}]

控制台打印:

 开始查问...Studnet 设置第一页两条数据!2018-04-27 19:54:56.155 DEBUG 6152 ---
[nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT : 
==> Preparing: SELECT count(0) FROM t_student WHERE 1 = 12018-04-27 19:54:56.155 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT : 
==> Parameters:2018-04-27 19:54:56.156 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT :
 <== Total: 12018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity : 
==> Preparing: select id, name, age from t_student where 1=1 LIMIT ?2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity : 
=
=> Parameters: 2(Integer)2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity :

 <== Total: 2 总共有:3 条数据, 理论返回:2 两条数据!

查问结束之后,咱们再来看 Druid 的监控界面。

在浏览器输出:http://127.0.0.1:8084/druid/i…

能够很清晰的看到操作记录!

如果想晓得更多的 Druid 相干常识,能够查看官网文档!

结语

这篇终于写完了,在进行代码编写的时候,碰到过很多问题,而后缓缓的尝试和找材料解决了。本篇文章只是很浅的介绍了这些相干的应用,在理论的利用可能会更简单。如果有有更好的想法和倡议,欢送留言进行探讨!


参考文章:https://www.bysocket.com/?p=1712

Durid 官网地址:https://github.com/alibaba/druid

PageHelper 官网地址:https://github.com/pagehelper…

退出移动版