前言
本篇文章次要讲述的是 SpringBoot 整合 Mybatis、Druid 和 PageHelper 并实现多数据源和分页。其中 SpringBoot 整合 Mybatis 这块,在之前的的一篇文章中曾经讲述了,这里就不过多阐明了。重点是讲述在多数据源下的如何配置应用 Druid 和 PageHelper。
SpringBoot + Mybatis + Druid + PageHelper 学习笔记和最新面试题
Druid 介绍和应用
在应用 Druid 之前,先来简略的理解下 Druid。
Druid 是一个数据库连接池。Druid 能够说是目前最好的数据库连接池!因其优良的性能、性能和扩展性方面,深受开发人员的青眼。
Druid 曾经在阿里巴巴部署了超过 600 个利用,通过一年多生产环境大规模部署的严苛考验。Druid 是阿里巴巴开发的号称为监控而生的数据库连接池!
同时 Druid 不仅仅是一个数据库连接池,Druid 外围次要包含三局部:
- 基于 Filter-Chain 模式的插件体系。
- DruidDataSource 高效可治理的数据库连接池。
- SQLParser
Druid 的次要性能如下:
- 是一个高效、功能强大、可扩展性好的数据库连接池。
- 能够监控数据库拜访性能。
- 数据库明码加密
- 取得 SQL 执行日志
- 扩大 JDBC
介绍方面这块就不再多说,具体的能够看官网文档。那么开始介绍 Druid 如何应用。
首先是 Maven 依赖,只须要增加 druid 这一个 jar 就行了。
<dependency> <groupId>com.alibaba</groupId> <artifactId>druid</artifactId> <version>1.1.8</version> </dependency>
配置方面,次要的只须要在 application.properties 或 application.yml 增加如下就能够了。
阐明:因为这里我是用来两个数据源,所以略微有些不同而已。Druid 配置的阐明在上面中曾经说的很具体了,这里我就不在阐明了。
# 默认的数据源 master.datasource.url=jdbc:mysql://localhost:3306/springBoot?useUnicode=true&characterEncoding=utf8&allowMultiQueries=truemaster.datasource.username=rootmaster.datasource.password=123456master.datasource.driverClassName=com.mysql.jdbc.Driver
# 另一个的数据源 cluster.datasource.url=jdbc:mysql://localhost:3306/springBoot_test?useUnicode=true&characterEncoding=utf8cluster.datasource.username=rootcluster.datasource.password=123456cluster.datasource.driverClassName=com.mysql.jdbc.Driver
# 连接池的配置信息# 初始化大小,最小,最大 spring.datasource.type=com.alibaba.druid.pool.DruidDataSourcespring.datasource.initialSize=5spring.datasource.minIdle=5spring.datasource.maxActive=20
# 配置获取连贯期待超时的工夫 spring.datasource.maxWait=60000
# 配置距离多久才进行一次检测,检测须要敞开的闲暇连贯,单位是毫秒 spring.datasource.timeBetweenEvictionRunsMillis=60000
# 配置一个连贯在池中最小生存的工夫,单位是毫秒 spring.datasource.minEvictableIdleTimeMillis=300000spring.datasource.validationQuery=SELECT 1 FROM DUALspring.datasource.testWhileIdle=truespring.datasource.testOnBorrow=falsespring.datasource.testOnReturn=false# 关上 PSCache,并且指定每个连贯上 PSCache 的大小 spring.datasource.poolPreparedStatements=truespring.datasource.maxPoolPreparedStatementPerConnectionSize=20
# 配置监控统计拦挡的 filters,去掉后监控界面 sql 无奈统计,'wall' 用于防火墙 spring.datasource.filters=stat,wall,log4j# 通过 connectProperties 属性来关上 mergeSql 性能;慢 SQL 记录 spring.datasource.connectionProperties=druid.stat.mergeSql=true;druid.stat.slowSqlMillis=5000
胜利增加了配置文件之后,咱们再来编写 Druid 相干的类。
首先是 MasterDataSourceConfig.java 这个类,这个是默认的数据源配置类。
@Configuration
@MapperScan(basePackages = MasterDataSourceConfig.PACKAGE, sqlSessionFactoryRef = "masterSqlSessionFactory")public class MasterDataSourceConfig { static final String PACKAGE = "com.pancm.dao.master"; static final String MAPPER_LOCATION = "classpath:mapper/master/*.xml";
@Value("${master.datasource.url}") private String url;
@Value("${master.datasource.username}") private String username;
@Value("${master.datasource.password}") private String password;
@Value("${master.datasource.driverClassName}") private String driverClassName;
@Value("${spring.datasource.initialSize}") private int initialSize;
@Value("${spring.datasource.minIdle}") private int minIdle;
@Value("${spring.datasource.maxActive}") private int maxActive;
@Value("${spring.datasource.maxWait}") private int maxWait;
@Value("${spring.datasource.timeBetweenEvictionRunsMillis}") private int timeBetweenEvictionRunsMillis;
@Value("${spring.datasource.minEvictableIdleTimeMillis}") private int minEvictableIdleTimeMillis;
@Value("${spring.datasource.validationQuery}") private String validationQuery;
@Value("${spring.datasource.testWhileIdle}") private boolean testWhileIdle;
@Value("${spring.datasource.testOnBorrow}") private boolean testOnBorrow;
@Value("${spring.datasource.testOnReturn}") private boolean testOnReturn;
@Value("${spring.datasource.poolPreparedStatements}") private boolean poolPreparedStatements;
@Value("${spring.datasource.maxPoolPreparedStatementPerConnectionSize}") private int maxPoolPreparedStatementPerConnectionSize;
@Value("${spring.datasource.filters}") private String filters;
@Value("{spring.datasource.connectionProperties}") private String connectionProperties;
@Bean(name = "masterDataSource")
@Primary
public DataSource masterDataSource() {DruidDataSource dataSource = new DruidDataSource();
dataSource.setUrl(url);
dataSource.setUsername(username);
dataSource.setPassword(password);
dataSource.setDriverClassName(driverClassName); // 具体配置
dataSource.setInitialSize(initialSize);
dataSource.setMinIdle(minIdle);
dataSource.setMaxActive(maxActive);
dataSource.setMaxWait(maxWait);
dataSource.setTimeBetweenEvictionRunsMillis(timeBetweenEvictionRunsMillis);
dataSource.setMinEvictableIdleTimeMillis(minEvictableIdleTimeMillis);
dataSource.setValidationQuery(validationQuery);
dataSource.setTestWhileIdle(testWhileIdle);
dataSource.setTestOnBorrow(testOnBorrow);
dataSource.setTestOnReturn(testOnReturn);
dataSource.setPoolPreparedStatements(poolPreparedStatements);
dataSource.setMaxPoolPreparedStatementPerConnectionSize(maxPoolPreparedStatementPerConnectionSize);
try {dataSource.setFilters(filters);
} catch (SQLException e) {e.printStackTrace();
} dataSource.setConnectionProperties(connectionProperties);
return dataSource; }
@Bean(name = "masterTransactionManager")
@Primary public DataSourceTransactionManager masterTransactionManager() {return new DataSourceTransactionManager(masterDataSource()); }
@Bean(name = "masterSqlSessionFactory")
@Primary public SqlSessionFactory masterSqlSessionFactory(@Qualifier("masterDataSource") DataSource masterDataSource) throws Exception {final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean(); sessionFactory.setDataSource(masterDataSource);
sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()
.getResources(MasterDataSourceConfig.MAPPER_LOCATION)); return sessionFactory.getObject();}}
其中这两个注解阐明下:
- @Primary:标记这个 Bean 如果在多个同类 Bean 候选时,该 Bean 优先被思考。多数据源配置的时候留神,必须要有一个主数据源,用 @Primary 标记该 Bean。
- @MapperScan:扫描 Mapper 接口并容器治理。
须要留神的是 sqlSessionFactoryRef 示意定义一个惟一 SqlSessionFactory 实例。
下面的配置完之后,就能够将 Druid 作为连接池应用了。然而 Druid 并不简简单单的是个连接池,它也能够说是一个监控利用,它自带了 web 监控界面,能够很清晰的看到 SQL 相干信息。
在 SpringBoot 中使用 Druid 的监控作用,只须要编写 StatViewServlet 和 WebStatFilter 类,实现注册服务和过滤规定。这里咱们能够将这两个写在一起,应用 @Configuration 和 @Bean。
为了不便了解,相干的配置阐明也写在代码中了,这里就不再过多赘述了。
代码如下:
@Configurationpublic class DruidConfiguration {@Bean public ServletRegistrationBean druidStatViewServle() {
// 注册服务 ServletRegistrationBean servletRegistrationBean = new ServletRegistrationBean(new StatViewServlet(), "/druid/*");
// 白名单 (为空示意, 所有的都能够拜访, 多个 IP 的时候用逗号隔开) servletRegistrationBean.addInitParameter("allow", "127.0.0.1");
// IP 黑名单 (存在独特时,deny 优先于 allow) servletRegistrationBean.addInitParameter("deny", "127.0.0.2");
// 设置登录的用户名和明码 servletRegistrationBean.addInitParameter("loginUsername", "pancm"); servletRegistrationBean.addInitParameter("loginPassword", "123456");
// 是否可能重置数据. servletRegistrationBean.addInitParameter("resetEnable", "false");
return servletRegistrationBean; }
@Bean public FilterRegistrationBean druidStatFilter() {FilterRegistrationBean filterRegistrationBean = new FilterRegistrationBean( new WebStatFilter());
// 增加过滤规定 filterRegistrationBean.addUrlPatterns("/*");
// 增加不须要疏忽的格局信息 filterRegistrationBean.addInitParameter("exclusions",
"*.js,*.gif,*.jpg,*.png,*.css,*.ico,/druid/*"); System.out.println("druid 初始化胜利!"); return filterRegistrationBean; }}
编写完之后,启动程序,在浏览器输出:http://127.0.0.1:8084/druid/i…,而后输出设置的用户名和明码,便能够拜访 Web 界面了。
多数据源配置
在进行多数据源配置之前,先别离在 springBoot 和 springBoot_test 的 mysql 数据库中执行如下脚本。
-- springBoot 库的脚本 CREATE TABLE `t_user`
(`id` int(11) NOT NULL AUTO_INCREMENT COMMENT '自增 id', `name` varchar(10) DEFAULT NULL COMMENT '姓名', `age` in
t(2) DEFAULT NULL COMMENT '年龄', PRIMARY KEY (`id`)) ENGINE=InnoDB AUTO_INCREMENT=15 DEFAULT
CHARSET=utf8-- springBoot_test 库的脚本 CREATE TABLE `t_student` (`id` int(11) NOT NULL AUTO_INCREMENT,
`name` varchar(16) DEFAULT NULL, `age` int(11) DEFAULT NULL,
PRIMARY KEY (`id`)) ENGINE=InnoDB AUTO_INCREMENT=2 DEFAULT CHARSET=utf8
注: 为了偷懒,将两张表的构造弄成一样了!不过不影响测试!
在 application.properties 中曾经配置这两个数据源的信息,下面曾经贴出了一次配置,这里就不再贴了。
这里重点说下 第二个数据源的配置。和下面的 MasterDataSourceConfig.java 差不多,区别在与没有应用 @Primary 注解和名称不同而已。须要留神的是 MasterDataSourceConfig.java 对 package 和 mapper 的扫描是准确到目录的,这里的第二个数据源也是如此。
那么代码如下:
@Configuration@MapperScan(basePackages
= ClusterDataSourceConfig.PACKAGE, sqlSessionFactoryRef
= "clusterSqlSessionFactory")public class ClusterDataSourceConfig { static final String PACKAGE
= "com.pancm.dao.cluster"; static final String MAPPER_LOCATION = "classpath:mapper/cluster/*.xml";
@Value("${cluster.datasource.url}") private String url;
@Value("${cluster.datasource.username}") private String username;
@Value("${cluster.datasource.password}") private String password;
@Value("${cluster.datasource.driverClassName}") private String driverClass;
// 和 MasterDataSourceConfig 一样,这里略 @Bean(name
= "clusterDataSource") public DataSource clusterDataSource() { DruidDataSource dataSource
= new DruidDataSource();
dataSource.setUrl(url);
dataSource.setUsername(username);
dataSource.setPassword(password);
dataSource.setDriverClassName(driverClass); /
/ 和 MasterDataSourceConfig 一样,这里略 ...
return dataSource; } @Bean(name
= "clusterTransactionManager") public DataSourceTransactionManager clusterTransactionManager() {return new DataSourceTransactionManager(clusterDataSource()); } @Bean(name
= "clusterSqlSessionFactory") public SqlSessionFactory clusterSqlSessionFactory(@Qualifier("clusterDataS
ource") DataSource clusterDataSource) throws Exception { final SqlSessionFactoryBean
sessionFactory
= new SqlSessionFactoryBean(); sessionFactory.setDataSource(clusterDataSource); sessionFactory.s
etMapperLocations(new PathMatchingResourcePatternResolver().getResources(ClusterDataSourceConfig.
MAPPER_LOCATION)); return sessionFactory.getObject();}}
胜利写完配置之后,启动程序,进行测试。
别离在 springBoot 和 springBoot_test 库中应用接口进行增加数据。
t_user
POST http://localhost:8084/api/user{"name":"张三","age":25}{"name":"李四","age":25}{"name":"王五","age":25}
t_student
POST http://localhost:8084/api/student{"name":"学生 A","age":16}{"name":"学生 B","age":17}{"name":"学生 C","age":18}
胜利增加数据之后,而后进行调用不同的接口进行查问。
申请:
GET http://localhost:8084/api/use…
返回:
{"id": 2, "name": "李四", "age": 25}
申请:
GET http://localhost:8084/api/stu…
返回:
{"id": 1, "name": "学生 C", "age": 16}
通过数据能够看出,胜利配置了多数据源了。
PageHelper 分页实现
PageHelper 是 Mybatis 的一个分页插件,十分的好用!这里强烈推荐!!!
PageHelper 的应用很简略,只须要在 Maven 中增加 pagehelper 这个依赖就能够了。
Maven 的依赖如下:
<dependency>
<groupId>com.github.pagehelper</groupId>
<artifactId>pagehelper-spring-boot-starter</artifactId>
<version>1.2.3</version></dependency>
注:这里我是用 springBoot 版的!也能够应用其它版本的。
增加依赖之后,只须要增加如下配置或代码就能够了。
第一种,在 application.properties 或 application.yml 增加
pagehelper: helperDialect: mysql offsetAsPageNum: true rowBoundsWithCount: true reasonable: false
第二种,在 mybatis.xml 配置中增加:
<bean
id="sqlSessionFactory" class="org.mybatis.spring.SqlSessionFactoryBean"> <property name="dataSourc
e"ref="dataSource" /> <!-- 扫描 mapping.xml 文件 --
> <property name="mapperLocations" value="classpath:mapper/*.xml"></property> <!-- 配置分页插件 --
> <property name="plugins"> <array> <bean class="com.github.pagehelper.PageHelper">
<property name="properties"> <value> helperDialect=mysql offsetAsPageNum=t
rue rowBoundsWithCount=true reasonable=false </value> </property>
</bean> </array> </property> </bean>
第三种,在代码中增加,应用 @Bean 注解在启动程序的时候初始化。
@Bean public PageHelper pageHelper(){ PageHelper pageHelper = new PageHelper(); Properties
properties = new Properties(); // 数据库 properties.setProperty("helperDialect", "mysql"); // 是否将参数
offset 作为 PageNum 应用 properties.setProperty("offsetAsPageNum", "true");
// 是否进行 count 查
询 properties.setProperty("rowBoundsWithCount", "true");
// 是否分页正当
化 properties.setProperty("reasonable", "false"); pageHelper.setProperties(properties); }
因为这里咱们应用的是多数据源,所以这里的配置略微有些不同。咱们须要在 sessionFactory 这里配置。这里就对 MasterDataSourceConfig.java 进行相应的批改。
在 masterSqlSessionFactory 办法中,增加如下代码。
@Bean(name = "masterSqlSessionFactory")
@Primary public SqlSessionFactory masterSqlSessionFactory(@Qualifier("masterDataSource") DataSource masterDataSource)
throws Exception {final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();
sessionFactory.setDataSource(masterDataSource);
sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()
.getResources(MasterDataSourceConfig.MAPPER_LOCATION));
// 分页插件 Interceptor interceptor = new PageInterceptor(); Properties properties = new Properties();
// 数据库 properties.setProperty("helperDialect", "mysql");
// 是否将参数 offset 作为 PageNum 应用 properties.setProperty("offsetAsPageNum", "true");
// 是否进行 count 查问 properties.setProperty("rowBoundsWithCount", "true");
// 是否分页合理化
properties.setProperty("reasonable", "false"); interceptor.setProperties(properties); sessionFactory.
setPlugins(new Interceptor[] {interceptor}); return sessionFactory.getObject();}
注:其它的数据源也想进行分页的时候,参照下面的代码即可。
这里须要留神的是 reasonable 参数,示意分页合理化,默认值为 false。如果该参数设置为 true 时,pageNum<=0 时会查问第一页,pageNum>pages(超过总数时),会查问最初一页。默认 false 时,间接依据参数进行查问。
设置完 PageHelper 之后,应用的话,只须要在查问的 sql 后面增加 PageHelper.startPage(pageNum,pageSize);,如果是想晓得总数的话,在查问的 sql 语句后买呢增加 page.getTotal() 就能够了。
代码示例:
public List<T> findByListEntity(T entity) { List<T> list = null;
try {Page<?> page =PageHelper.startPage(1,2);
System.out.println(getClassName(entity)+"设置第一页两条数据!");
list = getMapper().findByListEntity(entity);
System.out.println("总共有:"+page.getTotal()+"条数据, 理论返回:"+list.size()+"两条数据!"); } catch (Exception e) {logger.error("查问"+getClassName(entity)+"失败! 起因是:",e); }
return list; }
代码编写结束之后,开始进行最初的测试。
查问 t_user 表的所有的数据,并进行分页。
申请:
GET http://localhost:8084/api/user
返回:
[{ "id": 1, "name": "张三", "age": 25},
{"id": 2, "name": "李四", "age": 25}]
控制台打印:
开始查问...User 设置第一页两条数据!2018-04-27 19:55:50.769 DEBUG 6152 --- [io-8084-exec-
10] c.p.d.m.UserDao.findByListEntity_COUNT :
==> Preparing: SELECT count(0) FROM t_user
WHERE 1 = 12018-04-27 19:55:50.770 DEBUG 6152 --- [io-8084-exec-
10] c.p.d.m.UserDao.findByListEntity_COUNT :
==> Parameters:2018-04-27 19:55:50.771 DEBUG 6152 ---
[io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT :
<== Total: 12018-04-
27 19:55:50.772 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity :
==>
Preparing: select id, name, age from t_user where 1=1 LIMIT ?2018-04-27 19:55:50.773 DEBUG 6152 ---
[io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity :
==> Parameters: 2(Integer)2018-04-
27 19:55:50.774 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity :
<== Total: 2 总共有:3 条数据, 理论返回:2 两条数据!
查问 t_student 表的所有的数据,并进行分页。
申请:
GET http://localhost:8084/api/stu…
返回:
[{ "id": 1, "name": "学生 A", "age": 16},
{"id": 2, "name": "学生 B", "age": 17}]
控制台打印:
开始查问...Studnet 设置第一页两条数据!2018-04-27 19:54:56.155 DEBUG 6152 ---
[nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT :
==> Preparing: SELECT count(0) FROM t_student WHERE 1 = 12018-04-27 19:54:56.155 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT :
==> Parameters:2018-04-27 19:54:56.156 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT :
<== Total: 12018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity :
==> Preparing: select id, name, age from t_student where 1=1 LIMIT ?2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity :
=
=> Parameters: 2(Integer)2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity :
<== Total: 2 总共有:3 条数据, 理论返回:2 两条数据!
查问结束之后,咱们再来看 Druid 的监控界面。
在浏览器输出:http://127.0.0.1:8084/druid/i…
能够很清晰的看到操作记录!
如果想晓得更多的 Druid 相干常识,能够查看官网文档!
结语
这篇终于写完了,在进行代码编写的时候,碰到过很多问题,而后缓缓的尝试和找材料解决了。本篇文章只是很浅的介绍了这些相干的应用,在理论的利用可能会更简单。如果有有更好的想法和倡议,欢送留言进行探讨!
参考文章:https://www.bysocket.com/?p=1712
Durid 官网地址:https://github.com/alibaba/druid
PageHelper 官网地址:https://github.com/pagehelper…