Druid连接池监控(Druid连接池和监控配置)

  前一篇文章我们熟悉了HikariCP连接池,也了解到它的性能很高,今天我们讲一下另一款比较受欢迎的连接池:Druid,这是阿里开源的一款数据库连接池,它官网上声称:为监控而生!他可以实现页面监控,看到SQL的执行次数、时间和慢SQL信息,也可以对数据库密码信息进行加密,也可以对监控结果进行日志的记录,以及可以实现对敏感操作实现开关,杜绝SQL注入,下面我们详细讲一下它如何与Spring集成,并且顺便了解一下它的监控的配置。

  文章要点:

  Spring集成Druid

  监控Filters配置(stat、wall、config、log)

  HiKariCP和Druid该如何选择

  

  org.springframework.boot

  spring-boot-starter-actuator

  

  

  org.springframework.boot

  spring-boot-starter-web

  

  

  mysql

  mysql-connector-java

  runtime

  

  

  org.projectlombok

  lombok

  true

  

  

  org.springframework.boot

  spring-boot-starter-test

  test

  

  

  org.springframework.boot

  spring-boot-starter-data-jdbc

  

  

  org.mybatis.spring.boot

  mybatis-spring-boot-starter

  2.2.0

  

  

  .alibaba

  druid-spring-boot-starter

  1.2.6

  

  @Configuration

  public class DataSourceConfiguration {

  @ConfigurationProperties(prefix = 'spring.datasource.druid')

  @Bean

  public DataSource dataSource(){

  return new DruidDataSource();

  }

  }

  # 或spring.datasource.url

  spring.datasource.druid.url=jdbc:mysql://localhost:3306/chenrui

  # 或spring.datasource.username

  spring.datasource.druid.username=root

  # 或spring.datasource.password

  spring.datasource.druid.password=root

  #初始化时建立物理连接的个数。初始化发生在显示调用init方法,或者第一次getConnection时

  spring.datasource.druid.initial-size=5

  #最大连接池数量

  spring.datasource.druid.max-active=20

  #最小连接池数量

  spring.datasource.druid.min-idle=5

  #获取连接时最大等待时间,单位毫秒。配置了maxWait之后,缺省启用公平锁,并发效率会有所下降,如果需要可以通过配置useUnfairLock属性为true使用非公平锁

  spring.datasource.druid.max-wait=500

  #是否缓存preparedStatement,也就是PSCache。PSCache对支持游标的数据库性能提升巨大,比如说oracle。在mysql下建议关闭。

  spring.datasource.druid.pool-prepared-statements=false

  #要启用PSCache,必须配置大于0,当大于0时,poolPreparedStatements自动触发修改为true。在Druid中,不会存在Oracle下PSCache占用内存过多的问题,可以把这个数值配置大一些,比如说100

  spring.datasource.druid.max-pool-prepared-statement-per-connection-size=-1

  #用来检测连接是否有效的sql,要求是一个查询语句,常用select 'x'。如果validationQuery为null,testOnBorrow、testOnReturn、testWhileIdle都不会起作用。

  spring.datasource.druid.validation-query=select 'x'

  #单位:秒,检测连接是否有效的超时时间。底层调用jdbc Statement对象的void setQueryTimeout(int seconds)方法

  spring.datasource.druid.validation-query-timeout=1

  #申请连接时执行validationQuery检测连接是否有效,做了这个配置会降低性能。

  spring.datasource.druid.test-on-borrow=true

  #归还连接时执行validationQuery检测连接是否有效,做了这个配置会降低性能。

  spring.datasource.druid.test-on-return=true

  #建议配置为true,不影响性能,并且保证安全性。申请连接的时候检测,如果空闲时间大于timeBetweenEvictionRunsMillis,执行validationQuery检测连接是否有效

  spring.datasource.druid.test-while-idle=true

  #有两个含义:默认1分钟

  #1) Destroy线程会检测连接的间隔时间,如果连接空闲时间大于等于minEvictableIdleTimeMillis则关闭物理连接。

  #2) testWhileIdle的判断依据,详细看testWhileIdle属性的说明

  spring.datasource.druid.time-between-eviction-runs-millis=60000

  # 连接保持空闲而不被驱逐的最小时间

  spring.datasource.druid.min-evictable-idle-time-millis=600000

  # 连接保持空闲而不被驱逐的最大时间

  spring.datasource.druid.max-evictable-idle-time-millis=900000

  #配置多个英文逗号分隔

  spring.datasource.druid.filters=stat,wall

  # WebStatFilter配置

  # 是否启用StatFilter默认值false

  spring.datasource.druid.web-stat-filter.enabled=true

  # 匹配的url

  spring.datasource.druid.web-stat-filter.url-pattern=/*

  # 排除一些不必要的url,比如.js,/jslib/等等

  spring.datasource.druid.web-stat-filter.exclusions=*.js,*.gif,*.jpg,*.bmp,*.png,*.css,*.ico,/druid/*

  # 你可以关闭session统计功能

  spring.datasource.druid.web-stat-filter.session-stat-enable=true

  # 默认sessionStatMaxCount是1000个,你也可以按需要进行配置

  spring.datasource.druid.web-stat-filter.session-stat-max-count=1000

  # 使得druid能够知道当前的session的用户是谁

  spring.datasource.druid.web-stat-filter.principal-session-name=cross

  # 如果你的user信息保存在cookie中,你可以配置principalCookieName,使得druid知道当前的user是谁

  spring.datasource.druid.web-stat-filter.principal-cookie-name=aniu

  # 配置profileEnable能够监控单个url调用的sql列表

  spring.datasource.druid.web-stat-filter.profile-enable=

  # 配置_StatViewServlet配置,用于展示Druid的统计信息

  #是否启用StatViewServlet(监控页面)默认值为false(考虑到安全问题默认并未启动,如需启用建议设置密码或白名单以保障安全)

  spring.datasource.druid.stat-view-servlet.enabled=true

  spring.datasource.druid.stat-view-servlet.url-pattern=/druid/*

  #允许清空统计数据

  spring.datasource.druid.stat-view-servlet.reset-enable=true

  #监控页面登陆的用户名

  spring.datasource.druid.stat-view-servlet.login-username=root

  # 登陆监控页面所需的密码

  spring.datasource.druid.stat-view-servlet.login-password=1234

  # deny优先于allow,如果在deny列表中,就算在allow列表中,也会被拒绝。

  # 如果allow没有配置或者为空,则允许所有访问

  #允许的IP

  # spring.datasource.druid.stat-view-servlet.allow=

  #拒绝的IP

  #spring.datasource.druid.stat-view-servlet.deny=127.0.0.1

  #指定xml文件所在的位置

  mybatis.mapper-locations=classpath:mapper/*Mapper.xml

  #开启数据库字段和类属性的映射支持驼峰

  mybatis.configuration.map-underscore-to-camel-case=true

  create table user_info

  (

  id bigint unsigned auto_increment

  primary key,

  user_id int not null ment '用户id',

  user_name varchar(64) not null ment '真实姓名',

  email varchar(30) not null ment '用户邮箱',

  nick_name varchar(45) null ment '昵称',

  status tinyint not null ment '用户状态,1-正常,2-注销,3-冻结',

  address varchar(128) null

  )

  ment '用户基本信息';

  INSERT INTO chenrui.user_info (id, user_id, user_name, email, nick_name, status, address) VALUES (1, 80001, '张三丰', 'xxx@126.', '三哥', 1, '武当山');

  INSERT INTO chenrui.user_info (id, user_id, user_name, email, nick_name, status, address) VALUES (2, 80002, '张无忌', 'yyy@126.', '', 1, null);

  <?xml version='1.0' encoding='UTF-8'?>

  

  PUBLIC '-//mybatis.org//DTD Mapper 3.0//EN'

  'http://mybatis.org/dtd/mybatis-3-mapper.dtd'>

  

  

  select * from user_info

  

  

  select * from user_info where id = #{id}

  

  

  select * from user_info where id =1

  

  

  select * from user_info where id =2

  

  

  public interface UserInfoDAO {

  List findAllUser();

  UserInfo getUserById(@Param('id') int id);

  UserInfo getUserByIdEqualOne();

  UserInfo getUserByIdEqualTwo();

  }

  @RestController

  @Slf4j

  public class UserInfoController {

  @Resource

  private UserInfoDAO userInfoDAO;

  @GetMapping(path = '/all')

  public List getAllUser(){

  return userInfoDAO.findAllUser();

  }

  @GetMapping(path = '/getUser/{id}')

  public UserInfo getById(@PathVariable int id){

  return userInfoDAO.getUserById(id);

  }

  @GetMapping(path = '/getUser/one')

  public UserInfo getById1(){

  return userInfoDAO.getUserByIdEqualOne();

  }

  @GetMapping(path = '/getUser/two')

  public UserInfo getById2(){

  return userInfoDAO.getUserByIdEqualTwo();

  }

  }

  @SpringBootApplication

  @MapperScan(basePackages = '.example.springdataSourcedruid.dao')

  public class SpringDataSourceDruidApplication {

  public static void main(String[] args) {

  SpringApplication.run(SpringDataSourceDruidApplication.class, args);

  }

  }

  访问:http://127.0.0.1:8080/druid/ ,弹出登陆界面,用户和密码对应我们的配置文件中设置的用户名和密码

  登陆进去可以看到里面有很多监控,这里我们只看我们本次所关心的,数据源,SQL监控,URL监控,其他的可以自行研究。

  上面我们看到数据源里面的信息和我们在application.properties中配置的一致

  下面我们分别执行几次,我们准备好的验证接口

  http://127.0.0.1:8080/all

  http://127.0.0.1:8080/getUser/1

  http://127.0.0.1:8080/getUser/2

  http://127.0.0.1:8080/getUser/one

  http://127.0.0.1:8080/getUser/two

  上面我们看到我们总共四个语句,以及四个语句的运行情况

  SQL监控项上,执行时间、读取行数、更新行数都有区间分布,将耗时分布成8个区间:

  0 - 1 耗时0到1毫秒的次数

  1 - 10 耗时1到10毫秒的次数

  10 - 100 耗时10到100毫秒的次数

  100 - 1,000 耗时100到1000毫秒的次数

  1,000 - 10,000 耗时1到10秒的次数

  10,000 - 100,000 耗时10到100秒的次数

  100,000 - 1,000,000 耗时100到1000秒的次数

  1,000,000 - 耗时1000秒以上的次数

  这里你可能会有疑问 ,id =1和id=2怎么还是分开的,如果我id有一亿个,难道要在监控页面上有一亿条记录吗?不是应该都应该是id=?的形式吗?这里后面会讲到,涉及到sql合并的监控配置

  这里可以很清晰的看到,每个url涉及到的数据库执行的信息

  在druid的jar中,META-INF/druid-filter.properties中有其内置的filter,内容如下:

  druid.filters.default=.alibaba.druid.filter.stat.StatFilter

  druid.filters.stat=.alibaba.druid.filter.stat.StatFilter

  druid.filters.mergeStat=.alibaba.druid.filter.stat.MergeStatFilter

  druid.filters.counter=.alibaba.druid.filter.stat.StatFilter

  druid.filters.encoding=.alibaba.druid.filter.encoding.EncodingConvertFilter

  druid.filters.log4j=.alibaba.druid.filter.logging.Log4jFilter

  druid.filters.log4j2=.alibaba.druid.filter.logging.Log4j2Filter

  druid.filters.slf4j=.alibaba.druid.filter.logging.Slf4jLogFilter

  druid.filters.monlogging=.alibaba.druid.filter.logging.CommonsLogFilter

  druid.filters.monLogging=.alibaba.druid.filter.logging.CommonsLogFilter

  druid.filters.wall=.alibaba.druid.wall.WallFilter

  druid.filters.config=.alibaba.druid.filter.config.ConfigFilter

  druid.filters.haRandomValidator=.alibaba.druid.pool.ha.selector.RandomDataSourceValidateFilter

  default、stat、wall等是filter的别名,可以在application.properties中可以通过spring.datasource.druid.filters属性指定别名来开启相应的filter,也可以在Spring中通过属性注入方式来开启,接下来介绍一下比较常用的filter

  在spring.datasource.druid.filters配置中包含stat,代表开启监控统计信息,在上面内容中,我们已经看到包含执行次数、时间、最慢SQL等信息。也提到因为有的sql是非参数话的,这样会导致在监控页面有很多监控的sql都是一样的,只是参数不一样,我们这时候需要将合同sql配置打开;

  只需要在application.properties增加配置:

  #为监控开启SQL合并,将慢SQL的时间定为2毫秒,记录慢SQL日志

  spring.datasource.druid.connection-properties=druid.stat.mergeSql=true;druid.stat.slowSqlMillis=2;druid.stat.logSlowSql=true

  看一下运行结果:

  1、下面2个语句在监控页面被合并了:

  select * from user_info where id=1

  select * from user_info where id=2

  // 合并后的结果是:

  SELECT * FROM user_info WHERE id = ?

  2、超过2ms的语句,在监控页面红色展示出来

  3、慢SQL在日志中会被体现出来

  继承stat,基本特性和stat是一样的,不做延伸

  由于历史原因,一些数据库保存数据的时候使用了错误编码,需要做编码转换。

  可以用下面的方式开启:

  spring.datasource.druid.filters=stat,encoding

  #配置客户端的编码UTF-8,服务端的编码是ISO-8859-1,这样存在数据库中的乱码查询出来就不是乱码了。

  spring.datasource.druid.connection-properties=druid.stat.mergeSql=true;druid.stat.slowSqlMillis=2;druid.stat.logSlowSql=true;clientEncoding=UTF-8;serverEncoding=ISO-8859-1

  Druid内置提供了四种LogFilter(Log4jFilter、Log4j2Filter、CommonsLogFilter、Slf4jLogFilter),用于输出JDBC执行的日志

  #这里使用log4j2为例

  spring.datasource.druid.filters=stat,log4j2

  #druid.log.conn记录连接、druid.log.stmt记录语句、druid.log.rs记录结果集、druid.log.stmt.executableSql记录可执行的SQL

  spring.datasource.druid.connection-properties=druid.stat.mergeSql=true;druid.stat.slowSqlMillis=2;druid.stat.logSlowSql=true;druid.log.conn=true;druid.log.stmt=true;druid.log.rs=true;druid.log.stmt.executableSql=true

  #为方便验证,我们开启以下loggerName为DEBUG

  logging.level.druid.sql.Statement=DEBUG

  logging.level.druid.sql.ResultSet=DEBUG

  logging.level.druid.sql.Connection=DEBUG

  logging.level.druid.sql.DataSource=DEBUG

  我们可以看到执行SQL的整个过程,开启连接>从连接池获取一个连接>组装SQL语句>执行>结果集返回>连接池回收连接

  这里只用了log4j2这一种类型,其他可以自行去验证。

  WallFilter的功能是防御SQL注入攻击。它是基于SQL语法分析,理解其中的SQL语义,然后做处理的,智能,准确,误报率低。减少风险的发生,wall拦截器还是很重要的。比如说不允许使用truncate,不允许物理删除,这时候wall就用得上了。配置方式有两种:

  spring.datasource.druid.filters=stat,wall,log4j2

  这种配置是默认配置,而且大多数都不会拦截,可能不符合特定的场景,默认属性值参照:https://www.bookstack.cn/read/Druid/ffdd9118e6208531.md

  这种方式的好处是:我们可以针对特定场景进行限定,比如说不能用存储过程,不能物理删除,是否允许语句中有注释等等。

  //在DruidDataSource生成前注入WallFilter

  @ConfigurationProperties(prefix = 'spring.datasource.druid')

  @Bean

  public DataSource dataSource(){

  DruidDataSource dataSource = new DruidDataSource();

  dataSource.getProxyFilters().add(wallFilter());

  return dataSource;

  }

  @Bean

  @ConfigurationProperties('spring.datasource.druid.filter.wall.config')

  public WallConfig wallConfig(){

  return new WallConfig();

  }

  @Bean

  public WallFilter wallFilter(){

  WallFilter filter = new WallFilter();

  filter.setConfig(wallConfig());

  filter.setDbType('mysql');

  return filter;

  }

  #不允许物理删除语句

  spring.datasource.druid.filter.wall.config.delete-allow=false

  执行一下试试效果:

  可以看到日志显示,不允许删除,这样可以避免一些同学不按照公司开发规范来开发代码,减少风险。其他配置自己可以试验一下。

  Config作用:从配置文件中读取配置;从远程http文件中读取配置;为数据库密码提供加密功能

  实际上前两项作用意义不大,最关键的是第三项作用,因为数据库密码直接写在配置中,对运维安全来说,是一个很大的挑战。Druid为此提供一种数据库密码加密的手段ConfigFilter

  如何使用:

  #在application.properties的链接属性配置项中增加config.file,可以是本地文件,也可以是远程文件,比如config.file=http://127.0.0.1/druid-pool.properties

  spring.datasource.druid.connection-properties=config.file=file:///Users/chenrui/druid-pool.properties

  使用下面的命令生成数据库密码的密文和秘钥对

  java -cp druid-1.0.16.jar .alibaba.druid.filter.config.ConfigTools you_password

  spring.datasource.druid.password=kPYuT1e6i6M929mNvKfvhyBx3eCI+Fs0pqA3n7GQYIoo76OaWVg3KALr7EdloivFVBSeF0zo5IGIfpbGtAKa+Q==

  自己启动一下试试,发现一切正常,信息安全问题也解决了。

  网络上有这么一个图,可以看到Druid是和其声明的一致(为监控而生),但是目前市面上有很多监控相关的中间件和技术,HikariCP可以通过这些技术弥补监控方面的不足

  HikariCP则说自己是性能最好的连接池,但是Druid也经受住了阿里双11的大考,实际上性能也是很好的

  选择哪一款就见仁见智了,不过两款都是开源产品,阿里的Druid有中文的开源社区,交流起来更加方便,并且经过阿里多个系统的实验,想必也是非常的稳定,而Hikari是SpringBoot2.0默认的连接池,全世界使用范围也非常广,对于大部分业务来说,使用哪一款都是差不多的,毕竟性能瓶颈一般都不在连接池。大家可根据自己的喜好自由选择

总结

以上是真正的电脑专家为你收集整理的Druid连接池监控(Druid连接池和监控配置)的全部内容,希望文章能够帮你解决所遇到的问题。

如果觉得真正的电脑专家网站内容还不错,欢迎将真正的电脑专家推荐给好友。

你可能想看:
分享给朋友: