Plumelog一个简单易用的java分布式日志组件
mhr18 2024-12-01 09:11 18 浏览 0 评论
一.系统介绍
- 无入侵的互联网分布式日志系统,基于log4j、log4j2、logback搜集日志,设置链路ID,方便查询关联日志
- 基于elasticsearch作为查询引擎
- 高吞吐,查询效率高
- 全程不占应用程序本地磁盘空间,免维护;对于项目透明,不影响项目本身运行
- 无需修改老项目,引入直接使用,支持dubbo,支持springcloud
二.架构
- plumelog-core 核心组件包含日志搜集端,负责搜集日志并推送到kafka,redis等队列
- plumelog-server 负责把队列中的日志日志异步写入到elasticsearch
- plumelog-ui 前端展示,日志查询界面
- plumelog-demo 基于springboot的使用案例
三.使用方法
前提:kafka或者redis 和 elasticsearch(版本6.8以上最好) 自行安装完毕,版本兼容已经做了,理论不用考虑ES版本
- 打包
- maven deploy -DskipTests 上传包到自己的私服私服地址到plumelog/pom.xml改
<properties>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
<distribution.repository.url>http://172.16.249.94:4000</distribution.repository.url>
</properties>
(1)安装
1.安装 redis 或者 kafka(一般公司redis足够) redis 官网:https://redis.io kafka:http://kafka.apache.org
2.安装 elasticsearch(推荐6.8) 6.8官网下载地址:https://www.elastic.co/cn/downloads/past-releases/elasticsearch-6-8-10
3.下载安装包,plumelog-ui和plumelog-server 下载地址:https://gitee.com/frankchenlong/plumelog/releases
备注:3.1版本以后UI和server合并,plumelog-ui这个项目可以不用部署
4.配置plumelog-server,并启动
配置文件 plumelog-server/application.properties 详解:
spring.application.name=plumelog_server
server.port=8891
spring.thymeleaf.mode=LEGACYHTML5
spring.mvc.view.prefix=classpath:/templates/
spring.mvc.view.suffix=.html
spring.mvc.static-path-pattern=/plumelog/**
#值为4种 redis,kafka,rest,restServer
#redis 表示用redis当队列
#kafka 表示用kafka当队列
#rest 表示从rest接口取日志
#restServer 表示作为rest接口服务器启动
#ui 表示单独作为ui启动
plumelog.model=redis
#如果使用kafka,启用下面配置
#plumelog.kafka.kafkaHosts=127.0.0.1:9092,127.0.0.1:9092,127.0.0.1:9092
#plumelog.kafka.kafkaGroupName=logConsumer
#redis配置,3.0版本必须配置redis地址,因为需要监控报警
plumelog.redis.redisHost=127.0.0.1:6379
#如果使用redis有密码,启用下面配置
plumelog.redis.redisPassWord=!jkl1234
#如果使用rest,启用下面配置
#plumelog.rest.restUrl=http://127.0.0.1:8891/getlog
#plumelog.rest.restUserName=plumelog
#plumelog.rest.restPassWord=123456
#elasticsearch相关配置
plumelog.es.esHosts=127.0.0.1:9200
#ES7.*已经去除了索引type字段,所以如果是es7不用配置这个,7.*以下不配置这个会报错
#plumelog.es.indexType=plumelog
#ES设置密码,启用下面配置
plumelog.es.userName=elastic
plumelog.es.passWord=123456
#单次拉取日志条数
plumelog.maxSendSize=5000
#拉取时间间隔,kafka不生效
plumelog.interval=1000
#plumelog-ui的地址 如果不配置,报警信息里不可以点连接
plumelog.ui.url=http://127.0.0.1:8080
#管理密码,手动删除日志的时候需要输入的密码
admin.password=123456
#日志保留天数,配置0或者不配置默认永久保留
admin.log.keepDays=15
5.配置plume-ui(3.1后合并到server),并启动,默认端口8989
备注:3.1版本以后UI和server合并,这个项目可以不用部署
配置文件 plumelog-ui/application.properties 详解:
spring.application.name=plumelog-ui
server.port=8989
spring.thymeleaf.mode=LEGACYHTML5
spring.mvc.view.prefix=classpath:/templates/
spring.mvc.view.suffix=.html
spring.mvc.static-path-pattern=/plumelog/**
#elasticsearch地址
plumelog.es.esHosts=127.0.0.1:9200
#ES如果有密码,启用下面配置
#plumelog.es.userName=elastic
#plumelog.es.passWord=easylog123456
#redis配置,3.0版本必须配置redis地址,因为需要监控报警
plumelog.server.redis.redisHost=127.0.0.1:6379
#如果使用redis有密码,启用下面配置
#plumelog.server.redis.redisPassWord=123456
#管理密码,手动删除日志的时候需要输入的密码
admin.password=123456
#日志保留天数,配置0或者不配置默认永久保留
admin.log.keepDays=15
(2)项目使用
性能排名,log4j2>logback>log4j 如果您的项目没有特殊需求,建议用log4j2
(1)如果项目使用的log4j,引入
<dependency>
<groupId>com.plumelog</groupId>
<artifactId>plumelog-log4j</artifactId>
<version>3.1</version>
</dependency>
配置log4j配置文件,增加下面这个Appender
log4j.rootLogger = INFO,stdout,L
log4j.appender.stdout = org.apache.log4j.ConsoleAppender
log4j.appender.stdout.Target = System.out
log4j.appender.stdout.layout = org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern = [%-5p] %d{yyyy-MM-dd HH:mm:ss,SSS} [%c.%t]%n%m%n
#kafka做为中间件
#<!-- 字段说明 -->
#<!-- appName:应用名称 -->
#<!-- kafkaHosts:kafka集群地址 -->
#<!-- runModel:runModel 1,2 1表示最高性能模式,2表示低性能模式 但是2可以获取更多信息 不配置默认为1-->
log4j.appender.L=com.plumelog.core.appender.KafkaAppender
#appName系统的名称(自己定义就好)
log4j.appender.L.appName=plumelog
log4j.appender.L.kafkaHosts=172.16.247.143:9092,172.16.247.60:9092,172.16.247.64:9092
#redis做为中间件
#字段说明
#<!-- appName:应用名称 -->
#<!-- redisHost:redis地址 -->
#<!-- redisPort:redis端口号 不配置,默认使用6379-->
#<!-- runModel:runModel 1,2 1表示最高性能模式,2表示低性能模式 但是2可以获取更多信息 不配置默认为1- -->
log4j.appender.L=com.plumelog.log4j.appender.RedisAppender
log4j.appender.L.appName=plumelog
log4j.appender.L.redisHost=172.16.249.72
log4j.appender.L.redisPort=6379
#redis没有密码这一项为空或者不需要
#log4j.appender.L.redisAuth=123456
同理如果使用logback,和log4j2配置如下
logback
- 引入
<dependency>
<groupId>com.plumelog</groupId>
<artifactId>plumelog-logback</artifactId>
<version>3.1</version>
</dependency>
- 配置
<appenders>
<!--使用redis启用下面配置-->
<!-- 字段说明 -->
<!-- appName:应用名称 -->
<!-- redisHost:redis地址 -->
<!-- redisPort:redis端口号 不配置,默认使用6379-->
<!-- runModel:runModel 1,2 1表示最高性能模式,2表示低性能模式 但是2可以获取更多信息 不配置默认为1- -->
<!-- expand:整合其他链路插件,启用这个字段 expand=“sleuth” 表示整合springcloud.sleuth- -->
<appender name="plumelog" class="com.plumelog.logback.appender.RedisAppender">
<appName>plumelog</appName>
<redisHost>172.16.249.72</redisHost>
<redisAuth>123456</redisAuth>
<redisPort>6379</redisPort>
</appender>
<!-- 使用kafka启用下面配置 -->
<!-- 字段说明 -->
<!-- appName:应用名称 -->
<!-- kafkaHosts:kafka集群地址 -->
<!-- runModel:runModel 1,2 1表示最高性能模式,2表示低性能模式 但是2可以获取更多信息 不配置默认为1- -->
<!-- expand:整合其他链路插件,启用下面配置 sleuth表示整合springcloud.sleuth- -->
<appender name="plumelog" class="com.plumelog.logback.appender.KafkaAppender">
<appName>plumelog</appName>
<kafkaHosts>172.16.247.143:9092,172.16.247.60:9092,172.16.247.64:9092</kafkaHosts>
</appender>
</appenders>
<!-- 上面两个配置二选一 -->
<!-- 日志输出级别 -->
<root level="INFO">
<appender-ref ref="plumelog" />
</root>
log4j2
- 引入
<dependency>
<groupId>com.plumelog</groupId>
<artifactId>plumelog-log4j2</artifactId>
<version>3.1</version>
</dependency>
- 配置
<appenders>
<!-- 使用kafka启用下面配置 -->
<!-- 字段说明 -->
<!-- appName:应用名称 -->
<!-- kafkaHosts:kafka集群地址 -->
<!-- runModel:runModel 1,2 1表示最高性能模式,2表示低性能模式 但是2可以获取更多信息 不配置默认为1- -->
<!-- expand:整合其他链路插件,启用下面配置 sleuth表示整合springcloud.sleuth- -->
<KafkaAppender name="kafkaAppender" appName="plumelog" kafkaHosts="172.16.247.143:9092,172.16.247.60:9092,172.16.247.64:9092" >
<PatternLayout pattern="%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] [%-5p] {%F:%L} - %m%n" />
</KafkaAppender>
<!--使用redis启用下面配置-->
<!-- 字段说明 -->
<!-- appName:应用名称 -->
<!-- redisHost:redis地址 -->
<!-- redisPort:redis端口号 不配置,默认使用6379-->
<!-- runModel:runModel 1,2 1表示最高性能模式,2表示低性能模式 但是2可以获取更多信息 不配置默认为1- -->
<!-- expand:整合其他链路插件,启用这个字段 expand=“sleuth” 表示整合springcloud.sleuth- -->
<RedisAppender name="redisAppender" appName="plumelog" redisHost="172.16.249.72" redisPort="6379" redisAuth="123456">
<PatternLayout pattern="%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] [%-5p] {%F:%L} - %m%n" />
</RedisAppender>
</appenders>
<!-- 上面两个配置二选一 -->
<loggers>
<root level="INFO">
<appender-ref ref="redisAppender"/>
</root>
</loggers>
(3)示例(所有的列子都在plumelog-demo里面)
配置详解
RedisAppender
字段值用途appName自定义应用名称redisHostredis地址redisPortredis端口号runModel1表示最高性能模式,2表示低性能模式 但是2可以获取更多信息 不配置默认为1expand整合其他链路插件,启用这个字段 expand=“sleuth” 表示整合springcloud.sleuthmaxCount批量提交日志数量,默认100
KafkaAppender
字段值用途appName自定义应用名称kafkaHostskafka集群地址,用逗号隔开runModel1表示最高性能模式,2表示低性能模式 但是2可以获取更多信息 不配置默认为1expand整合其他链路插件,启用这个字段 expand=“sleuth” 表示整合springcloud.sleuthmaxCount批量提交日志数量,默认100
- 普通日志使用要想产生traceID,需要再拦截器里增加,如下:(也可以加载过滤器里,如果是定时任务放在定时任务的最前端)
@Component
public class Interceptor extends HandlerInterceptorAdapter{
private IdWorker worker = new IdWorker(1,1,1);//雪花算法,这边不一定要用这个生成如果用这个,不通的项目应用参数不要一样,否则会重复
@Override
public boolean preHandle(HttpServletRequest request, HttpServletResponse response, Object handler) throws Exception {
TraceId.logTraceID.set(String.valueOf(worker.nextId()));//设置TraceID值,不埋此点链路ID就没有
return true;
}
}
spring cloud 项目引入sleuth
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>
- TraceId跨线程传递如果不使用线程池,不用特殊处理,如果使用线程池,有两种使用方式,(plumelog-demo也有)修饰线程池
private static ExecutorService executorService = TtlExecutors.getTtlExecutorService(
new ThreadPoolExecutor(8, 8,0L, TimeUnit.MILLISECONDS,new LinkedBlockingQueue<Runnable>()));
//省去每次Runnable和Callable传入线程池时的修饰,这个逻辑可以在线程池中完成
executorService.execute(() -> {
logger.info("子线程日志展示");
});
- 错误报警说明在ui的报警管理里配置报警规则:字段说明:1.应用名称 需要错误报警的应用名称(appName)2.模块名称 需要错误报警的className3.接收人 填手机号码,所有人填写ALL4.钉钉钩子地址 钉钉群机器人webhook地址5.错误数量 错误累计超过多少条报警6.时间间隔 错误在多少秒内累计到上面错误数量开始报警报警记录里为报警历史记录,点击可以直接连接到错误内容修饰Runnable和Callable
private static ThreadPoolExecutor threadPoolExecutor= ThreadPoolUtil.getPool(4, 8, 5000);
threadPoolExecutor.execute(TtlRunnable.get(() -> {
TraceId.logTraceID.get();
logger.info("tankSay =》我是子线程的日志!{}", TraceId.logTraceID.get());
}));
相关推荐
- Spring Boot 分布式事务实现简单得超乎想象
-
环境:SpringBoot2.7.18+Atomikos4.x+MySQL5.71.简介关于什么是分布式事务,本文不做介绍。有需要了解的自行查找相关的资料。本篇文章将基于SpringBoot...
- Qt编写可视化大屏电子看板系统15-曲线面积图
-
##一、前言曲线面积图其实就是在曲线图上增加了颜色填充,单纯的曲线可能就只有线条以及数据点,面积图则需要从坐标轴的左下角和右下角联合曲线形成完整的封闭区域路径,然后对这个路径进行颜色填充,为了更美观...
- Doris大数据AI可视化管理工具SelectDB Studio重磅发布!
-
一、初识SelectDBStudioSelectDBStudio是专为ApacheDoris湖仓一体典型场景实战及其兼容数据库量身打造的GUI工具,简化数据开发与管理。二、Select...
- RAD Studio 、Delphi或C++Builder设计代码编译上线缩短开发时间
-
#春日生活打卡季#本月,Embarcadero宣布RADStudio12.3Athens以及Delphi12.3和C++Builder12.3,提供下载。RADStudio12.3A...
- Mybatis Plus框架学习指南-第三节内容
-
自动填充字段基本概念MyBatis-Plus提供了一个便捷的自动填充功能,用于在插入或更新数据时自动填充某些字段,如创建时间、更新时间等。原理自动填充功能通过实现com.baomidou.myba...
- 「数据库」Sysbench 数据库压力测试工具
-
sysbench是一个开源的、模块化的、跨平台的多线程性能测试工具,可以用来进行CPU、内存、磁盘I/O、线程、数据库的性能测试。目前支持的数据库有MySQL、Oracle和PostgreSQL。以...
- 如何选择适合公司的ERP(选erp系统的经验之谈)
-
很多中小公司想搞ERP,但不得要领。上ERP的目的都是歪的,如提高效率,减少人员,堵住财务漏洞等等。真正用ERP的目的是借机提升企业管理能力,找出管理上的问题并解决,使企业管理更规范以及标准化。上ER...
- Manus放开注册,但Flowith才是Agent领域真正的yyds
-
大家好,我是运营黑客。前天,AIAgent领域的当红炸子鸡—Manus宣布全面放开注册,终于,不需要邀请码就能体验了。于是,赶紧找了个小号去确认一下。然后,额……就被墙在了外面。官方解释:中文版...
- 歌浓酒庄总酿酒师:我们有最好的葡萄园和最棒的酿酒师
-
中新网1月23日电1月18日,张裕董事长周洪江及总经理孙健一行在澳大利亚阿德莱德,完成了歌浓酒庄股权交割签约仪式,这也意味着张裕全球布局基本成型。歌浓:澳大利亚年度最佳酒庄据悉,此次张裕收购的...
- 软件测试进阶之自动化测试——python+appium实例
-
扼要:1、了解python+appium进行APP的自动化测试实例;2、能根据实例进行实训操作;本课程主要讲述用python+appium对APP进行UI自动化测试的例子。appium支持Androi...
- 为什么说Python是最伟大的语言?看图就知道了
-
来源:麦叔编程作者:麦叔测试一下你的分析能力,直接上图,自己判断一下为什么Python是最好的语言?1.有图有真相Java之父-JamesGoshlingC++之父-BjarneStrou...
- 如何在Eclipse中配置Python开发环境?
-
Eclipse是著名的跨平台集成开发环境(IDE),最初主要用来Java语言开发。但是我们通过安装不同的插件Eclipse可以支持不同的计算机语言。比如说,我们可以通过安装PyDev插件,使Eclip...
- 联合国岗位上新啦(联合国的岗位)
-
联合国人权事务高级专员办事处PostingTitleIntern-HumanRightsDutyStationBANGKOKDeadlineOct7,2025CategoryandL...
- 一周安全漫谈丨工信部:拟定超1亿条一般数据泄露属后果严重情节
-
工信部:拟定超1亿条一般数据泄露属后果严重情节11月23日,工信部官网公布《工业和信息化领域数据安全行政处罚裁量指引(试行)(征求意见稿)》。《裁量指引》征求意见稿明确了行政处罚由违法行为发生地管辖、...
- oracle列转行以及C#执行语句时报错问题
-
oracle列转行的关键字:UNPIVOT,经常查到的怎么样转一列,多列怎么转呢,直接上代码(sshwomeyourcode):SELECTsee_no,diag_no,diag_code,...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- oracle位图索引 (74)
- oracle批量插入数据 (65)
- oracle事务隔离级别 (59)
- oracle 空为0 (51)
- oracle主从同步 (56)
- oracle 乐观锁 (53)
- redis 命令 (78)
- php redis (88)
- redis 存储 (66)
- redis 锁 (69)
- 启动 redis (66)
- redis 时间 (56)
- redis 删除 (67)
- redis内存 (57)
- redis并发 (52)
- redis 主从 (69)
- redis 订阅 (51)
- redis 登录 (54)
- redis 面试 (58)
- 阿里 redis (59)
- redis 搭建 (53)
- redis的缓存 (55)
- lua redis (58)
- redis 连接池 (61)
- redis 限流 (51)