生产环境 SpringBoot Tomcat 线程卡住
生产环境使用 JDK8+SpringBoot2.x+SpringBoot 内嵌 tomcat9.x,
在 K8s Docker 环境部署,最近时有偶发的对方发起 HTTP 请求,这边隔了 2-10s 才会处理请求,网络抓包发现握手和响应请求报文 ACK 都很快,但是链路上看 Servlet 就是间隔了 2-10s 才进行处理
看了下当时的并发、资源情况和 GC 都很正常,由于是偶发的,本地也无法复现,所以想咨询各位大佬
这种偶发的阻塞还有可能是其他什么原因引起的,可以从哪方面进行排查?
是否有工具或者方法检测监控这种问题?
iptables 规则太多了?
感觉是 k8s 的问题,我们相同版本的 jdk + springboot 。 但是没有用 k8s , 直接用的阿里云的 ecs, 没出现过这种问题。
服务端负载很高吗?把抓包文件或者截图放上来看看
哥们怎么哪都有你 老摸鱼怪呀
线程数满了?
看是不是 swap 了
最近时有偶发的对方发起 HTTP 请求,这边隔了 2-10s 才会处理请求想问一下这里的隔了 2-10s 才会处理请求是通过什么方式确认的?是查看具体的 tomcat http 线程任务打印的日志么?此外,能不能发一下 tomcat http 线程的配置以及实际的线程信息
极大概率是 DNS 解析导致的(遇到过走 ipv6 解析,5s timeout 后回落到 ipv4)。从请求发送端看看,尤其是用了 alpine 镜像的服务容器
同意楼上的说法,之前我们也有个内网的服务器登录时耗时 10S+其他接口都没问题。最后排查原因是 InetAddress.getLocalHost().getHostName() 的问题。参考: stackoverflow.com/questions/33289695/inetaddress-getlocalhost-slow-to-run-30-seconds
加日志 逐步排查 提供个思路增加请求 traceid 把请求日志串联起来,并返回给调用方调用方给出耗时高的 traceid你这边捞日志看耗时在哪里,当然最好是能接入 apm 系统,可以更直观看到耗时在哪
看看是不是有人在接口里写了一句 thread.sleep
想办法抓个火焰图看看
尽量别用 alpine 镜像
#7 链路 trace 的 servet#service 方法以及过滤器打印的请求日志,这两个时间差不多, 并发不高,tomcat 线程没有满
#8 走的注册中心,直接拿 IP 访问的,不用 DNS 解析了吧
#9 走的注册中心,直接拿 IP 访问的,不用 DNS 解析了吧
#10 已经有 trace 了,但是只 trace 到 servet#service 这层,前面 tomcat nio 那一层暂时 trace 不到
#13 用的麒麟
#3 负载并发不高
stackoverflow.com/questions/9882357/how-to-set-java-net-preferipv4stack-true-at-runtime stackoverflow.com/questions/58991966/what-java-security-egd-option-is-for我猜可能和这两个有关系,可以试一下;可以用 arthas trace 一下调用链路,看看耗时在哪儿
自从四年前被CSDN采访后(“职业规化就像软件工程”),经常会有网友(尤其是刚毕业的)写邮件来问我一些程序员职业生涯的一些问题,至到今天。比如,国企还是外企的选择,一直编程有没…
接集团预警通报 2022 年第 13 号:监测发现,Java 开发组件 fastjson 存在反序列化漏洞。fastjson 被众多 java 软件作为组件集成,广泛存在于 j…
从1980年到现在,我们的科技到底进步了多少:) 下面这个图说明了1980年大机的1GB的内存和2009年的1GB的内存。 转载于酷壳CoolShell 无删改 仅以此纪念陈…