c3p0存在严重bug_第1页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、c3p0存在严重bug开发的系统用法了spring jdbctemplate + c3p0组合,在做性能测试的时候浮现了严峻的性能问题。40的并发拜访,开头的时候系统正常,等过了几分钟后,应用程序不能拜访了。停止40并发的压力 后,过1分钟左右又可以正常拜访应用程序了,很迷茫。后台log文件有警告信息: 2011-11-01 13:48:39,378 com.hange.v2.asy.threadpoolahronousrunner:435 -warn com.mchange.v2.async.threadpoolasynchronousrunner$deadlockdetector4ec55

2、71b - apparent deadlock! complete status: num_manag_threads: 10, num_active: 10; activetasks: com.mchange.v2.resourcepool.basicresourcepool$acquiretask79d603 (com.mchange.v2.async.threadpoolasynchronousrunner$poolthread-6), com.mchange.v2.resourcepool.basicresourcepool$acquiretask68719f81 (com.mchan

3、ge.v2.async.threadpoolasynchronousrunner$poolthread-9), com.mchange.v2.resourcepool.basicresourcepool$acquiretask7b9f03b8 (com.mchange.v2.async.threadpoolasynchronousrunner$poolthread-7), 把c3p0换为dbcp后,系统可以正常举行性能测试,拜访正常,判定c3p0存在bug。 上网查找资料,发觉无数人也碰到了 apparent deadlock 的问题 /vi

4、ewtopic.?f=1 t=947246 s=ad2b8cc3213c9dac834d81b55bbf6291 没有找到解决答案,但是基本了解了c3p0的运行原理。c3p0在从衔接池中猎取和返回衔接的时候,采纳了异步的处理方式,用法一个线程池来异步的 把返回关闭了(没有真正关闭)的衔接放入衔接池中。这样就意味着,我们在调用了从c3p0获得的衔接的close办法时,不是立刻放回池中的,而是放入一 个大事队列中等待c3p0内部的线程池挨次的处理。 c3p0中有2个参数和内部的衔接池有关,分离是: 其含义的官方描述在: 其中通过查看c3p0的源码,可以看出那些功能是需要内部线程池处理的: expa

5、ndpool - 在扩大池中衔接的时候,如管理的衔接从20扩大到40个 shrinkpool - 在缩小衔接池的时候,这个过程需要真正关闭一些衔接 docheckinmanaged - 把衔接返回给衔接池 checkidleresources - 定时检查池中的衔接 碰到上面的 apparent deadlock 警告就是因为c3p0内部线程池的全部线程都被挂起而造成的,因此官方文档说把认真查看log日志,会发觉都是那些任务占领了珍贵的线程: com.mchange.v2.async.threadpoolasynchronousrunner:435-warn com.mchange.v2.as

6、ync.threadpoolasynchronousrunner$deadlockdetector4ec5571b - apparent deadlock! complete status: num_managed_threads: 10, num_active: 10; activetasks: com.mchange.v2.resourcepool.basicresourcepool$acquiretask7dd9d603 (com.mchange.v2.async.threadpoolasynchronousrunner$poolthread-6), com.mchange.v2.res

7、ourcepool.basicresourcepool$acquiretask68719f81 (com.mchange.v2.async.threadpoolasynchronousrunner$poolthread-9), com.mchange.v2.resourcepool.basicresourcepool$acquiretask7b9f03b8 (com.mchange.v2.async.threadpoolasynchronousrunner$poolthread-7), com.mchange.v2.resourcepool.basicresourcepool$acquiret

8、ask4ad6470 (com.mchange.v2.async.threadpoolasynchronousrunner$poolthread-4), com.mchange.v2.resourcepool.basicresourcepool$acquiretask139cf776 (com.mchange.v2.async.threadpoolasynchronousrunner$poolthread-0), com.mchange.v2.resourcepool.basicresourcepool$acquiretask263a6e09 (com.mchange.v2.async.thr

9、eadpoolasynchronousrunner$poolthread-2), com.mchange.v2.resourcepool.basicresourcepool$acquiretask460e247a (com.mchange.v2.async.threadpoolasynchronousrunner$poolthread-3), com.mchange.v2.resourcepool.basicresourcepool$acquiretask4a7ce984 (com.mchange.v2.async.threadpoolasynchronousrunner$poolthread

10、-1), com.mchange.v2.resourcepool.basicresourcepool$acquiretask4ec6ff50 (com.mchange.v2.async.threadpoolasynchronousrunner$poolthread-5), com.mchange.v2.resourcepool.basicresourcepool$acquiretask6aa40597 (com.mchange.v2.async.threadpoolasynchronousrunner$poolthread-8); pendingtasks: com.mchange.v2.re

11、sourcepool.basicresourcepool$6366b3333, com.mchange.v2.resourcepool.basicresourcepool$acquiretask37ee752e, com.mchange.v2.resourcepool.basicresourcepool$acquiretask84f3bb2, com.mchange.v2.resourcepool.basicresourcepool$69d82761, com.mchange.v2.resourcepool.basicresourcepool$acquiretask4e015653, com.mchange.v2.resourcepool.basicresourcepool$acquiretask39ca8b27, com.mchange.v2.resourcepool.basicresourcepool$62075cb15, com.mchange.v2.resourcepool.basicresourcepool$acquiretask1567e059, com.mchange.v2.resourcepool.basicresourcepool$656b9fe09, 可以看到acquiretask

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论