:案例:电子商务数据挖掘改_第1页
:案例:电子商务数据挖掘改_第2页
:案例:电子商务数据挖掘改_第3页
:案例:电子商务数据挖掘改_第4页
:案例:电子商务数据挖掘改_第5页
已阅读5页,还剩95页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

数据挖掘技术与应用第九章电子商务与数据挖掘

------基于WEB日志的用户访问模式挖掘联系电话Q:26653926E-mail:treeroot126@126.com案例:电子商务网站公共页面该放哪些内容最可能产生购买行为?圣地亚哥的P通过采用HitBox,即WebSideStory的数据挖掘ASP服务,使企业的计划者在业务高峰日也能够对销售情况做出迅速反应。由于鲜花极易枯萎,Proflowers不得不均匀地削减库存,否则可能导致一种商品过快地售罄或库存鲜花的凋谢。由于日交易量较高,管理人员需要对零售情况进行分析,比如转换率,也就是多少页面浏览量将导致销售产生。举例来说,如果100人中仅有5人看到玫瑰时就会购买,而盆景的转换率则为100比20,那么不是页面设计有问题,就是玫瑰的价格有问题。公司能够迅速对网站进行调整,比如在每个页面上都展示玫瑰或降低玫瑰的价格。对于可能过快售罄的商品,公司通常不得不在网页中弱化该商品或取消优惠价格,从而设法减缓该商品的销售。采用HitBox的优势在于借助便于阅读的显示器来展现销售数据和转换率。Proflowers营销副总裁Chrisd'Eon说:"自己分析数据是浪费时间。我们需要一种浏览数据的方式,能够让我们即刻采取行动。"第九章:电子商务与数据挖掘——基于WEB日志的用户访问模式挖掘9.1电子商务与数据挖掘9.2数据预处理9.3模式挖掘9.1电子商务与数据挖掘在电子商务中进行成功的数据挖掘得益于:电子商务提供海量的数据丰富的记录信息干净的数据研究成果容易转化投资收益容易衡量一、电子商务为数据挖掘提供海量数据“点击流”(Clickstreams)将会产生电子商务挖掘的大量数据Yahoo!在2000年每天被访问的页面数是10亿,如此大的访问量将会产生巨大的Web日志(记载页面访问的情况),每个小时产生的Web日志量就达到10GB!一、电子商务为数据挖掘提供海量数据即便是一个小的电子商务站点,也会在短时间内产生进行数据挖掘所需的大量数据计算一下,如果你的站点一个小时卖出5件物品,一个月会有多少页面访问:5件×24小时×30天/%2(转化率,表示访问的人中买东西的人的比率)×9页面(平均买一件物品要访问9个页面)=1,600,000页面二、丰富的记录信息如果你的电子商务站点设计的好,你将可以获得各种商务的或者是用户访问的信息:商品和商品的属性商品的归类信息(当同时展示多种商品时,归类信息是非常有用的)促销信息关于访问的信息(比如:访问计数)关于客户额信息(可以通过登陆/注册来获得)三、“干净的数据”信息直接从网站上提取无需从历史系统中集成,避免很多错误可以通过良好的站点设计,直接获得跟数据挖掘有关的数据而不是再来分析、计算、预处理要用的数据直接收集的电子数据——可靠无需人工数据输入,避免了很多错误可以通过良好的站点设计,良好的控制数据采样的颗粒度颗粒度控制在客户级别或者是session级别,而不是页面级别四、研究成果容易转化历史上的数据挖掘研究有过许多的知识发现,但是这些知识发现却很少在实际的商业应用中产生什么效果要应用这些发现的知识可能意味着要进行复杂的系统更改、流程更改或是改变人们的办事习惯,这在现实中是非常困难的。在电子商务中,很多知识发现都可以进行直接应用改变站点的设计(改变布局,进行个性化设计等)开始有目标的促销根据对广告效果的统计数据改变广告策略可以很容易的提供捆绑销售五、投资收益容易衡量使用数据挖掘成果的革新带来的收益如何衡量?在传统的商业中衡量投资收益需要长期的测量和观察,PacoUnderhill在《购物的科学》一书中提及,一个超市为了衡量他们的促销策略带来的投资收益,每年要花14,000个小时查看录像带。在电子商务中,衡量革新的投资收益是非常容易的销售变化的报表可以自动产生客户对电子邮件和电子调查的反馈都可以在几天内得到,而不必等个几个月电子商务乃至整个互联网都是传统商业的理想试验室。9.1.2基于电子商务网站的数据挖掘通常在一个电子商务网站上应用的数据挖掘技术是Web数据挖掘。可以在一个电子商务网站挖掘些什么东西?内容挖掘(WebContentMining)结构挖掘(WebStructureMining)使用挖掘(WebUsageMining)一、WebContentMining对Web页面内容进行挖掘,从Web数据中发现信息。自动地从数以百万计的Web站点和在线数据库中搜索和获取信息和资料;尽管人们可以直接从网上通过抓取建立索引,实现检索服务来获得资源,但是大量的“隐藏”信息只能通过内容挖掘来自动挖掘。二、WebStructureMiningWebStructureMining是对Web页面之间的结构进行挖掘。在整个Web空间,有用的知识不仅包含在页面的内容中,而且也包含在页面的结构中。Web结构挖掘主要针对的就是页面的超链接结构,如果有较多的超链接指向它,那么该页面就是重要的,发现的这种知识可用来改进搜索路径等。三、WebUsageMining与WebContentMining和WebStructureMining不同的是,WebUsageMining的挖掘对象是用户和网络交互过程中抽取出来的二手数据,这些数据主要是用户在访问Web时在Web日志里留下的信息,以及其它一些交互信息,web日志日志信息包括访问日期、时间、用户IP地址、服务器IP地址、方法、所请求URL资源、服务器响应状态、用户代理、发送字节等。WebUsageMining就是对系统日志信息,以及用户的注册数据等进行挖掘,以发现有用的模式和知识。WebUsageMining的作用通过对电子商务网站应用WebUsageMining数据挖掘技术,可以提高站点的质量改善WEB缓存,缓解网络交通,提高性能在电子商务中还可捕捉到大量的采购过程的细节,为更加深入的分析提供了可能进行WebUsageMining主要是通过对系统日志信息的数据挖掘Web服务器日志ErrorLogsCookiesWebUsageMining的基本实现过程预处理模式发现模式分析WEB日志挖掘过程Web用户访问日志主要来源于Web服务器、Web代理服务器和客户端。这3处日志数据集记录了用户使用网络资源的不同模式。Web服务器端日志数据记录了多个Web用户对单个站点的访问行为;Web代理服务器日志数据记录了多个Web用户向多个Web服务器的请求;客户端日志数据记录了单个用户访问多个Web服务器的模式。Web用户访问日志分布及特点:9.1.3Web日志其中前两者数据的收集是由服务器自动记录的,而客户端日志数据则需要专门的程序收集,如客户端的代理软件或者使用修改过的浏览器。相对而言,服务器端日志格式标准化程度最高。常用的是Web服务器端日志W3C组织规定了服务器日志的两种格式:

通用日志格式和扩展型日志格式。重庆大学主页重庆大学Web服务器上记录的一条完整的日志项。202.202.3.4———[06/12/2004:17:51:33+0800]

“GET/images/index_bg_15.gifHTTP/1.1”3040“http://www.cqu.edu.cn/”“Mozilla/4.0(compatible;MSIE6.0;WindowsNT5.0)”。第1部分包含有关访问服务器主机的信息,从第1条记录可知,发出请求的主机的IP地址为202.202.3.4。第2部分指明了访问的日期和时间。这次访问发生在2004年12月6日17:51:33,+0800说明重大的Web服务器位于第8时区。第3部分是该主机发出的请求浏览网页的指令内容,包括请求方式、请求的页面(URL)和采用的协议,指出服务器收到的是一个什么样的请求。该项信息的典型格式是“METHODRESOURCEPROTOCOL”,在上面的示例中:“GET/images/index_bg_15.gifHTTP/1.1”METHOD请求方式一般有3种,即GET、POST和HEAD。

GET指从Web服务器请求了一个对象;POST表示向服务器发送信息;HEAD指只取一个对象的头。

RESOURCE是指浏览者向服务器请求的文档,或URLPROTOCOL通常是HTTP,后面再加上版本号。这条记录显示访问的类型是“GET”行为,被访问的内容是位于/images/目录下的一个图片文件index_bg_15.gif,所用的协议是HTTP/1.1

第4部分为服务器执行该请求的结果状态信息和请求网页的字节数。200表示请求成功,304表示网页内容没有改变,404是最常见的错误信息,它表示请求的文件没有找到。第5部分为用户访问网站的主页URL地址。记录显示的都是http://www.cqu.edu.cn/。第6部分为用户使用的浏览器以及操作系统的版本。该记录显示,使用的浏览器是Mozilla/4.0,操作系统版本为WindowsNT5.0。3040“http://www.cqu.edu.cn/”“Mozilla/4.0(compatible;MSIE6.0;WindowsNT5.0)”。主机名

Time

Request,e.g.,一个网页的URL

Referrer

Useragent(浏览器及版本号)

IP地址

Cookie

字节数

状态位

等等...

扩展日志格式(ECLF):附:Web日志其它一些实例--[01/Aug/1995:00:01:38-0400]"GET/shuttle/missions/sts-71/images/images.htmlHTTP/1.0"20085295--[01/Aug/1995:00:01:39-0400]"GET/shuttle/missions/sts-72/mission-sts-72.htmlHTTP/1.0"200380480--[01/Aug/1995:00:01:48-0400]"GET/persons/nasa-cm/jmd.htmlHTTP/1.0"20040679.2数据预处理

通过预处理,使挖掘过程更有效、更容易数据净化:其目的在于把日志文件中一些与数据分析、挖掘无关的项清除掉;比如剔除用户请求方法中不是GET的记录;用户识别:日志文件只是记录了主机或代理服务器的IP地址,要识别用户,需要Cookie技术和用一些启发规则来帮助识别;路径补充:确认Web日志中是否有重要的页面访问记录被遗漏;事件识别:事件识别是与要挖掘什么样的知识有关,将用户会话针对挖掘活动的特定需要进行事件定义。数据预处理的功能数据净化是指删除Web服务器日志中与挖掘算法无关的数据,一般来说只有日志中HTML文件与用户会话相关。Web日志文件的目的是获得用户的行为模式,通过检查URL的后缀,删除认为不相关的数据。例如:将日志中文件的后缀名为GIF、JPEG、JPG等的图形文件删除。将后缀名为CGI的脚本文件删除。具体到实际的系统就使用一个缺省的后缀名列表帮助删除文件。列表可以根据正在分析的站点类型进行修改。过滤非法请求的页面:有些网站的页面用户在提出请求,Web服务器拒绝该页面的请求,那么应该过滤掉非法请求的页面,仅仅只对正常的页面进行数据处理是很有价值的。一、数据净化对于数据净化之后的数据,使用基于日志/站点的方法,同时辅助一些启发式规则,可以识别出每个访问网站的用户,该过程称为用户识别。在跨越时间区段较大的Web服务器日志中,用户有可能多次访问了该站点。会话识别的目的就是将用户的访问记录分为单个的会话(Session)。用户会话S是一个二元组(userid,RS〉,其中userid是用户标识,RS是用户在一段时间内请求的Web页面的集合,包含用户请求的页面的标识符Pid和请求时间。所以用户会话S

可以表示为下式所示的元组。S=〈userid,{(Pid1,time1),……,(Pidk,timek)}〉(1)二、用户识别与会话识别由于本地缓存和代理服务器缓存的存在,使得服务器的日志会遗漏一些重要的页面请求。路径补充的任务就是利用引用日志或站点的拓扑结构将这些遗漏的请求补充到用户会话中。经过路径补充后S变为表达式(2)。S=<userid,{(Pid1,time1),⋯,(Pidi,timei),(Pidu,timeu),(Pidi+1,timei

+1),⋯,(Pidk,timek)}>其中:Pidu∈{Pid1,Pid2,⋯Pidi}hyperlink(Pidu,Pidi+1)∈Topo∧hyperlink(Pidj,Pidi+1)∈Topo,a<j≤Itimei<=timeu<=timei

+1

三、路径补充

其中(Pidu,timeu)是添加的页面请求,topo是Web站点的拓扑结构,hyperlink(a,b)∈Topo表示页面a中有指向页面b的超链接,

请求时间timeu设备为前后两次请求时间的平均值。用户会话是Web日志挖掘中唯一具备自然事务特征的元素。但对于某些挖掘算法来说可能它的粒度太粗,为此需要利用分割算法将其转化为更小的事务,即进行事务识别。〈html〉

〈framesetcols=“3,60%,3”〉〈framename=“B”src=“B.html”〉

〈framesetrows=“45,3”〉

〈framename=“c”src=“C.html”〉

〈framename=“d”src=“D.html”〉

〈/frameset〉

〈/framename=“E”,src=“E.html”〉

〈/frameset〉

〈/html〉A.Html〈html〉

〈framesetrows=“100,3”〉

〈framename=“F”src=“F.html”〉

〈framename=“G”src=“G.html”〉

〈/frameset〉

〈/html〉D.html四、事务(FRAME)识别与子页删除HTML规范通过“Frame”标记支持多窗口页面,每个窗口里装载的页面对应一个URL。多窗口页面中Frame页面是定义多窗口页面的大小、位置及内容的页面,Subframe页面是多窗口页面中被Frame页面包含的子窗口所对应的页面。图2是使用“Frame”标记定义多窗口页面的两个html文件。A.html的第一个frameset标记将页面分为左,中,右三个部分,中间半部分宽度为整个宽度的60%,又通过frameset标记分为上下两个部分,上半部分高度为45象素,显示C.html页面,下半部发显示D.html页面;左、右两部分均分其余的40%,分别显示B.html页面和E.html。D.html也是一个多窗口页,其上下两部分分别显示F.html和G.html。

当用户访问的URL对应的是一个Frame页面时,浏览器通过解释执行页面源程序,会自动向Web服务器请求该Frame页面中包含的所有Subframe页面,这一个过程可以重复进行,直到所有的Subframe页面被请求。在这样的用户会话文件上进行数据挖掘,Frame页面和Subframe页面作为频繁遍历路径或者频繁访问页组出现的概率很高,这就降低了挖掘结果的价值和意义。Web日志挖掘的目的是发现未知的用户行为模式,而Frame页面和Subframe页面的对应关系是已知事实,为此应当消除Frame页面对挖掘算法的影响,发现用户真正感兴趣的挖掘结果。经过Frame页面过滤后包含在Subframe页面中的超链接信息随之丢失,原有的站点结构已经不能为路径补充提供正确的信息,为此我们将Subframe页面中的超链接信息添加到相应的Frame页面中,这个过程叫做站点提升。已知站点拓扑结构Topo和FS+,提升后的站点结构Topo↑为:Topo↑∷={(a,b)|(a,b)∈FS+∧(vs)(((a,s)∈FS+∧(s,b)∈Topo)∨((b,s)∈FS+∧(s,a)∈Topo))}∪Topo利用提升站点结构的算法进行站点提升得到Topo↑,利用已有的路径补充算法就可以将用户会话中遗漏的页面请求补充完整。Web站点结构提升9.3WEB日志挖掘:模式发现在经过预处理后的数据上应用各种数据挖掘的功能和算法,挖掘出有用的模式和规则的过程。WebUsageMining中用到的Web日志分析及用户行为模式的挖掘方法包括:关联分析分类和预测聚类分析序列模式统计分析一、Web日志挖掘—关联分析通过分析用户访问网页间的潜在联系而归纳出的一种规则;如80%的用户访问Web页面/company/product1时,也访问了/company/product2;预取可能请求的页面,以减少等待时间对于频繁项集(页面集){A,B},在用户访问A时,将页面B调入缓存中,从而改善Web缓存,缓解网络交通,提高性能促进网上商务。

对于频繁项集{A,B},如果分别代表两个产品的页面,则说明这两个产品间存在相关性,可以利用这点在电子商务的实践中给出更有效的促销策略或广告策略A=>BA=>B=>CA=>B=>DA=>B=>E=>F常用算法

Apriori算法或其变形算法,频繁模式树(FP-树)算法等等,挖掘出访问页面中频繁的在一起被访问的页面集。比如可以通过:二、Web日志挖掘—分类和预测分类和预测功能可以用来提取描述重要数据类的模型,并使用模型预测来判定未知数据的类标号,从而预测未来的数据趋势。常用算法:判定归纳树、贝叶斯分类、k-最近邻分类等应用:可以根据用户的个人资料或者其特定的访问模式,将其归入某一特定的类可以根据用户对某类产品的访问情况,或者根据其购物情况,或者根据其抛弃购物车的情况,来决定用户的分类(e.g.对电子产品感兴趣的用户),并对相应的分类使用相应的促销策略。三、Web日志挖掘—聚类分析聚类:将对象的集合分组成为由类似的对象组成的多个类的过程。(与分类的区别?)常用聚类算法:划分方法、层次的方法、基于密度的方法等等。在WebUsageMining应用中包含着两种聚类。页聚类:将内容相关的页面归在一个网页组,对网上搜索引擎及提供上网帮助很有用用户聚类:将具有相似访问特性的用户归在一起,在电子商务的市场分割和为用户提供个性化服务中,能发挥巨大作用聚类分析可以分析喜好类似的用户,从而动态地为用户定制观看的内容或提供浏览建议。比如:购买推荐系统或动态促销系统作用:1)方便用户查询和浏览2)增强广告的作用3)促进网上销售4)提高用户忠诚度四、Web日志挖掘—统计分析统计分析包括的内容统计分析包括的内容有:通过求出现率、求平均、求中值等,统计最常访问的网页,每页平均访问的时间,浏览路径的平均长度等,以获得用户访问站点的基本信息。还能提供有限的低层次的错误分析,比如检测未授权入口点,找出最常见不变的URL等。可以用来计算客户对某页面的访问次数,停留时间等,得到访问次数最多的页面(或产品、URL等)常用的电子商务网站用户访问数据统计(节选)平均一个用户访问8-10个页面在站点上花5分钟每个页面上花35秒平均一个购物的用户访问50个页面在站点上花30分钟这是经过大量的数据统计得出的结果,具有高度一致性。五、Web日志挖掘——序列模式

序列模式视图找出页面依照时间顺序出现的内在模式序列模式可以用来做用户的浏览趋势分析,即一组数据项之后出现另一组数据项,从而形成一组按时间排序的会话,以预测未来的访问模式,这将有助于针对特别用户群安排特定内容。趋势分析访问模式的相似性分析

六、Web日志挖掘--模式分析在挖掘出一系列用户访问模式和规则后,还需要进一步观察发现的规则、模式和统计值。确定下一步怎么办?是发布模型?还是对数据挖掘过程进行进一步的调整,产生新的模型。经过模式分析得到有价值的模式,即我们感兴趣的规则、模式,采用可视化技术,以图形界面的方式提供给使用者。电子商务与数据挖掘(2)BeyondWebLogsWEB日志挖掘的不足WEB日志提供的数据非常有限,即使使用的是扩展日志格式(ECLF)主机名TimeRequest,e.g.,一个网页的URLReferrerUseragent(浏览器及版本号)IP地址Cookie字节数和状态位等等...网页上都有什么?WEB日志的设计目的是分析WEB服务器的运行状况,而不是挖掘电子商务的交易数据和点击流虽然Web日志中给出了被访问页面的URL,但是这并不等于知道了该URL所指向的网页内容。给定一个URL,能不能提取出上面有什么?/computers/common/info.asp?id=12177要自动提取出关于这个网页所描述的产品的信息,像作者、版本、出版日期就更加困难了动态内容随着互联网上的动态内容越来越多,基于WEB日志的分析与挖掘就越来越困难了同样的URL将会连接到不同的内容在动态站点,URL往往会很长很复杂而实际所指的内容却是在应用服务器的session上/American?BV_EngineID=dealikcjfekgbfdmcflmcfkhdgfh.7&BV_Operation=Dyn_RawSmartLink&BV_SessionID=%40%40%40%400822617159.0968100982%40%40%40%40&form%25destination=indexmember.tmpl&BV_ServiceName=American个性化的内容(比如:推荐的捆绑销售内容),基本上无法通过Web日志来进行重构重构session的困难一个Session代表着一次用户和网站之间的连接,从Web日志中的多个用户的requests中重构每个用户的session是困难的。由于HTTP是无状态的,因此通过Web日志重构session只能依赖于假设与推断,而且用于假设与推断的数据也少得可怜IP地址Cookies浏览器类型商业事件对用户“点击流”事件的考察,最终必须定位到“商业事件”,即将一个点击(或请求)的集合转化为一个逻辑上有意义的事件或商业细节。一些对数据挖掘很重要的商业相关事件无法由Web日志来决定购物中哪些东西添加到购物车,哪些又被抛弃了购物车中物品数量的增减网页上的促销信息当时显示的“没有库存”的商品表单数据检索——关键字以及没有找到内容的关键字示例——关键字检索在一个销售运动器材的电子商务网站,排名前10的检索关键字为:篮球录像足球排球乒乓球音乐书海报扑克手套红色字体显示的关键字都有些什么共同特点?失败的检索红色字体显示的关键字都是没有检索结果的关键字!有些关键字可能是因为用词不正确有些却传达了一种强烈的暗示:这个网站都还应该卖些什么东西而Web日志却没有足够的信息让我们来提取哪些关键字检索失败了在实际的电子商务网站中,11%的检索没有返回任何结果!将Web日志中的内容映射到数据库从Web日志中提取一个URL请求,如何才能:将这个请求映射到在你的数据库中注册过的一个客户?决定这是这个客户的第几次访问?决定这个客户是否曾经购物?由事后来决定上述信息是极端困难的要想由一系列的请求来重构一个用户的购物过程就更加困难了Web数据到底挖掘什么?用点击率和访问量来决定一个站点成功与否,就好像用音量来决定音乐美妙与否。--ForresterReport,1999对电子商务站点而言,只有转化率(购物者与浏览者之间的比率)才是最重要的指标对广告链接而言,更是如此给出一个指向你的广告的HTTP请求,你怎么决定该HTTP请求是否会带来一个销售?ForresterReport结论现在流行的基于Web日志的数据挖掘并不是一个很好的选择电子商务中蕴涵有的数据,远比Web日志中所提供的内容要多两种比Web日志更好的数据收集方法:Packetsniffer在应用服务器层收集数据PacketSnifferPacketsniffer通过侦听从Web服务器发送的数据包来获得跟电子商务相关的数据。优点可以获得比Web日志中更多的信息不需要改动现有的应用架构缺点在识别用户和session方面还是有困难逻辑信息提取困难无法探测到加密的信息,比如使用SSL协议传送的信息,而实际应用中,一些关键信息,像用户登陆,登出,用户信息传送都常常使用SSL协议多层应用框架(J2EE/EJB)应用服务器层数据收集应用服务器层数据收集可以克服Web日志和Packetsniffer的缺点,对用户的访问数据做全面的收集和解析。应用服务器端可以得到返回给用户的所有内容应用服务器使用cookie技术(或者是URL编码技术)来记录一个用户的session应用服务器通过用户登陆机制来锁定一个用户,因而可以将每个点击定位到用户需要将数据收集机制和应用服务器端相集成电子商务中进行数据挖掘的几个难点爬虫/机器人大量数据的处理分析前的数据变换提供市场级的决策支持网络爬虫/机器人网络爬虫/机器人是自动访问你的站点的程序搜索引擎使用的爬虫(√

)购物机器人(√

)IE离线浏览器(√

)E-MAIL搜索者(×)一些PERL脚本(×)为了对客户行为作出准确研究,必须过滤掉爬虫/机器人的访问30%的session是由网络爬虫/机器人造成的有些网络爬虫/机器人会故意将自己隐藏起来数据变换在电子商务中进行数据挖掘时,有时70%以上的数据分析时间都消耗在数据变换上改善数据变换的方法:自动的将站点上的数据传送到数据仓库中提供良好的数据转换用户界面为常见的数据转换问题定制一些工具提供市场级的决策支持你花费了大量的时间来收集数据构建数据仓库数据变换建模分析...最后将你的结果交给了用户...这个具有237个维的数据立方体到底是什么东西?总结:9.1电子商务与数据挖掘9.2数据预处理9.3模式挖掘Theend第一节活塞式空压机的工作原理第二节活塞式空压机的结构和自动控制第三节活塞式空压机的管理复习思考题单击此处输入你的副标题,文字是您思想的提炼,为了最终演示发布的良好效果,请尽量言简意赅的阐述观点。第六章活塞式空气压缩机

piston-aircompressor压缩空气在船舶上的应用:

1.主机的启动、换向;

2.辅机的启动;

3.为气动装置提供气源;

4.为气动工具提供气源;

5.吹洗零部件和滤器。

排气量:单位时间内所排送的相当第一级吸气状态的空气体积。单位:m3/s、m3/min、m3/h第六章活塞式空气压缩机

piston-aircompressor空压机分类:按排气压力分:低压0.2~1.0MPa;中压1~10MPa;高压10~100MPa。按排气量分:微型<1m3/min;小型1~10m3/min;中型10~100m3/min;大型>100m3/min。第六章活塞式空气压缩机

piston-aircompressor第一节活塞式空压机的工作原理容积式压缩机按结构分为两大类:往复式与旋转式两级活塞式压缩机单级活塞压缩机活塞式压缩机膜片式压缩机旋转叶片式压缩机最长的使用寿命-

----低转速(1460RPM),动件少(轴承与滑片),润滑油在机件间形成保护膜,防止磨损及泄漏,使空压机能够安静有效运作;平时有按规定做例行保养的JAGUAR滑片式空压机,至今使用十万小时以上,依然完好如初,按十万小时相当于每日以十小时运作计算,可长达33年之久。因此,将滑片式空压机比喻为一部终身机器实不为过。滑(叶)片式空压机可以365天连续运转并保证60000小时以上安全运转的空气压缩机1.进气2.开始压缩3.压缩中4.排气1.转子及机壳间成为压缩空间,当转子开始转动时,空气由机体进气端进入。2.转子转动使被吸入的空气转至机壳与转子间气密范围,同时停止进气。3.转子不断转动,气密范围变小,空气被压缩。4.被压缩的空气压力升高达到额定的压力后由排气端排出进入油气分离器内。4.被压缩的空气压力升高达到额定的压力后由排气端排出进入油气分离器内。1.进气2.开始压缩3.压缩中4.排气1.凸凹转子及机壳间成为压缩空间,当转子开始转动时,空气由机体进气端进入。2.转子转动使被吸入的空气转至机壳与转子间气密范围,同时停止进气。3.转子不断转动,气密范围变小,空气被压缩。螺杆式气体压缩机是世界上最先进、紧凑型、坚实、运行平稳,噪音低,是值得信赖的气体压缩机。螺杆式压缩机气路系统:

A

进气过滤器

B

空气进气阀

C

压缩机主机

D

单向阀

E

空气/油分离器

F

最小压力阀

G

后冷却器

H

带自动疏水器的水分离器油路系统:

J

油箱

K

恒温旁通阀

L

油冷却器

M

油过滤器

N

回油阀

O

断油阀冷冻系统:

P

冷冻压缩机

Q

冷凝器

R

热交换器

S

旁通系统

T

空气出口过滤器螺杆式压缩机涡旋式压缩机

涡旋式压缩机是20世纪90年代末期开发并问世的高科技压缩机,由于结构简单、零件少、效率高、可靠性好,尤其是其低噪声、长寿命等诸方面大大优于其它型式的压缩机,已经得到压缩机行业的关注和公认。被誉为“环保型压缩机”。由于涡旋式压缩机的独特设计,使其成为当今世界最节能压缩机。涡旋式压缩机主要运动件涡卷付,只有磨合没有磨损,因而寿命更长,被誉为免维修压缩机。

由于涡旋式压缩机运行平稳、振动小、工作环境安静,又被誉为“超静压缩机”。

涡旋式压缩机零部件少,只有四个运动部件,压缩机工作腔由相运动涡卷付形成多个相互封闭的镰形工作腔,当动涡卷作平动运动时,使镰形工作腔由大变小而达到压缩和排出压缩空气的目的。活塞式空气压缩机的外形第一节活塞式空压机的工作原理一、理论工作循环(单级压缩)工作循环:4—1—2—34—1吸气过程

1—2压缩过程

2—3排气过程第一节活塞式空压机的工作原理一、理论工作循环(单级压缩)

压缩分类:绝热压缩:1—2耗功最大等温压缩:1—2''耗功最小多变压缩:1—2'耗功居中功=P×V(PV图上的面积)加强对气缸的冷却,省功、对气缸润滑有益。二、实际工作循环(单级压缩)1.不存在假设条件2.与理论循环不同的原因:1)余隙容积Vc的影响Vc不利的影响—残存的气体在活塞回行时,发生膨胀,使实际吸气行程(容积)减小。Vc有利的好处—

(1)形成气垫,利于活塞回行;(2)避免“液击”(空气结露);(3)避免活塞、连杆热膨胀,松动发生相撞。第一节活塞式空压机的工作原理表征Vc的参数—相对容积C、容积系数λv合适的C:低压0.07-0.12

中压0.09-0.14

高压0.11-0.16

λv=0.65—0.901)余隙容积Vc的影响C越大或压力比越高,则λv越小。保证Vc正常的措施:余隙高度见表6-1压铅法—保证要求的气缸垫厚度2.与理论循环不同的原因:二、实际工作循环(单级压缩)第一节活塞式空压机的工作原理2)进排气阀及流道阻力的影响吸气过程压力损失使排气量减少程度,用压力系数λp表示:保证措施:合适的气阀升程及弹簧弹力、管路圆滑畅通、滤器干净。

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论