Scrapebox中文图文教程_第1页
Scrapebox中文图文教程_第2页
Scrapebox中文图文教程_第3页
Scrapebox中文图文教程_第4页
Scrapebox中文图文教程_第5页
已阅读5页,还剩16页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

Scrapebox中文教程Scrapebox是一款批量自动博客评论以及博客地址收集软件,广泛被黑帽SEO应用。利用内部链接购置价格仅为$57美元,相比昂贵的XRumer,虽然性能上有较大弱点,但是性价比非常不错。低廉的价格使scrapebox迅速风行,在群发软件中,怎么高效地让自己的评论突破wordpress的审核系统,这个才是使用这个软件的精华所在。Scrapebox的博客地址收集局部等其他功能也相当不错,这点让Scrapebox已经变得不那么是一块群发软件了,而是一块必备的SEO小工具的集合,素有SEO界的瑞士军刀之称。目录TOC\o"1-2"\h\z\uScrapebox中文教程1目录2第一局部Scrapebox功能表中文翻译3一、菜单栏3二、Sb主界面3第二局部Scrapebox根本功能的使用3一、寻找keywords3二、搜刮list3三、发送bloglist3第三局部Scrapebox操作技巧-转载3一、SrapeBoxharvesting方法一3二、ScrapeBox的使用心得3三、ScrapeBox实战:每天2万条3四、Footprints是什么–利用footprints寻找外链资源3五、ScrapeBox技巧教程3六、代理搜刮技巧3七、comments技巧3八、发送list技巧3九、寻找bloglist技巧3第四局部插件的一些说明3我的操作方法:3第一局部Scrapebox功能表中文翻译第一局部,先来给大家把ScrapeBox的界面各个列表和按键的功能做个简单的翻译和说明。一、菜单栏1、Settings设置eq\o\ac(○,1)AdjustMaximumConnections:线程设置,SB各项功能的线程设置均在这个选项里,见下列图。AdjustTimeoutSettings:SB各项功能的超时时间设置。eq\o\ac(○,2)AdjustRNDDelayRange:SB的延时时间大小设置。eq\o\ac(○,3)SetcountryororiginforBlogEngine:设置评论博客的国家。eq\o\ac(○,4)Postonlyusingslowcommenter:仅用慢发模式发送评论eq\o\ac(○,5)UseslowcommenteraccurateMode:使用慢发精确模式eq\o\ac(○,6)Skipslowcommenterfor…:对WP和MT的评论跳过慢发模式eq\o\ac(○,7)Startslowcommenter…:在快发结束后自动启用慢发模式eq\o\ac(○,8)EnableLearning…:在慢发模式中启用学习模式数据库eq\o\ac(○,9)Usenulti-threadedharvester:使用多线程收割.有很多人说多种收割方式。eq\o\ac(○,10)Randomcommentblogposterlist:从博客列表中随机抽取发送评论。eq\o\ac(○,11)Hidetoolbarwhenminmized:当最小化时不显示工具条。eq\o\ac(○,12)Askconfirmedwhenexit:当推出时请求确认。2、Options选项eq\o\ac(○,1)Nameyourinstanceofscrabox:给你的SB起一个单独的名字。因为SB是可以同时运行多个的,这样你就能很容易分清楚每个SB是给哪一个网站发的.比方S1,S2,SB-POST,SB-PING等。eq\o\ac(○,2)RSSXMLExportSettings:RSS导出的设置。eq\o\ac(○,3)UseCustomUserAgents:使用当前设置useragents。eq\o\ac(○,4)EditUserAgents:编辑useragents〔用户代理〕,这个可以去百度或者google,很多列表。eq\o\ac(○,5)ConfirmDelete:当你进行删除操作时会提示你是否删除。eq\o\ac(○,6)CreatDesktopShortcut:创立桌面快捷方式。eq\o\ac(○,7)AutomaticallyRemoveDulicateDomains:自动删除重复域名。如果你想按照重复url来筛选列表,别选此项。eq\o\ac(○,8)AutoRecovey:针对SB的慢发模式,可以选择软件死机后自动重新继续。eq\o\ac(○,9)CheckforaddonUpdates…:程序启动时检查插件是否有更新。eq\o\ac(○,10)Slowcomment…:让慢发有搞成功率。eq\o\ac(○,11)Setupemailnotifacationserver:设置邮件激活效劳器,包含相关的邮件账号,端口,pop3、smtp地址信息。3、BlackList黑名单列表发送列表的黑名单.建议勾选第二个,本地+远程黑名单模式。至于editlocalblacklist就是编辑本地的blacklist。4、Tools工具eq\o\ac(○,1)OpenName&emailGenerator:小工具可以创立姓名和email列表。都是发评论时需要的。可以设置生成name的数量和邮箱后缀〔目前只有yahoo可以选择〕,可以设置name中是否包含数字和数字的位置。eq\o\ac(○,2)DeleteNamelists:删除姓名列表。eq\o\ac(○,3)Learnmode〔只有在慢发时才可以用〕databaseeditor:SB的学习模式数据库编辑器,也算高级功能了。只要是学习过的留言方式这里都会出现,可以在这里修改。5、Catcha验证码〔付费效劳〕SetupautomaticCaptchaSolving:设置自动识别认证码的账号密码。EnabledAutomatic…:慢发模式下启用认证码自动识别enable。Automatic…(unblocking):在代理效劳器管理中开启认证码自动识别。6、Addons插件最后一个是ScrapeBox的插件列表。二、Sb主界面从sb主界面上可以看出sb主要有havester、urlhavested、managelists、selectEngines&Proxies和commentsposter几大功能模块Harvester〔收割模块〕这一块主要是SB搜刮list的设置区.SB搜刮搜索引擎的列表使用的是footPrint+关键字的模式。Footprint就是上头的四个选项:customfootprint〔普通的footprint〕、wordpress、Blogengine和movableType。关键字就是下面的列表.具体功能如下1、CustomFootprint:这里就是自定义搜索方式在搜索引擎查询你想要找的东西。比方你要搜刮VBB论坛的列表,就可以在选了此项后,在上面的空白栏输入”PoweredbyvBulletin”这里要补充说下的就是,使用自定义Footprint。你要首先熟悉Google的高级搜索的用法,比方site:、inurl:等等。如果不熟的留意以后的章节,我会有介绍,不过都是一些比拟高级的用法,根底的还是要你自己GG。2、WordpressBlogs;BlogEngineBlogs;MovableTypeBlos,是SB已经集成设置好FootPrint的三个最流行的blog程序的Footprint.根据你自己的的需要进行选取.3、Keywords:这里就是输入关键字的地方.直接输入你整理好的关键字列表,或者使用SB的关键字抓取功能。import:从文档中导入你的关键字列表。Scrape:使用SB的关键字抓取,进入后在左边输入你的关键字,按Scrape即可获得更多的相关关键字。在enterkeywords的框中输入或者导入keywords资源,再点击scrape就可以搜刮关键字资源了。Save:保存你的关键字列表到文档Clear:清楚上面的关键字列表2、SelectEngines&Proxies这一块主要是搜索引擎相关设置和代理设置。1,Google、Yahoo、Bing、Aol是可以搜刮列表的四个搜索引擎。你可以选择单个或多个进行搜刮。在GOOGLE旁边有个按钮,还可以自定义设置GOOGLE的不同国家的搜索,比方google.de等。你自己的需求进行设置。2,UseProxies:选择是否使用代理。需要说明一点,这个选项是个全局的选项,不光是搜刮列表,也包括发送评论等主界面的任何功能。3、Results:这个是设置每个关键字你所要抓取的列表数量。如果你需要大量的列表,可以设置大一点,500甚至1000。4、Time:这个按钮也算是搜索引擎高级搜索的一局部,可以选择在某段时间内的搜索结果。具体设置也是按个人需求。5,下面四个按钮是管理代理效劳器的。ManageProxies可以进入管理代理效劳器设置,抓取,验证,整理代理效劳器列表。Load:从文档载入代理效劳器列表。Save:将代理效劳器列表保存到文档。Clear:清楚当前代理效劳器列表3、URL’sHarvested这一块主要是控制列表的搜刮活动对搜刮到的列表的操作,包括整理,导入导出等。1,先说下面的四个按钮:eq\o\ac(○,1)StartHarvesting:开始搜刮列表。eq\o\ac(○,2)StopHarvesting:停止搜刮列表。eq\o\ac(○,3)List:这个按钮主要是对搜刮到的列表进行转移操作。对象都是下面见下列图:分别的意思是把搜刮list转移到待发评论的list,把搜刮list参加到待发评论的list,把搜刮list转移到待发评论的list中的站点,把搜刮listjiaru到待发评论的list中的站点.eq\o\ac(○,4)TransferURL’stoblogslistforCommenter:把搜刮到的列表转移到下面commentPoster的”BlogLists”AddURL’stoExistingblogslistforcommenter:转移的位置同上,区别是这个选项适用于你已经在下面选择了你的blog列表,并讲现在搜刮到的列表增加到你已经选择的blog列表里TransferURL’swebsiteslistforcommenter,AddURL’s:这两个选项是对下面的CommentPoster中”Websites”这一栏的数据进行操作,Transfer/Add的功能同上2,ManageLists(这一块右侧那一排)eq\o\ac(○,1)RemoveDuplicates:删除搜刮到的列表中的重复地址的选项.点击此按钮,从上到下三行,分别为:(1).按照url删除重复:也就是说整个列表中,一样的url地址都是唯一的.(2).按照域名删除重复:也就是说,整个列表中,所有包含同一个域名的地址最终只剩下一个。(3).分割重复域名列表地址:这一项的主要目的,就是在你一个列表的域名保持唯一的同时,不浪费这个列表中同域名的其他url,把其他的url保存到另外的文件里以便你以后使用。比方一个列表中包含和,如果你只用第二项按域名重复,就只剩下,当你选择这个第三行时,你的当前列表中就会只剩,但是并没有被删除,而是保存在你按了split这个选项以后,让你保存到的那个文件里.可能大家听得有些晕了,呵呵。eq\o\ac(○,2)TrimtoRoot:整理列表中的url为root格式,也就是,会被整理成的格式。eq\o\ac(○,3)CheckPagerank:查询PR.里头两个选项,从上到下为按URL查询。PR,按域名查询PRCheckindexed:查询。url是否被收录.从上到下为GOOGLE,YAHOO,BING是否被收录。eq\o\ac(○,4)GrabEmails:提取email列表.从上到下为从搜刮列表中提取,从本地文件中提取。eq\o\ac(○,5)ImportURLList:导入url列表功能。上到下分别为:(1).导入并代替当前列表。(2).导入并增加到当前列表。(3).选择列表进行比拟,并删除当前列表中与你选择的列表文件有重复的list。(4).同上,只不过删除重复的方式不是按url而是按domain。(5).从粘贴板复制列表url并且代替当前列表。(6).从粘贴板复制列表url并增加到当前列表。eq\o\ac(○,6)ExportURLList:导出搜刮列表的操作.从上到下为:(1)将搜刮到的列表保存到txt文件。(2).将搜刮到的列表保存到txt文件并进行按行数分割成多txt文件。(3).保存到HTML文件。(4).保存到xls文件。(5).保存到rssxml列表。(6).添加到已存在的文件中。(7).复制列表url到粘贴板。(8).导出所有indexed的url.此项功能当你在使用了”checkindexed”功能后使用。(9).导出所有notindexed的url,使用同上。eq\o\ac(○,7)import/ExportURL’s&PR:对已经查询过PR的list的导入导出.从上到下:(1).导出为txt格式(2).导出为CSV格式(3).导出为HTML格式(4).导出为EXCEL格式(5).从txt文件导入带PR的list(6).从txt文件增加4、CommentPoster这一块主要是发送评论的相关操作选项和设置。Fasterposter、slowposter和manualposter分别是快发、慢发和人工发模式。其他几个是出了发送评论外SB的其他操作模式:(1)PingMode:这个要跟大家讲一下,SB里的PING不是平时说的blog里的那个PING.是类似PRSTORM的模式.简单说就是模拟从你的站到目标站的访问。(2)RSS:这个就是在blog中说的PING效劳。(3)TrackBacks:模拟发送trackback。(4)Checklinks:检查你的外联是不是在列表中.也就是检查你发送的评论最终有多少被通过。Names、Emails、Websites、Comments和BlogLists:这个就不用多说了吧,很容易的。翻译过来就是,姓名,邮件地址,你的网站,评论内容。这些内容也是你即将要发送评论的列表,所以要认真填写。第二局部Scrapebox根本功能的使用这一局部主要是简述如何寻找keywords,寻找list,如何使用list。一、寻找keywords寻找关键词的方法有很多,市场上也有很多关键词工具。下面简单的描述如何使用googleadwords+sb来寻找关键词,其他关键词分析软件以此类推。翻开googleadwords〔〕,进入keywordstools。在关键词分析工具在输入一个相关的词,导出keywordslist。在excell中修改,注意把第一行去掉,并且把中文的去掉,sb不支持中文暂时。将keywords导入sb。使用sb的keywordsscraper功能。目前只能把关键词复制进去。关键词搜刮结束之后,去掉重复的,导入到keywordslist中,点击dups再一次去掉重复的。二、搜刮list有了keywordslist,就可以搜刮blogpostlist了。选择blog类型,一般选择wordpress。再点击startingharvesting就可以了。搜刮结束后去掉同一个网站重复的或者去掉同一个网站的,然后导出备份。三、发送bloglist选择name,email,Comments,website,blogslist,选择发送模式,点击start,开始发送。注意在发送的途中点击Abort,就暂停了,再开始的话就只能从头开始发了。第三局部Scrapebox操作技巧-转载这一局部主要是转载从网络上收集的讲述sb技巧的文章,由于收集时间过久,来源已不明。一、SrapeBoxharvesting方法一1)Firststepistolocateablogthathasalreadybeenspammed.Thisishowyouaregoingtofindyourbacklinks.Blogsthatalreadyhavespammedcommentsonusuallymeanstwothings.First;theblogiseitherauto-approveorelsetheownerdoesn’tcarewhatgoesontheblog.Second,yourcommentismuchmorelikelytostick.

2)Onceyouhavefoundablogwithspammedcomments,youneedtoopenupatxtfileandthencopyandpastethespammerslinksintothefile.Doitinthisformat:HTMLCode:Keepbuildingthislistuntilyouhaveatleast40links.Shouldn’ttakelongatall.

3)OpenScrapeBoxandpasteyourlistintotheharvester.SelectYahooasthesearchengine.Makesureyouuseproxies.Nowstartharvesting.WhathappensisthatScrapeBoxwilluseYahootogetallthebacklinksthespammershaveused.InsomecasesthiswillbehundredsofURLsperspammer.IfIstartwith40spammerURLsScrapeBoxwillusuallyreturnbetween15kand20kresults.RemoveduplicateURLs.Youmayloseasmanyas5kURLsormore.Doesn’tmatter.4)OpentheScrapeBoxBlogAnalyzer.LoadyourharvestedresultsintotheBlogAnalyzerandstartitrunning.Thismaytakequiteawhiletocomplete.Oncedone,sorttheresultsbyplatform,thensavetheresultsasanExcelfile.5)OpenthesavedfileintoExcel.YouarelookingforallplatformsthatarecompatiblewithScrapeBox.IMPORTANT,makesureyouchooseblogsthatareopentocommentsandhaveNOspamprotection.Copyallusableblogsintoatextfile.Namethefile‘SortedforScrapeBox’orsomesuch.6)Youshouldendupwithbetween2kand5kURLsthatareusable.Inmyexperienceyouwillhavearounda50%successratewhenpostingtotheseURLs.Andaround10%to25%willstick.二、ScrapeBox的使用心得ScrapeBox〔以下简称SB〕是一个群发外链的软件,相信做英文SEO的都应该知道,这里就不多讲述了,有兴趣的同学可以去Google一下。总结一下我自己的使用心得:1.SB由于每次只能搜索100万的列表,所以如果关键词列表大的话,分开几次来扫,每次扫完可以导出没完成的关键词继续扫。2.扫来的List,一般100万去掉重复的话大多数时候是40-70W不等〔我本人只扫Google的〕3.如果是新站,且有几十万的List,我不建议全部用来发MainDomain,一般MainDomain我是只发有PR的站,SB有个插件是SitemapScraper,把Sitemap的文章地址都复制下来,然后用SB发文章页的链接。4ment的列表一定要做好,这个跟成功率很有关系〔这里的成功率不是指SB中的,是最后获得批准的成功率〕,大家可以到自己的其中一个博客去找一些看上去像样的评论,然后SPIN,没工具的手动SPIN也可以,很简单!最好至少准备50条以上的SPIN评论。5.RSS和INDEX列表,用SB自带的根本也就可以。6.发完外链后,把成功和失败的保存起来,把失败的再FastPost一次,然后再把成功的保存起来……慢慢的,你的成功率高的List就越来越多。7.成功的List,可以过1-2天去用Ping功能去Ping一下。8.介于SB的强大,现在很多.EDUWordPress博客都关闭评论或者注册再评论了。大家搜索的时候在Footprint处要下点心思10.SB的话,大局部时候VPS就可以处理过来,当然你站多的话,还是建议用独立效劳器,我的独立效劳器同时开4-5个SB跑没有问题,平均每天至少搜索几百万的List,搜索List挺占用流量的,选购VPS的时候要注意看一下。11.SB里很多插件都很强大,大家不要老忽略了。12.Trackback的站点跟你的站点主题相符的话,能大大提高成功率。13.SB可以用第三方验证码识别,这个可以大大提升外链的质量,因为有验证码的站点,可能Autoapprove,还有就是外链质量会更高。14.SB其实也不用老发自己的网站或站内页面,假设我们把文章提交到文章站后,把文章页面也发一下,也能提升关键词排名。15.最后就是,SB其实对于站群规模不大的,还是很够用的,把他用好他就是个活宝,别老限制在搜刮List和发留言的功能上。三、ScrapeBox实战:每天2万条一,前期准备

1,Proxy:

代理的质量和数量会影响到SB的发送质量和速度.建议寻找更多的代理,更多的匿名代理.如果你能找到的代理很少,最好减少线程和发送的url数量,否那么可能会出现搜刮list卡住,发评论速度越来越慢等现象.每次大批量发送和搜刮之前,及时更新代理列表.TIPS:出钱买的代理质量肯定比自己搜的高.

除了SB自带的代理搜刮,有条件的可以自己吸附.如proxyfire等工具.相关资料请自行baidu或者gg2,Keyword:

用来搜刮list的关键字列表,可以用SB自带的KeywordScraper,也可以自行用MarketSamurai或者Keywordelite等工具生成.

Tips:关键字的最终数量,以你所需要的发送url总量来计算.以我个人的做法,会给每个100W的list分配1500-2000个关键字.前提是你设置的每个关键字的搜刮数量为1000条.理论上1500X1000会超过100W的限制,不过实际状况根本达不到,所以稍微多分配一点也没关系.

如果你获取到的关键字很少,或者需要更多的关键字,可以试试SB的keywordscraper里的”Transferresultstokeywordlist”进行二次抓取.二,StartHarvesting

SB有每次最多支持保存100W条的限制,所以如果你的关键字较多,建议分成N组.最后再汇总.这时需要分割关键字列表,推荐个小工具:txtkiller.如果你关键字列表有1W个词,用这个工具按行分割成5份,那么每个子列表就有2000个词供一次搜刮使用,很方便.具体下载百度吧,找得到.关于线程:在代理足够的前提下当然越大越好,不过要注意你的效劳器或者VPS的网络限制.我的vps是10Mbps的网络,测试N次后我最终选择了125线程.当设置harvest为150线程时,流量的峰值会超过10M,VPS可能会暂时连不上.说到这还是推荐个监控流量的小工具:DUMeter.老规矩,自己百度吧,关于harvesting的搜索引擎类型,一般我只用google,除非最终的数量达不到我的要求.原因很简单,对于yahoo,aol等搜刮到的url不知道google是否收录过.如果其他兄弟有好的心得和经验,欢送就此话题讨论.关于list去除重复:因为我是一次只发一个站,所以一般我只用”removeduplicatedomains”.如果你发多个站,也可以尝试下”removeduplicateUlr’s”.一般我搜刮完去重复时,会有80-95%的url被干掉,别担忧,这个属于正常现象三,StartPosting

当你搜刮完所有的列表,并去重复后,剩下的就可以Posting了.一次发评论的数量,主要取决于你的代理质量和数量.另外感觉线程数也会多少影响到成功率.就我个人而言一般用60-80线程一次发送5万的list,成功率根本都在20-30%之间,但也见群里的兄弟有50%左右的成功率,就此话题也欢送大家讨论啊.四,一些数据和其他TIPS

因为其间很多操作需要等待,合理安排好时间,会帮助你每天发送更多的list.一些我自己用SB时的操作时间:搜刮一个2000个左右关键字,大概在20分钟左右.发送一个包含5WLIST的评论,大概在3小时多一点.设计好你保存数据的目录.多个网站,多个keyword列表,多个list列表,多个post列表.不要把所有数据都放在一起,不光是看着很乱,因为经常会有导入导出等操作,手一抖可能你100W的list就要重新扫一次.SB整理去重复,导入,导出,切换列表时,机子有时会反映很慢,或者干脆假死.留意随时及时的保存你的list.记得发完评论后导出”Posted”的列表.好处:过段时间再用这个列表来check你的评论是否被通过.积累更多的容易通过审核的blog列表,会让你以后再次发送更有效率四、Footprints是什么–利用footprints寻找外链资源最近Sem9论坛上看到有些朋友问“Footprints是什么意思”,“如何利用footprints寻找外链资源”等此类问题,今天有时间这里整理下。footprints可以理解为脚印,痕迹。比方一个通用的程序,模板等,都会留下同样的痕迹,我们可以利用这个痕迹,来抓取满足这些特性的网站。为什么要抓取这些网站?抓取了之后又有什么用?这些应该不需要解释吧。以“poweredby”这个最根底的footprint为例,根本上所有的cms,论坛,或者博客程序都会有这种footprint,一般都是处于网站页面的最底部,然后通常都是会链接到相关的官网。比方:〔以上3个截图就分别是discuz,WordPress,dedecms的“poweredby”的footprint。〕然后再看一例,这里以pLog程序为例“Addcomment”“poweredbyplog”当在Google里输入这个命令时,可以看到如下的返回结果:这些所出现的结果都包含你所输入的词组,我在这里所输入的查询语句不光只“poweredbyplog”的原因是并非所有的plog站都接受评论,站长可以选择将评论的功能给关闭。因为我的目的就是spam,所以这种不开评论的对我来说没意义,所以我在查询语句里参加了“Addcomment”,以确保我搜刮的出来的网站是可以添加评论的。这种查询语句你可以自己组合。一般来说,你所输入的footprint查询语句越复杂,你所能收割的网站数量会越少。但是那些没有用的网站你肯定不需要的,所以好好调整结合下查询语句,确保你能获得一个大的可用的list。还有一点需要注意的,就是这些命令也许并不适用于所有的搜索引擎。不少Google的搜索指令在bing,yahoo等其他搜索引擎里没法使用。所以这里你可以选择整两套footprints指令,一套专门针对Google的,一套是大家都能适用的。专门针对Google的搜索指令可以参考://sem9/thread-50-1.html

或者以上便是footprints的一些解释,那么我们怎么知道应该搜什么语句才能找到我们所需要的目标?怎么利用footprints去寻找外链资源?很简单,我们只需要观察几个这种类型的站,看下共同的特征就行。这种共同的特征,指的是只有这类网站才会有这样的特征,而适用其他类型程序的不会。首先是看下你所针对的程序平台的名字。看下页面上有没那种poweredby的信息,当然有的站可能会去除这些,这时你就需要看看其他的共同特征了,最典型的比方网站的导航,页尾等。五、ScrapeBox技巧教程说明:本技巧毫无技巧可言,只是为了彰显一下自己的刚开始错误做法,希望以后的青年不要步我的后尘。有时候好不容易harvest出来一个主题的bloglist,FastPoster才20~30%的成功率,怎么办?有时候SB发送不成功并不是目标网站真的不能发或者打不开,而是受到网络,机器的影响,因此我们会采取重复发送同一份列表的手段来提到成功数量。以前我使用的是慢发模式。不愧是慢发,还真慢,5000条都要发个半天。于是果断放弃慢发,使用反复快发来解决成功数低的问题。OK,正文来了,重复快发怎么操作?我们必须得把已经发过的URL地址从地址库中过滤出来,否那么博主们有可能会收到连续N个评论链接到同一网站,大大降低审核通过率。于是操作应该是:1.第一次发布列表A2.完成发送后,把failed的导出到列表B3.继续发送列表B4.重复2和3,直到你满意为止〔比方再也发不成功了〕5.在URL’sharvested中导入列表A,然后再Selecttheurlliststocompare,选择B6.余下的就是成功发送的列表了,保存在列表A中去吧,然后过段时间检查即可说一下我自己原来的sb方法:1.发送列表A2.完成后把posted保存在列表B-13.把Failed的保存到列表A4.再发,把posted的保存到列表B-2(由于poster模块中的导出功能没有txt合并选项)。。。以此类推,经过N次后,再将N个列表B合并获得Posted的列表。六、代理搜刮技巧scrapebox相信高做英文站,做黑帽的大局部人都用过.这款软件很好用,但是很多人发外联成功率不高,其实这跟大家用的代理有关,有的proxylist质量很高,成功率自然就上去了。这里给大家介绍一下scrapebox搜索代理并验证的方法,在scrapebox用关键词

+”:8080?+”:3128?+”:80?filetype:txt

来搜索,或者在这个关键词前面加上最新代理等都行,自己发挥想象。第二种方法首先你得在scrapebox里面装个ScrapeboxSitemapscraperaddon插件google一下关键词freeproxylists或者免费代理

,先找到适宜的代理站,然后把他们的sitemap.xml放入插件里面查询,就会把他们,所有更新的代理全部拿到手了,然后在scrapebox代理下载里面添加这些url,搜索验证,ok。建议在现在proxyfire里面搜索验证代理,然后再在

scrapebox里面二次验证,这样效率比拟高。七、comments技巧首先说明一下,本教程适合已经使用过ScrapeBox的好青年们,新手和观望人士阅读起来可能会有一点点困难。中间我会使用一些SB中的术语。今天的小技巧是,利用TweetAttacks来抓取Tweet作为评论,听上去是否很有意思的呢。因为Tweet上面的内容几乎完完全全是用户自己发布的,具有很强的随机性和真实性。我把具体流程叙说一下:1.翻开TweetAttacks〔这是唯一能用的破解版,新版本破解不能使用〕2.登入账号后,切换到TweetScraper模块3.选择Tweet高级搜索界面,输入你想要的关键词,然后Ranger选择最大,保证有足够数量,语言选择AnyLanguage〔这边有点奇怪,只选英语有时候会没有结果,选择所有语言却能出现英文的结果〕4.搜索,只选择"Span"标记中的内容,其他的都不选,否那么会抓到很多其他没用的内容5.收集,翻页,收集。。。重复这个步骤,直到收集完全或者收集到你满意的数字〔我一般选择200条〕6.点击SendtoTweetPoster按钮,这时候界面会跳转过去7.人工浏览一下收集的Tweet,选择"除去重复",然后人工检查,去掉过短的内容以及没意义的内容。点击保存。8.OK,你获得了一份真人撰写的评论9.翻开SB,输入你刚刚搜索的关键词,并且Scrape尽可能多的关键词10.FootPrint选择intitle:"关键词",以提高评论页面主题准确率11.开着代理Harvest吧。12.得到最后的url列表后,选择刚刚保存的Tweet作为评论〔如果你想在tweet中增加URL,可以在excle里面制作完成,很容易〕13.开始自动发送吧:〕八、发送list技巧本技巧是我最近感觉比拟有效的方法,这边说一下简要的流程,分享给聪明的青年们:1.选词2.收集20000+的URL3.快发4~5次4.保存发送成功的linkcheck5.把展现的保存6.把展现的Trimtoroot7.使用SBAddon中的LinkExtractor获取更多的页面8.如果你想只能发高质量页面你可以监测一下PR和OBL,删选下9.快发3~4次九、寻找bloglist技巧今天分享的东西其实很简单,很多教程上面都有,这边我做个图文版,更加清晰明了。如何利用Spammer来发外链。首先先翻开一个被Spam的博客〔这年头做个WP不被Spam才有鬼呢〕,我这边就拿我自己的博客为例好了,没什么人气,见笑了:〕点击"Pending",都是最近有人发的spam,我把里面的网站地址一个一个复制下来。把复制出来的url放入SB,量不多,去重后记得选择customfootprint,然后填写link:然后在代理选项这边选择"Yahoo",使用代理,不用的话一会就收割不到咯。开始收割,量少很快的,20~30秒就收

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论