最新链接分析工具SEOmoz Open Site Explorer SEOmoz

SEOmoz不久前发布了全新的链接分析工具,Open Site Explorer。在经过几次使用对比之后,感觉这款工具出来的数据还是比较准确,在分析链接数据时也比较直观、有效,推荐各位朋友使用。



Open Site Explorer的数据来源于SEOmoz的另外一款产品Linkscape。Linkscape相当于一款互联网web数据库,通过爬虫收录各种网站、网页数据,与搜索引擎的收录原理基本类似,这里有专门的介绍。在Open Site Explorer网站的首页,我们可以看到Linkscape现在已经收录将近10兆的链接、0.4兆的网页URL和近7KW的域名数据,依靠这么庞大的数据信息,Open Site Explorer的分析结果是有一定保证的。


关于Open Site Explorer的一些基本应用这边不做详细说明,各位朋友可以体验下,使用比较简单方便。这里提示几个技巧,方便更好的使用这款链接分析工具。



OSE在链接结果页面里提供多种筛选条件,可以更清晰的对内外链数据进行区分。从图中可以显示OSE是将链接分为followed、Nofollowed和301跳转这三种状态的,通过这三种不同状态的链接和后面筛选框中的链接来源等的不同组合,我们可以对自己网站和竞争对手网站做出各种分析操作。


找出网站内部权重最高的页面



OSE有一组与Google的Pagerank类似的权重评估参数,Domain authority指网域的权重, page authority指页面的权重。使用上图的筛选条件所出的结果,我们可以知道在网站的内部链接中,哪些页面所能传递的权重价值是最高的。


分析网站内部的301跳转情况



通过查看内部链接的301跳转情况,可以发现些潜在的跳转问题。


分析竞争对手最有价值的外部链接来源



有这工具的帮助,竞争对手的外链来源和手段其实都是可以被初略归纳出来的。当然,你的竞争对手也是这么认为的。


竞争域名或者页面的外链数据和页面权重的比较



如图,OSE显示新浪和网易的域名权重虽然相同,但是新浪的链接建设做的比网易好,而且有价值的外链比较多。


在Excel里分析链接数据


OSE支持将数据以CSV格式导出,这是我最喜欢的功能,就好像Google Analytics里的导出功能一样的喜欢。这样我们可以在Excel里对所有的链接数据进行分析(最多10000条,足够满足需求了)。


譬如,我们可以将竞争对手的外链数据和自己网站的外链数据进行对比,找出竞争对手拥有的而我们没有的外链资源去分析下一步的外链措施。或者通过Excel的过滤规则和排序规则,找出竞争对后的外链的锚文本情况,等等。


Open Site Explorer的功能确实很不错,基本满足一般网站的链接数据分析工作。而且他还提供API,有技术开发基础的朋友可以讲OSE的数据进行进一步的整合以满足自己的需求。


Rand在10年的搜索营销发展趋势展望时说今年肯定会有新的链接辅助工具出台,代替即将关闭的Yahoo Site Explorer的地位。我觉得也许那时候Rand说的就是他们的Open Site Explorer吧。

《光年SEO日志分析系统2.0》免费下载

后面介绍了《光年外部链接挖掘系统》,有需要的朋友可以下载。

这是国平老师公司开发的软件,俺拿来分享了,下面先来看几个固定的分析维度,下面的数据是semyj.com我这个博客的日志分析数据。

首先是“概要分析”:


概要分析
点击在新窗口中浏览此图片


这里有各个爬虫“访问次数”、“总停留时间”和“总抓取量”的统计。从上面这个数据可以看出,百度爬虫的抓取深度是不高的:访问1868次,抓取量是2968,平均每次抓取1.59页。这其实是百度爬虫普遍的抓取特征,在绝大部分网站上都是这个规律。抓取深度不高的话,会造成很多层级很深的页面不会被抓取到;以及造成少数页面被反反复复在抓取,浪费了爬虫的时间。这样,很多网站想要在百度上获得收录就成了问题,特别是大中型网站。我所接触的所有大中型网站,在刻意去优化之前,一年下来很多网站至少还有一半的网页没有被百度爬虫抓取到,部分网站甚至更严重。相比之下Google的抓取深度就好很多,总的抓取量也大一些。

这里面比较重要的数据是那个“总抓取量”,因为它影响网站的收录量,进而影响网站的SEO流量。在《网页加载速度是如何影响SEO效果的》一文中说明过抓取量和SEO流量的关系。这个“总抓取量”的数据是好还是坏,是要根据每个网站的实际情况来看的。就semyj.com这个网站来说,它现在有53篇文章,300多个网页,而现在google每天有16484个抓取量,百度有2968个抓取量。如果光看这个数据,那看起来这300多个网页基本上在一天之内应该是能被抓取到的。但是很多大中型网站就不一样。

这里我先要说明一个有些人会混淆的问题。为什么我上面会刻意说明一下文章数量和网页数量呢,这是因为文章数量肯定是不等于网页数量的。不过有些人去查收录量的时候就忽视了这个常识。如某网站的文章量(或称单个资讯数量)是30万,去搜索引擎用site等语法去查询收录量是29万,就觉得自己的收录量差不多了,而实际可能差得很远。

因为单个页面都会派生出很多其他页面的。如果打开某一个文章页面,去数一下里面的URL,除去那些模板上重复的,还是有那么一些URL是只有当前这个页面上才有的,也就是这个页面派生出来的。而一个URL对应一个页面,所以一个网站上拥有的页面数量是这个网站的信息量的好几倍,有时甚至是十几二十倍。

所以在看这个“总抓取量”之前,需要把自己网站内可能拥有的页面数量统计一遍。可以用lynx在线版把每一类型的页面上的URL都提取出来看一看。网页总的数量知道了,再和“总抓取量”做对比,就可以知道这个数据是好还是差了。我觉得基本上,google爬虫的抓取量要是网站页面数量的2倍以上,抓取量才算及格,baidu爬虫就需要更多了。因为实际上这个抓取量里面还有很多是重复抓取的;还有和上一天相比,每天的新增的页面抓取不是很多的。

这三个数据:“访问次数”、“总停留时间”和“总抓取量”,都是数字越高对网站越有利,所以需要想很多办法提高他们。大多数时候看他们绝对值没什么用处,而要看现在的和过去的比较值。如果你能每天去一直追踪这些数据的变化情况,就能发现很多因素是如何影响这些数据的。

以下其他数据也是如此:某个当前数据的值有时候不一定有意义的,但是长期跟踪这个数据的变化就能发现很多因素之间是如何互相影响的。

然后是“目录抓取”的数据:
点击在新窗口中浏览此图片

目录抓取统计

这个“目录”抓取的数据是对“总抓取量”的一个细分。一个网站当中,一定是有重点页面和非重点页面的,这个数据就可以让你看看哪一类型的页面被抓取的多,及时做一些调整。

还有就是可以去搜索引擎按URL特征查询一下各个目录下的页面的收录情况,再来和这个目录下的搜索引擎的抓取数据做一个对比,就可以发现更多的问题。对于semyj.com来说,看完这个数据就知道,可能那300多个网页在一天之内还是不能全部被抓取一遍的,因为原来大部分抓取都在bbs这个目录下。(有时候就是有很多这样意外的情况发生,bbs这个目录早已经做了301跳转,没想到还有这么大的抓取量。——看数据永远能知道真相是什么。)

接着是“页面抓取”的数据:
点击在新窗口中浏览此图片

页面抓取

这个数据把一个网站中那些被重复抓取的页面统计了出来,并分别统计是哪些爬虫分别抓取了多少次。大家多分析几个网站就会明白,百度爬虫经常是过度抓取的常客。这个数据也验证了前面的数据:因为它平均每次抓取1.59页,也就是每次来抓取都停留在表层,但是又经常来抓,所以势必导致少部分页面是经常被百度抓取的。因为有重复抓取的存在,所以一个网站光看抓取量大不大是没什么用的,还要看有多少不重复的页面被抓取到了。还有就是要想办法解决这个问题。

在“蜘蛛IP排行”数据里,统计了每个爬虫IP的访问情况:


点击在新窗口中浏览此图片
IP排行

如果分析过很多网站,就会发现爬虫对某一个站的访问,特定时间内的IP段都会集中在某一个C段。这是由搜索引擎的原理决定的,感兴趣的朋友可以查询相关书籍。知道这个特征有时候可以用得着。

报表里有个查询IP地址的功能,可以查询那些爬虫IP是不是真的,如上图红框内的IP,就是一个伪装成google爬虫的采集者。

这个数据和上面的所有数据都一样,前后对比就可以发现更多的信息。

以下是“关键字分析”的数据:

点击在新窗口中浏览此图片
关键词分析

“类型”这里是说明这个关键词是从网页搜索还是图片搜索或视频搜索里来的SEO流量。而“上次用关键字”,是统计用户搜索当前的关键词进入网站之前,是在搜索什么词语。这个功能只有百度有效,因为百度在url中记录了用户上次使用的关键词。 这个地方的界面还需要修改,下一版本中会完善。

“状态码分析”报告中,现在把用户碰到的状态吗和爬虫碰到的状态码分开了,其他没有什么改变:
点击在新窗口中浏览此图片

状态码

这里每一行数据都分为两个部分,第1部分是表示哪个文件出现了这个状态码,第2部分是表示发生在哪个网页。从上面的数据可以看出,这个网站在被一些黑客工具扫描。

在《光年SEO日志分析系统》第二版中,最重要的升级是增加了“日志拆分”功能。有了这个功能,就可以用任意维度去分析网站日志了。
以下是可以拆分的日志字段:
点击在新窗口中浏览此图片

拆分字段

只要你的网站日志是齐全的,有了日志拆分功能这个功能就相当于有了一个数据仓库。这个时候查看网站的数据,就:只有你想不到,没有它查不到的。

如:我们要查看上面那个伪装成google蜘蛛的IP采集了哪些网页,就把拆分条件定义为:ip等于222.186.24.59,agent等于googlebot,就可以把日志拆分出来了;还有要看是哪些IP在用黑客工具扫描网站时,就把拆分条件定义为:url等于MIRSERVER.RAR或等于WWWROOT.RAR等等就可以看到了。

我还建议大家多去拆分爬虫的抓取轨迹,把某一个爬虫IP的抓取路径拆分出来,观察它的抓取路径,再和网站上的URL对应,就能明白爬虫抓取的很多规律。

其实本来还应该开发一个日志合并的功能,但是这个功能实在太简单,一般我们用DOS里面的copy命令就可以解决这个问题:
点击在新窗口中浏览此图片

Copy命令

这样,你可以把网站一星期内的、一个月内的甚至半年来的日志合并起来分析。《光年SEO日志分析系统》是支持分析无限大的日志的,只要你有时间。

在“设置”-“性能设置”里,有两个地方要注意。一个是那个“蜘蛛计算间隔”,这里表示一个蜘蛛多少时间内没有活动就算它离开了。这里要注意对比分析的时候每次都要是同一个时间,因为这里的时间按改变了,那计算爬虫来访的次数就变了。还有一个是“分析显示条数”,现在你可以自己定义在报表中要显示多少行数据,默认只有5条。

文章太长就写到这里,《光年SEO日志分析系统》

下载地址:下载
sem一家之言推出光年SEO日志分析工具下载
为了能让SEO的分析与决策更加的科学化,我们推出了这个《光年SEO日志分析系统》。

常用的统计系统如Google Analytics等是在网页中加载一段JS代码来统计数据的。而一旦用户的网页没有打开或者浏览器不能执行JS代码,那就没有统计到这个用户的数据。所以日志分析是一个网站数据分析中的必要补充。 而且有很多的数据用JS代码是不能统计到的。如:网站上出现的各种各样的错误,搜索引擎爬虫在网站上的行为等, 而这些对SEO的分析与决策都很重要。

以下是这个软件的截图:
sem一家之言推出光年SEO日志分析工具下载

截图

下载sem一家之言推出光年SEO日志分析工具下载

《光年SEO日志分析系统》与其他的日志分析软件有什么不同呢?

1,这是第一个专门为SEO设计的日志分析软件。

以前的很多日志分析软件,都是顺带分析一下SEO方面的数据,而这个软件里面分析的每一个指标都是为SEO设计的。而且很多的分析维度,都是其他日志分析软件没有的。这能让你看到很多非常有用、但是以前获取不了的数据。

2,它能分析无限大的日志,而且速度很快。

很多的日志分析软件,在日志大于2G以后,都会越来越慢或者程序无响应。而这个软件能分析无限大的日志,并且每小时能分析完40G的日志。这对于那种需要分析几个月内的日志、以及要分析几十G的大型网站的日志都非常有帮助。

3,能自动判断日志格式。

现在很多的日志分析软件,对Nginx或者CDN日志都不支持,而且对日志记录的顺序都要格式要求。而这个软件就没有这么多的限制,它能从日志中自动检测到哪个是时间、哪个是URL、哪个是IP地址等等。

4,软件容量小、操作简单、绿色免安装版。

这个软件不会动不动就几十M,现在软件还不足1M,可以用邮件附件非常方便发出去。 软件的操作也很简单,三个步骤就可以。 还有就是软件不需要安装,是绿色免安装版。

软件的缺点:

目前因为在解决软件的效率问题上花了很多时间,所以现在日志分析的维度还太少,以后会逐步增加很多功能。还有就是数据的准确性虽然还可以,但是还有很大的改进空间。

可以在国平论坛里讨论和反馈各种信息。 http://www.gnbase.com/thread-198-1.html

QQ邮箱采集工具下载 不指定

元创 , 2010/10/10 20:04 , seo工具 , 评论(7) , 阅读(6228) , Via 本站原创

QQ邮箱采集工具-强大


QQ邮箱采集工具

关于SEO优化的软件说实在的,翻来翻去就那些,今天再弄一个QQ信箱采集工具供大家使用,界面如下:这个软件是我自己测试过的,完全可用,

只是有一个缺少,无法一次性采集N个,每次的数量是有限的;

不用安装,直接打开可以使用


下载:QQ邮箱采集工具

推广SEO人员管理考核表格

    昨天一学员问元创有没有管理编辑考核制度表,方便管理编辑,推广人员,对他们进行有效的管理奖励制度,大家都制度编辑一般是基本工资,工资没有多大提升空间,所以每天写再多的文章,也没有提成,肯定不会尽力,再这样的情况下,他想建立一个奖励制度表,只要编辑文章写的好,转载率高,点击率高等一些方面考核,通过加分制度,每月进行奖励。

  大家在做SEO,推广的时候也需要通过表格,制度来约束自己的下属来进行统一管理。

工作计划类:
  通用周工作计划.xls
  详细周报.xls
  月度硬性指标.xls
  周推广合作计划.xls

网络营销计划
  活动计划.xls
  外部营销合作.xls
  网络营销计划.xls

推广监控
  网站合作备忘录.xls
  网站友链\广告互换合作情况.xls

团队管理
  绩效考核(网站运营).xls

点击在新窗口中浏览此图片

下载文件 (已下载 1392 次)
SEO工具外链生成器-提交3000目录
SEO超强外链工具   万千外链生成器

本软件可以将你的网站提交到3000个网站目录
可以自动生成3000个外链  (如果每天打开软件 输入您的网址....,外链哗哗的,记得每天运行哟)
万千外链生成器 体积小,多线程,极速发布外链,尝试影响网站的外链存在数量

外链从此不太愁
您自己的网址还可以这样录入
如:                   www.lxysem.cn
可以是任何的目录 的html 、asp、php


下载
下载文件 (已下载 1730 次)

免费死链接检测工具下载 不指定

元创 , 2010/05/17 10:20 , seo工具 , 评论(5) , 阅读(8965) , Via 本站原创
免费死链接检测工具下载

之前有一款SEO工具,Lynx,“用Lynx去检测你的网站”,今天在介绍款检测死链接的工具

简单地讲,死链接指原来正常,后来失效的链接。死链接发送请求时,服务器返回404错误页面。

这些情况下出现死链:

动态链接在数据库不再支持的条件下,变成死链接。

网站LOG日志分析工具下载 不指定

元创 , 2010/01/21 11:13 , seo工具 , 评论(4) , 阅读(10728) , Via 本站原创
网站LOG日志分析工具下载

这个服务器LOG日志分析系统是一个能直接分析服务器LOG日志的软件。

它的操作简单,只要你把服务器产生的原始LOG日志导入软件,软件就以每秒几万行的速度分析LOG日志。分析完后自动生成各种视图。

在这些视图里可以看到网站的各种信息,有用户的访问行为;也有爬虫的访问行为;还有服务器产生的各种错误。

这个软件分析的数据是一般的网站统计系统如 Google analytics 或者其他日志分析软件如AWStats等替代不了的。

这个软件尤其适合广大SEOer。

下载文件 (已下载 1413 次)

LOG日志分析工具

SEO
分页: 3/5 第一页 上页 1 2 3 4 5 下页 最后页 [ 显示模式: 摘要 | 列表 ]