ZAC:如何隐藏内容也可能成为SEO问题

一般来说,尽量让搜索引擎抓取和索引更多内容是SEO们经常头疼的一个问题,没有收录、索引就无从谈排名。尤其对达到一定规模的网站来说,使网站充分收录是个颇令人费神的SEO技术,当页面达到比如说几十万,无论网站架构怎么设计、多么优化,100%收录都是不可能的,只能尽量提高收录率。

但有时候怎么阻止搜索引擎收录也可能成为一个问题,最近越来越成为问题。需要阻止收录的情况如保密信息、复制内容、广告链接等。过去常用的阻止收录方法包括密码保护、把内容放在表格后面、使用JS/Ajax、使用Flash等。今天看到Google网管博客一篇文章,这些方法都不保险。

使用Flash
Google几年前就开始尝试抓取Flash内容了,简单文字性内容已经能抓取。Flash里面的链接也能被跟踪。

表格
Google蜘蛛也能填表,也能抓取POST请求页面。这个早就能从日志中看到。

JS/Ajax
使用JS链接一直以来被当作不搜索引擎友好的方法,因此可以阻止蜘蛛爬行,但两三年前我就看到JS链接不能阻止Google蜘蛛抓取,不仅JS中出现的URL会被爬,简单的JS还能被执行找到更多URL。

前几天有人发现很多网站使用的Facebook评论插件里的评论被爬、被收录,插件本身是个AJAX。这是个好消息。我的一个实验电子商务网站产品评论功能就因为这个费了不少心思,用Facebook comments插件好处大大的,具体什么好处以后有时间再说,唯一的问题就是评论是AJAX实现的,不能被抓取,而产品评论被收录是目的之一(产生原创内容)。我当时想了半天也没有解决方法,只好先傻傻地既放上Facebook comments插件又打开购物车本身的评论功能。现在好了,Facebook comments里的评论能被收录,就不用两套评论功能了。

Robots文件
目前唯一确保内容不被收录的方法是robots文件禁止。但也有个坏处,会流失权重,虽然内容是不能收录了,但页面成了只接受链接权重、不流出权重的无底洞。

Nofollow
Nofollow并不能保证不被收录。就算自己网站所有指向页面的链接都加了NF,也不能保证别人网站不给这个页面弄个链接,搜索引擎还是能发现这个页面。

Meta Noindex + Follow
(11月3日补充)读者no1se提醒,为防止收录又能传递权重,可以在页面上使用meta noindex和 meta follow,这样页面不收录,但能流出权重。确实如此,也是个比较好的方法。也有一个问题,还是会浪费蜘蛛爬行时间。哪位读者有能防止收录、又没有权重流失、又不浪费爬行时间的方法,请留言,对SEO界功德无量。

怎样使页面不被收录是个值得思考的问题,没意识到严重性的童鞋可以想想自己网站上有多少复制内容、低质量内容、各种无搜索价值(但用户觉得方便、有用所以又不能拿掉)的分类、过滤URL。网络营销培训
谷歌更新搜索算法 自动检测排除停放的域名

据外媒报道,谷歌日前已经更新了其十二月份的搜索算法,其中最显著的一个变化是,谷歌表示它将把停放的域名排除在搜索索引之外,而一个新的算法将被用于检测停放的域名。

在谷歌官方博客中,谷歌搜索项目主管斯科特·霍夫曼(Scott Huffman)表示谷歌已经开始每月针对其搜索算法和布局推出一系列更新,并且计划继续披露这些变化的具体细节,使搜索更加透明化。霍夫曼称,自11月14日起,谷歌就已经制定了一个关于“停放的域名”的分类,这是一个用于自动检测停放的域名的新算法,由于停放的域名指向的是一些鲜有用处且往往被广告填满的站点,很少对用户提供有价值的内容,所以在大多数情况下,谷歌宁愿不向用户展示出来。

过去常常有很多停放的页面被索引,这给域名所有者在type-in流量和旧链外传递了很多额外的流量,谷歌近几年显然意识到这一点,并采取了相应的措施。

除此之外,谷歌也正在寻找克隆的网站,以更好地辨别原始素材。有关图片和博客搜索,谷歌此次也调整了算法来提高展示内容的新鲜度。谷歌还调整了它在网页搜索上的格式,使一台主机上显示较少的结果,自动完成结果也得到了改善.

Google质量评估员哪些事 不指定

元创 , 2011/12/01 15:26 , 随笔杂谈 , 评论(2) , 阅读(5087) , Via 本站原创
Google质量评估员哪些事

zac博客最近更新比较频繁,这篇文章比较有意思,转载过来了!

原文

-------------------------------------------------------------------------------------------------------

数年前就流传出过Google质量评估指南(Google Quality Rater Guidelines),10月份又从一位名为PotPieGirl的博客上流出了最新版本。Google已经联系了PotPieGirl要求不要传播此文件,所以PotPieGirl的博客上已经没有下载链接,不过需要的读者搜一下还是能找到的。

Google质量评估指南是Google发给质量评估员的手册,告诉评估员们该怎么评估页面与搜索词的相关性及质量。不用解释了,这文件对SEO们肯定有用处,这是Google官方对页面质量的详细说明。过几天有时间把里面的主要内容翻译一下。今天要说的不是这个。

比这个文件本身更让我感兴趣的是这些质量评估员们是怎么回事,他们是什么人?怎样评估网站?PotPieGirl前两天又发了一个帖子,介绍了她所了解的评估员情况。原帖很长,但很有意思,建议懂英文的直接看原文。下面是要点介绍。

质量评估员从哪来的?

Google质量评估员并不是Google直接聘用的。质量评估员是受聘于第三方公司的,职位名称也不同,并不叫“Google质量评估员”。职位不是全职,是合同制或兼职性质的,所以很多是主妇、无业人员、学生等。不是在公司工作,是自己在家完成质量评估工作。有活时,聘用公司就发给评估员工作,每星期工作大概10-20小时,每小时薪水12-15美元。

应聘人员需要通过考试。考试分两部分,一部分是24道路论题,另一部分是270道实践题。

质量评估员只能工作一年。一年到期要间隔3个月才能申请重新这个工作。

质量评估员们属于普通用户,不是网络营销人员,也不是SEO,并不像我们那样了解搜索引擎,他们是从普通、正常用户角度评估的。全球各地都有质量评估员,讲什么语言的都有。我认识几个做过Google质量评估员,都不是国内的,不知国内有没有做这个工作的?

质量评估员干点啥?

质量评估员做两种测试评估。一种是给一个搜索词和一个URL,评估URL对搜索词的相关性。评估员也可以把页面标为spam或者写评语。

另一种是给评估员两个搜索结果页面(同一个搜索词的),让评估员判断哪个结果更好。Google算法修改时都经过测试,这就是测试的其中一步。有时间再写写Google算法修改的过程。

评估员需要达到的业绩

基本上评估员们自己也不知道每小时该完成多少评估题目。据透露的一些信息,第一种测试项目(搜索词/URL那种)需要每小时做30个以上,第二种(两套搜索结果那种)要每小时做20个。

问题就来了。评估员怎么在两分钟里判断一个页面的相关性和质量?

第二种测试就更困难,怎么在3分钟里判断10-20个页面质量?这是不可能的。所以很多评估员只是根据搜索结果里的页面描述判断,根本没有访问页面。

评估员的评分会影响一个页面的排名吗?

不能直接影响。评估员的评估不会用来改变页面排名。工程师从评估员的评估数据看到某种趋势时,修改算法。

SEO从中学到什么?

评估员们都是普通用户,他们也不一定有时间真的看内容,真看也不一定看得懂,毕竟他们不可能是所有领域的专家,所以第一印象很重要。页面首先看着顺眼就可能被认为是高质量的。难看的页面,谁还管你内容呢..

页面描述标签能写就自己写,写的与内容标题相关。不要在这堆积关键词


如何判断Baiduspider的真假? 不指定

元创 , 2011/12/01 14:56 , SEO策略 , 评论(3) , 阅读(5255) , Via 本站原创
如何判断Baiduspider的真假?

目前中文互联网上有少量spider冒充Baiduspider抓取网页,周六madcon会上,发现很多同学不知道如何判断Baiduspider的真假,再次说明一下:

中文互联网上,Baiduspider ip的hostname以 *.baidu.com的格式命名,非 *.baidu.com即为冒充,建议您使用DNS反查方式来确定抓取来源的ip是否属于百度。

例如,在linux平台下,您可以使用host ip命令反解ip来判断是否来自Baiduspider的抓取。
$ host 123.125.66.120
120.66.125.123.in-addr.arpa domain name pointer
baiduspider-123-125-66-120.crawl.baidu.com.

在windows平台下,可以用nslookup命令反解ip来判断是否来自Baiduspider的抓取。

点击“开始”-“运行”-“cmd”-“输入nslookup IP地址”-“回车”
C:\Documents and Settings\wangtao>nslookup 123.125.66.120

Name: baiduspider-123-125-66-120.crawl.baidu.com
Address: 123.125.66.120

详请参考:
http://www.baidu.com/search/spider_chinese.html

PS:Baiduspider绝对不会以匿名的方式抓取网页。

备注:本文来自百度站长俱乐部
百度最后三页的搜索結果,你关注过吗?

http://www.baidu.com/s?wd=seo&pn=750&usm=3

在百度SEO搜索結果的第76頁,你是不是发现曾经很多熟悉的网站?

一般來说,如果一个网站曾经在百度首页很风光,然后突然沒有了排名,可以到最后几页看看!

这个话题是在 BSG SEO 论坛看到的,大家可以谈谈!
优化网页加载速度 提升网站收录

1.网页加载时间 = html页面加载时间 + js加载时间 + css加载时间 + 图片加载时间
当然有些部分会同步加载,这里只是个粗略的公式,但大体的方向是这样。    
很直接的你就会想到,减少http请求数不就能提高加载速度  

A.网站日志数据分析展示(这里的数据全部是出自我以前负责的B2C网站日志和网络测速,日志分析是网站优化的基础,所以学会网站日志分析很关键。)  
从网站日志的相关文件可以看出,搜索引擎抓取一个页面的时间耗费的太长,这个也是影响收录量的一个很关键也是很基础的问题。
  
B.网站加载时间  
这个问题带来的问题和上面的一样,****单首页的加载时间在26~29秒,走秀网首页加载时间为12秒左右,新蛋的是9~11秒,京东的在21秒左右,经过几次测试可以看出影响易斯来福网站加载速度的原因主要有以下几点:  
1.首页文件有190多个,90%是图片而且目前是放在一个服务器,这就导致网站在打开的时候图片需要按照顺序下载,同时也增加了大量的HTTP请求,HTTP 请求数对网站的工作性能有较大关联。如果背景图分开存放,每一次调用都会产生 HTTP 请求,一定程度上增加了服务器的负担,

解决方案:  
目前网站加载速度过慢的原因:减少HTTP请求数  
减少http请求数的方法:    
1.JS,CSS,HTML 做gzip压缩 1.不要对img进行Gzip压缩
    
2.JS.CSS脚本文件优化 1.删除js,css文件的注释 2.Javascript放置底部:避免阻塞下载 3.CSS放到header中:避免白屏 4.合并JS和CSS 5.压缩JS和CSS  

3.精简HTML  去掉HTML注释,回车符,以及无效字节

4.优化img文件

4.1.IMG注明:width,height  在img标签中指定尺寸是为了提升浏览器渲染效率。

4.2.写入img: 第一时间显示logo图和背景,避免空白和无背景{google代码

4.3.预处理{google代码

5.优化缓存:对没有变化的css,js,图片等网页元素,直接利用客户端的浏览器缓存读取来有效减少http请求数。

6.通过增加expires header可以告诉浏览器,那些网页元素可以缓存和缓存多长时间 。  

7.合并网站图标采用CSS sprites技术来实现,而且css sprites有两个好处:
  
7.1.CSS Sprites 能较少 HTTP 请求次数。 在没有采用CSS Sprites技术的网站,打开一个网站,网站上有多少图片就要像服务器发送多少次HTTP请求,而单个背景图的设计方法,只需请求一次即可取回背景图片。
  
7.2.CSS Sprites 能防止背景图片延迟加载。在点击以图片作背景的按钮时会发现,鼠标悬停的时刻才会触发浏览器下载背景图片,这是非常差劲的用户体验。但如果将图片存放与单个文件,就能避免延迟加载。因为在打开网页的首次请求中,图片已经加载完毕。   很多大型网站,包括google,雅虎,新浪,淘宝,阿里巴巴等,都采用了 CSS Sprites 技术。 使用CSSSprites单个图片文件存放的方法会降低可维护性。而且图片的定位比较繁琐,缺乏灵活性,同时也增加了图片的体积。但是在追求性能的前提下,CSS Sprites 是值得推广的网页设计方法。
    
7.3.CSS Sprites技术文档和案例:  
技术文档:http://baike.baidu.com/view/2173476.htm  
             http://paranimage.com/css-sprites-guidelines/  
  
8.把脚本和图片放在不同的服务器和域名,做成并行下载。目前国内大型门户和电子商务网站都是采用的这样的技术。  
可以把图片(JS,CSS)文件分别放置在{img1.url.com,img2.url.com,img3.url.com}这样的多个二级域名多个服务器下,这样就可以让网站在加载的时候就可以并行下载图片和脚本文件了。这样也可以减少dns查询次数,一次域名解析通常需要20—120毫秒。减少域名使用数量可以减少dns解析所花的时间,每个域名有并行下载数的限制,yahoo建议使用2-4个域名以获取dns解析时间与并行下载数的平衡。  

淘宝基本每个频道都有独立的并行下载服务器,这主要原因是因为淘宝图片文件太多的缘故。  
  
9.在日志数据里面有大量的图片目录是被搜索引擎反复爬取和抓取征用大量的时间和抓取量,屏蔽到这些无用的目录是为了让搜索引擎蜘蛛去爬取其他的文章目录,增加收录量。(robots.txt+nofollow)

Ps:写的比较基础,中间有些错漏的地方希望大家多拍砖~!
光年外部链接查询挖掘系统免费版下载!

虽然雅虎的淡出,我们无法查询外链了,但现在这款工具可以帮大家查询外链!

但此软件比较大。。。。

需要下载后安装!之前的光年日志分析工具,很不错,受到大家的热捧!

这款是国平公司开发的,分为收费版和免费版,有能力的同学可以购买收费版!

引用原文:

很多中小网站在做SEO的过程中,都比较重视外部链接(站外链接),所以都设有大量的外部链接人员。他们每天都花费了大量的重复劳动在给网站做外部链接。这种依靠人力去查找和分析外部链接的工作效率是很低的。其实这种工作用机器也可以完成,只要软件设计得比较科学就可以。

经过长期的实践,我们开发出了《光年外部链接挖掘系统》,这个软件可以代替绝大部分人工来给网站做优质的外部链接。

软件的主要原理是先去互联网上抓取大量的网页,并用这个软件去分析这些网页,然后批量挑选出那种适合给网站做外部链接的网页;然后再用一些批量做外部链接的工具在这些网页上留下你的URL。

点击在新窗口中浏览此图片
软件截图


软件分为免费版和正式版,免费版只是起到一个演示界面的作用,目前并没有什么实用的功能,以后会逐步放开一些功能。(每当正式版开发出更多的功能,免费版才放开一些功能,免费版以后会越来越有用。)

免费版下载地址:

http://115.com/file/bhus3fae


国平博客地址:http://www.semyj.com/archives/1981
雅虎外链查询功能于11月21号正式关闭

之前发布的:2011最新yahoo外链查询工具 ,也不能用了,请大家注意哈!

点击在新窗口中浏览此图片
雅虎在其搜索博客上发表了一项声明,宣布广大站长经常使用的雅虎外链查询工具Yahoo Site Explorer将于2011年11月21日之后关闭。全文如下:

With the completion of algorithmic transition to Bing, Yahoo! Search has merged Site Explorer into Bing Webmaster Tools. Webmasters should now be using the Bing Webmaster Tools to ensure that their websites continue to get high quality organic search traffic from Bing and Yahoo!Site Explorer services will not be available from November 21,2011.

路人丙翻译:

随着算法完全转移到Bing,雅虎搜索已经将Site Explorer整合到Bing管理员工具中。广大站长现在可以利用Bing管理员工具来确保他们的网站可以继续获得来自Bing和雅虎的高质量的搜索流 量。Site Explorer 服务将于2011年11月21日之后停止。

路人丙点评:

Yahoo Site Explorer对于我们这些SEO来说,几乎是每天必用的工具之一,现在它即将寿终正寝,我们在不舍的说“ByeBye”之余,应该清醒的为它寻找一个 替代品。外链分析是SEO必做功课之一,而一款像Yahoo Site Explorer这样优秀的外链分析工具必须具备的基本条件是:外链数据收集广泛,更新速度快,数据类型多样,更重要的是,要像Yahoo Site Explorer一样完全免费。笔者使用过不少外链分析工具或者在线外链分析网页,要么是数据单一,要么是数据量太小,更为纠结的是,很多不错的分析工具 都有限制,必须付费才能解除限制,对于笔者这种习惯了免费的家伙来说,实在不喜欢被逼迫着去付费。

各位读者如果有觉得好用的外链分析工具,不妨留言告知路人丙,在此先行谢过。
分页: 22/130 第一页 上页 17 18 19 20 21 22 23 24 25 26 下页 最后页 [ 显示模式: 摘要 | 列表 ]