百度新首页 一人一世界
百度新首页增加了导航通知、实时热点、应用、新鲜事四大模块。其中导航通知部分包括百度自己的几个功能模块和用户曾经搜索过的网站,比如记者本人百度首页的“导航”部分就自动出现了“北京晨报”的网站。而如果你在导航部分增加了新浪微博,百度首页还会自动提醒微博粉丝数更新。
应用栏可以由用户自行添加常用的应用,目前上线应用接近20000个,包括游戏、音乐、生活、视频等六大类别。“新鲜事”板块则可以集中显示社交类网站中好友们的消息更新动态。记者也了解到,百度新首页需要用户登录之后才可体验,但只要不点击“退出”,则不必进行多次登录。这也意味着,你每次打开百度,看到的将不再是单一的首页,它会为你导航,推荐应用,通知你的朋友在微博上更新了什么。
目前,导航网站和社交网站正是国内互联网行业的热门业务,也因此,百度首页的改变也使得它显得更加“中国”,而李彦宏则表示,“实际上,在2003年推出贴吧后,百度即已经与Google分道扬镳,百度要追求更加中国化的道路。”
Windows Media Player文件
百度新首页增加了导航通知、实时热点、应用、新鲜事四大模块。其中导航通知部分包括百度自己的几个功能模块和用户曾经搜索过的网站,比如记者本人百度首页的“导航”部分就自动出现了“北京晨报”的网站。而如果你在导航部分增加了新浪微博,百度首页还会自动提醒微博粉丝数更新。
应用栏可以由用户自行添加常用的应用,目前上线应用接近20000个,包括游戏、音乐、生活、视频等六大类别。“新鲜事”板块则可以集中显示社交类网站中好友们的消息更新动态。记者也了解到,百度新首页需要用户登录之后才可体验,但只要不点击“退出”,则不必进行多次登录。这也意味着,你每次打开百度,看到的将不再是单一的首页,它会为你导航,推荐应用,通知你的朋友在微博上更新了什么。
目前,导航网站和社交网站正是国内互联网行业的热门业务,也因此,百度首页的改变也使得它显得更加“中国”,而李彦宏则表示,“实际上,在2003年推出贴吧后,百度即已经与Google分道扬镳,百度要追求更加中国化的道路。”

让Baiduspider迅速抓取网站每个页面
百度推出了很多自己的产品,仔细想想,他自己也是利用这些产品数据来更好的解决搜索服务的,百度统计,百度收藏,博客等,
下面说下如何用百度收藏来解决网站的收录问题
一个网站有很多的页面,有些页面Baiduspider可能抓取不到,这个时候怎么办呢?让这个url出现在网络上(免费发外链论坛),尽可能快得呗蜘蛛发现
如何去做?
我们可以申请一批百度账号,然后把这些页面url添加到每个账号下的百度收藏里面(如果是大量页面,百万级别的,可以开发工具来做,期待有人解决,呵呵)
用一批百度账号做收藏,是为了增加爬虫发现的几率和到达网站的几率,用百度的收藏夹,是为了解决百度爬虫的发现页面的速度和时间
做百度收藏的测试结果如下:看日志
220.181.51.210 - - [02/Sep/2011:10:03:02 -0400] "GET / HTTP/1.1" 200 83160 "-" "Baiduspider-favo+(+http://www.baidu.com/search/spider.htm)"
61.135.190.72 - - [02/Sep/2011:10:03:02 -0400] "GET / HTTP/1.1" 200 83160 "-" "Baiduspider-favo+(+http://www.baidu.com/search/spider.htm)"
ps:百度搜藏 的蜘蛛为 Baiduspider-favo
我们可以吧这个测试拓展,通过百度收藏添加更多的url,那么蜘蛛获得你网站的url的几率和数量是不是很加大很多的,增加了页面在spider的曝光率,那么收录也有可能呗解决。以上思路仅供参考,欢迎提出新方法!
文章来源地址:http://www.16ok.net/bbs/read.php?tid-14.html
百度推出了很多自己的产品,仔细想想,他自己也是利用这些产品数据来更好的解决搜索服务的,百度统计,百度收藏,博客等,
下面说下如何用百度收藏来解决网站的收录问题
一个网站有很多的页面,有些页面Baiduspider可能抓取不到,这个时候怎么办呢?让这个url出现在网络上(免费发外链论坛),尽可能快得呗蜘蛛发现
如何去做?
我们可以申请一批百度账号,然后把这些页面url添加到每个账号下的百度收藏里面(如果是大量页面,百万级别的,可以开发工具来做,期待有人解决,呵呵)
用一批百度账号做收藏,是为了增加爬虫发现的几率和到达网站的几率,用百度的收藏夹,是为了解决百度爬虫的发现页面的速度和时间
做百度收藏的测试结果如下:看日志
220.181.51.210 - - [02/Sep/2011:10:03:02 -0400] "GET / HTTP/1.1" 200 83160 "-" "Baiduspider-favo+(+http://www.baidu.com/search/spider.htm)"
61.135.190.72 - - [02/Sep/2011:10:03:02 -0400] "GET / HTTP/1.1" 200 83160 "-" "Baiduspider-favo+(+http://www.baidu.com/search/spider.htm)"
ps:百度搜藏 的蜘蛛为 Baiduspider-favo
我们可以吧这个测试拓展,通过百度收藏添加更多的url,那么蜘蛛获得你网站的url的几率和数量是不是很加大很多的,增加了页面在spider的曝光率,那么收录也有可能呗解决。以上思路仅供参考,欢迎提出新方法!
文章来源地址:http://www.16ok.net/bbs/read.php?tid-14.html
百度排名原来如此简单
昨天看到百度统计,有朋友搜索SEO进入我的博客,我一搜原来在百度倒数第二页,在仔细一看其他网站都是之前在首页或者第二页排名过得一些SEO网站。
但其他关键词排名还是正常的,所以如果遇到某个关键词排名消失了,需要看看是不是网站的问题,如果网站收录,快照,其他关键词排名都正常,网站就没什么问题,如果其他关键词排名也消失了,需要找原因,肯定是自己的问题,不是搜索引擎的问题。
我之间分析过一个网站(。外贸童装批发网被降权原因分析),大家可以按照我的方法去分析,肯定是可以找到网站排名下降的原因
其他不说了,你懂的。。上图!



昨天看到百度统计,有朋友搜索SEO进入我的博客,我一搜原来在百度倒数第二页,在仔细一看其他网站都是之前在首页或者第二页排名过得一些SEO网站。
但其他关键词排名还是正常的,所以如果遇到某个关键词排名消失了,需要看看是不是网站的问题,如果网站收录,快照,其他关键词排名都正常,网站就没什么问题,如果其他关键词排名也消失了,需要找原因,肯定是自己的问题,不是搜索引擎的问题。
我之间分析过一个网站(。外贸童装批发网被降权原因分析),大家可以按照我的方法去分析,肯定是可以找到网站排名下降的原因
其他不说了,你懂的。。上图!
如何做SEO项目管理
现在越来越多的企业重视SEO,SEO在中国的发展也如火如荼的,那么很多SEO产品经理或者SEOER都很郁闷的是SEO项目推行不下去。虽然很多公司开始重视,要么外包给专业的SEO公司,要么成立专业的SEO团队(类似阿里巴巴是由小鹏带领着的SEO团队)要么是由产品经理来担任,但目前是很多公司缺少的一个环节,那么今天就来谈谈如何做好SEO项目
人员配置:
1.SEO负责
2.产品经理
3.UI美工
由SEO担任项目经理制定整个项目的plan,包括这一年需要做什么工作,目标是什么,需要达到什么目标,运用灵活的计划来管理参与的人数,项目时间表。
由产品经理根据项目Plan来设计整个产品的架构,融合SEO元素,包括H1,Pagetitle,keywords,等等各方面的元素,并且负责项目的框架图,考虑好UE用户体验,然后提交给UI来进行设计,并预留好开发时间。
由SEO项目经理来检查整个项目的完成质量,并且进行数据分析统计,查询网站是否达到预期的目的
整个项目流程就是如此,如果还有什么没有考虑全面的地方,请赐教,谢谢
现在越来越多的企业重视SEO,SEO在中国的发展也如火如荼的,那么很多SEO产品经理或者SEOER都很郁闷的是SEO项目推行不下去。虽然很多公司开始重视,要么外包给专业的SEO公司,要么成立专业的SEO团队(类似阿里巴巴是由小鹏带领着的SEO团队)要么是由产品经理来担任,但目前是很多公司缺少的一个环节,那么今天就来谈谈如何做好SEO项目
人员配置:
1.SEO负责
2.产品经理
3.UI美工
由SEO担任项目经理制定整个项目的plan,包括这一年需要做什么工作,目标是什么,需要达到什么目标,运用灵活的计划来管理参与的人数,项目时间表。
由产品经理根据项目Plan来设计整个产品的架构,融合SEO元素,包括H1,Pagetitle,keywords,等等各方面的元素,并且负责项目的框架图,考虑好UE用户体验,然后提交给UI来进行设计,并预留好开发时间。
由SEO项目经理来检查整个项目的完成质量,并且进行数据分析统计,查询网站是否达到预期的目的
整个项目流程就是如此,如果还有什么没有考虑全面的地方,请赐教,谢谢
搜索引擎会对网站重复内容降权呢?
重复的内容已成为搜索引擎优化的一个巨大话题近来,由于新的过滤器,搜索引擎已经实施。我们也会告诉您如何您可以判断如果您的网页中有重复的内容,以及如何解决它。
首先,我们必须明白,即“重复内容的惩罚” ,实际上是用词不当。当我们提及的惩罚搜索引擎排名,我们实际上是谈论点,扣除从一个网页,以便到一个总体的相关性评分。但在现实中,重复的内容网页上不受惩罚。相反,他们仅仅是过滤的方式,你会使用一个筛子,消除不必要的粒子。有时候, “良好的粒子”是不小心过滤掉。
推一把了解之间的差别过滤器和处罚,现在您可以了解如何搜索引擎判断是重复的内容。基本上有四种类型的重复内容的过滤掉:
1.网站具有相同的网页
这些网页被认为是重复的,以及网站中有相同的另一网站在互联网上也被视为SPAM。联盟网站以同样的外观和感觉其中包含相同的内容,例如,特别容易受到重复的内容过滤器。另一个例子是一个网
站与入口网页。然而,这些目标网页是相同的其他目标网页。一般而言,入口网页的目的是用于垃圾邮件的搜索引擎,以操纵搜索引擎结果。
2.抄袭内容
抄袭内容是内容从一个网站和包装使其看起来不同,但在本质上它只不过是重复的网页。随着人气的博客在互联网上和联合这些博客,越来越成为一个问题的搜索引擎。
3.电子商务产品说明
许多电子商务网站有使用制造商的说明的产品,其中数百或数千的其他电子商务商店在同一个竞争激烈的市场上使用的是太多。 这重复的内容,而难以发现,仍然被视为SPAM。
4.发布的文章
如果你发布的文章,得到很好的转载,这是很好的,对不对?不一定所有的网站,功能相同的文章。这种类型的重复的内容可棘手的,因为尽管雅虎和MSN确定来源的原始文件,并认为它最相关的搜索结果中,其他搜索引擎像谷歌可能不会,根据一些专家。
因此,如何搜索引擎的重复内容过滤器的工作?从本质上讲,当一个搜索引擎机器人抓取的网站,它的网页内容,并存储的信息在其数据库。然后,比较其结果的其他资料已在其数据库。这取决于几个因素,如整体评分的相关网站,然后确定哪些是重复的内容,然后过滤掉的网页或网站,SPAM。不幸的是,如果您的网页是不是SPAM,但有足够的类似内容,他们仍然可能被视为SPAM。
有几件事你能做,以避免重复的内容过滤器。首先,你必须能够检查网页的重复内容。
既然你需要知道哪些网站可能是模仿您的网站或网页,您将需要一些帮助。我们建议使用一种工具,搜索复制的网页在互联网上:在这里,您可以把您的网页网址找到复制品您的网页在互联网上。这可以帮助您创建独特的内容,甚至是解决这个问题的人“借”的内容未经您的许可。
让我们看看这个问题就有些搜索引擎可能不会考虑的来源从原来的内容分发条款。请记住,一些搜索引擎,像谷歌使用链接流行度,以确定最相关的结果。继续建立您的链接流行度,找到多少其他网站有相同的文章,如果允许的话,您可以改变的文章,成为独特的内容。
如果您使用分发的条款内容,考虑如何有关的文章是您的整体网页,然后到作为一个整体。有时候,简单地增加自己的评论文章就足以避免重复内容过滤器。
如果您有电子商务网站,你应该给你的产品写原始说明。这可能是很难做到。如果你有很多产品,但它确实是必要的。如果你想避免重复内容过滤器。
重复的内容已成为搜索引擎优化的一个巨大话题近来,由于新的过滤器,搜索引擎已经实施。我们也会告诉您如何您可以判断如果您的网页中有重复的内容,以及如何解决它。
首先,我们必须明白,即“重复内容的惩罚” ,实际上是用词不当。当我们提及的惩罚搜索引擎排名,我们实际上是谈论点,扣除从一个网页,以便到一个总体的相关性评分。但在现实中,重复的内容网页上不受惩罚。相反,他们仅仅是过滤的方式,你会使用一个筛子,消除不必要的粒子。有时候, “良好的粒子”是不小心过滤掉。
推一把了解之间的差别过滤器和处罚,现在您可以了解如何搜索引擎判断是重复的内容。基本上有四种类型的重复内容的过滤掉:
1.网站具有相同的网页
这些网页被认为是重复的,以及网站中有相同的另一网站在互联网上也被视为SPAM。联盟网站以同样的外观和感觉其中包含相同的内容,例如,特别容易受到重复的内容过滤器。另一个例子是一个网
站与入口网页。然而,这些目标网页是相同的其他目标网页。一般而言,入口网页的目的是用于垃圾邮件的搜索引擎,以操纵搜索引擎结果。
2.抄袭内容
抄袭内容是内容从一个网站和包装使其看起来不同,但在本质上它只不过是重复的网页。随着人气的博客在互联网上和联合这些博客,越来越成为一个问题的搜索引擎。
3.电子商务产品说明
许多电子商务网站有使用制造商的说明的产品,其中数百或数千的其他电子商务商店在同一个竞争激烈的市场上使用的是太多。 这重复的内容,而难以发现,仍然被视为SPAM。
4.发布的文章
如果你发布的文章,得到很好的转载,这是很好的,对不对?不一定所有的网站,功能相同的文章。这种类型的重复的内容可棘手的,因为尽管雅虎和MSN确定来源的原始文件,并认为它最相关的搜索结果中,其他搜索引擎像谷歌可能不会,根据一些专家。
因此,如何搜索引擎的重复内容过滤器的工作?从本质上讲,当一个搜索引擎机器人抓取的网站,它的网页内容,并存储的信息在其数据库。然后,比较其结果的其他资料已在其数据库。这取决于几个因素,如整体评分的相关网站,然后确定哪些是重复的内容,然后过滤掉的网页或网站,SPAM。不幸的是,如果您的网页是不是SPAM,但有足够的类似内容,他们仍然可能被视为SPAM。
有几件事你能做,以避免重复的内容过滤器。首先,你必须能够检查网页的重复内容。
既然你需要知道哪些网站可能是模仿您的网站或网页,您将需要一些帮助。我们建议使用一种工具,搜索复制的网页在互联网上:在这里,您可以把您的网页网址找到复制品您的网页在互联网上。这可以帮助您创建独特的内容,甚至是解决这个问题的人“借”的内容未经您的许可。
让我们看看这个问题就有些搜索引擎可能不会考虑的来源从原来的内容分发条款。请记住,一些搜索引擎,像谷歌使用链接流行度,以确定最相关的结果。继续建立您的链接流行度,找到多少其他网站有相同的文章,如果允许的话,您可以改变的文章,成为独特的内容。
如果您使用分发的条款内容,考虑如何有关的文章是您的整体网页,然后到作为一个整体。有时候,简单地增加自己的评论文章就足以避免重复内容过滤器。
如果您有电子商务网站,你应该给你的产品写原始说明。这可能是很难做到。如果你有很多产品,但它确实是必要的。如果你想避免重复内容过滤器。
百度知道优化规则
推一把根据百度知道目前的规则,可以允许大量同类的问题出现,所以,同一关键词,会有大量的百度知道的网页存在。
百度有自己的原则,主要有以下三点:
1. 关键词的相关性以及关键词的分布和密度。
2. 问题被推荐的次数。
3. 外链。
先说第一点:关键词的相关性以及关键词的分布和密度。
相关性很容易理解,比如你搜索“那种减肥药最有效?”,那么,百度给出的搜索结果肯定和减肥药相关。但是,除了关键词相关之外,如果在问题中又多次出现减肥药这个关键词,那么,这样的百度知道网页就更容易获得更好的排名了。当然,有一个前提,关键词一定要在问题标题中出现才会更有效果。
再说第二点:问题被推荐的次数
问题一旦有了最佳答案,那么,用户在访问这些问题时,如果觉得某问题对TA很有帮助,TA可能会去点最佳答案左下角的那个小手。如果那个小手被点击的次数多了,这就说明这个问题对于用户来说很有价值。既然有价值,百度就没有理由不把这个网页排到最前面,甚至是第一名。
还有第三点:外链
外链对于排名的作用看似不大,但是,如果有两个百度知道的网页,上述两个条件都差不多,这时候,外链就改发生作用了。一般的,如果是自问自答做百度推广,我们可以利用百度贴吧和百度空间适当给百度知道网页增加一些外链。
除此之外,我们还可以将那些很有用的百度知道网页内容分享到我们的微博或贴吧里,甚至还可以进行评论,对于这些社会化的网络工具,我想也许有一天百度也会考虑到排名因素之中去,但目前看来,好像作用不大。
推一把根据百度知道目前的规则,可以允许大量同类的问题出现,所以,同一关键词,会有大量的百度知道的网页存在。
百度有自己的原则,主要有以下三点:
1. 关键词的相关性以及关键词的分布和密度。
2. 问题被推荐的次数。
3. 外链。
先说第一点:关键词的相关性以及关键词的分布和密度。
相关性很容易理解,比如你搜索“那种减肥药最有效?”,那么,百度给出的搜索结果肯定和减肥药相关。但是,除了关键词相关之外,如果在问题中又多次出现减肥药这个关键词,那么,这样的百度知道网页就更容易获得更好的排名了。当然,有一个前提,关键词一定要在问题标题中出现才会更有效果。
再说第二点:问题被推荐的次数
问题一旦有了最佳答案,那么,用户在访问这些问题时,如果觉得某问题对TA很有帮助,TA可能会去点最佳答案左下角的那个小手。如果那个小手被点击的次数多了,这就说明这个问题对于用户来说很有价值。既然有价值,百度就没有理由不把这个网页排到最前面,甚至是第一名。
还有第三点:外链
外链对于排名的作用看似不大,但是,如果有两个百度知道的网页,上述两个条件都差不多,这时候,外链就改发生作用了。一般的,如果是自问自答做百度推广,我们可以利用百度贴吧和百度空间适当给百度知道网页增加一些外链。
除此之外,我们还可以将那些很有用的百度知道网页内容分享到我们的微博或贴吧里,甚至还可以进行评论,对于这些社会化的网络工具,我想也许有一天百度也会考虑到排名因素之中去,但目前看来,好像作用不大。
如何解决BO-BLOG中文TAG出错,点击出现404错误

终于解决了BO-BLOG中文TAG出错的问题,点击再也没有出现404错误。
具体症状:
博客开启URL优化之后,博客的所有中文tag点击之后,会出现404错误,但是点击英文tag是正常的,我关闭URL优化之后,不管中文,英文tag都可以正常访问。
问题解决经过:
先是在网上找了好一通,看有没有人和我一样的症状,并且想找到解决方案。但是,让我失望的是,虽然找到了同病相怜的人,但没找到对症下药的方子。
没办法,只能自己琢磨了。尽管过程很曲折【此处省略1万字】,但还是让我找到了解决问题的方法,具体如下:
1. 先找到BO-BLOG目录下的inc文件夹,点开并找到url.php文件。
2. 打开url.php文件,找到下面的代码:
function getlink_tags ($tagname, $mode=null, $page=null) {
if (URLRewrite==1) $outurl="go.php/tags/{$tagname}/";
elseif (URLRewrite==2) $outurl="tags/{$tagname}/";
else $outurl="tag.php?tag={$tagname}";
if (!is_null($mode)) {
$outurl.=(URLRewrite>=1) ? "{$mode}/" : "&mode={$mode}";
}
if (!is_null($page)) {
$outurl.=(URLRewrite>=1) ? "{$page}/" : "&page={$page}";
}
return $outurl;
说明一下:这段代码就是控制URL优化前后的TAG网址的编码规则。
3. 将第2行和第3行代码改成:
if (URLRewrite==1) $outurl="tag.php?tag={$tagname}";
elseif (URLRewrite==2) $outurl="tag.php?tag={$tagname}";
4. 最后将文件保存,上传服务器。测试,搞定,一切OK!!
终于解决了BO-BLOG中文TAG出错的问题,点击再也没有出现404错误。
具体症状:
博客开启URL优化之后,博客的所有中文tag点击之后,会出现404错误,但是点击英文tag是正常的,我关闭URL优化之后,不管中文,英文tag都可以正常访问。
问题解决经过:
先是在网上找了好一通,看有没有人和我一样的症状,并且想找到解决方案。但是,让我失望的是,虽然找到了同病相怜的人,但没找到对症下药的方子。
没办法,只能自己琢磨了。尽管过程很曲折【此处省略1万字】,但还是让我找到了解决问题的方法,具体如下:
1. 先找到BO-BLOG目录下的inc文件夹,点开并找到url.php文件。
2. 打开url.php文件,找到下面的代码:
function getlink_tags ($tagname, $mode=null, $page=null) {
if (URLRewrite==1) $outurl="go.php/tags/{$tagname}/";
elseif (URLRewrite==2) $outurl="tags/{$tagname}/";
else $outurl="tag.php?tag={$tagname}";
if (!is_null($mode)) {
$outurl.=(URLRewrite>=1) ? "{$mode}/" : "&mode={$mode}";
}
if (!is_null($page)) {
$outurl.=(URLRewrite>=1) ? "{$page}/" : "&page={$page}";
}
return $outurl;
说明一下:这段代码就是控制URL优化前后的TAG网址的编码规则。
3. 将第2行和第3行代码改成:
if (URLRewrite==1) $outurl="tag.php?tag={$tagname}";
elseif (URLRewrite==2) $outurl="tag.php?tag={$tagname}";
4. 最后将文件保存,上传服务器。测试,搞定,一切OK!!