<?xml version="1.0" encoding="UTF-8" ?>
<rss version="2.0">
<channel>
<title><![CDATA[北京SEO_北京SEO培训 - 【元创SEO】]]></title> 
<link>http://www.yuan-chuang.cc/index.php</link> 
<description><![CDATA[元创拥有10多年网络营销和SEO实战经验、管理经验。 《SEO实战 - 核心技术、优化策略、流量提升》一书作者。SEO实战家、推一把联合创始人]]></description> 
<language>zh-cn</language> 
<copyright><![CDATA[北京SEO_北京SEO培训 - 【元创SEO】]]></copyright>
<item>
<link>http://www.yuan-chuang.cc/read.php/134.htm</link>
<title><![CDATA[如何使用robots.txt？如何设置robots.txt？]]></title> 
<author> &lt;&gt;</author>
<category><![CDATA[SEO知识库]]></category>
<pubDate>Thu, 05 Feb 2009 06:06:14 +0000</pubDate> 
<guid>http://www.yuan-chuang.cc/read.php/134.htm</guid> 
<description>
<![CDATA[ 
	<strong>如何使用robots.txt？如何放置Robots.txt文件 </strong><br/><br/>robots.txt 文件对抓取网络的搜索引擎漫游器（称为漫游器）进行限制。这些漫游器是自动的，在它们访问网页前会查看是否存在限制其访问特定网页的 robots.txt 文件。如果你想保护网站上的某些内容不被搜索引擎收入的话，robots.txt是一个简单有效的工具。这里简单介绍一下怎么使用它。<br/>如何放置Robots.txt文件<br/>robots.txt自身是一个文本文件。它必须位于域名的根目录中并 被命名为"robots.txt"。位于子目录中的 robots.txt 文件无效，因为漫游器只在域名的根目录中查找此文件。例如，http://www.example.com/robots.txt 是有效位置，http://www.example.com/mysite/robots.txt 则不是。<br/>这里举一个robots.txt的例子:<br/>User-agent: *<br/>Disallow: /cgi-bin/<br/>Disallow: /tmp/<br/>Disallow: /~name/<br/>使用 robots.txt 文件拦截或删除整个网站[/b] [/b]<br/>要从搜索引擎中删除您的网站，并防止所有漫游器在以后抓取您的网站，请将以下 robots.txt 文件放入您服务器的根目录：<br/>User-agent: *<br/>Disallow: /<br/>要只从 Google 中删除您的网站，并只是防止 Googlebot 将来抓取您的网站，请将以下 robots.txt 文件放入您服务器的根目录：<br/>User-agent: Googlebot<br/>Disallow: /<br/>每个端口都应有自己的 robots.txt 文件。尤其是您通过 http 和 https 托管内容的时候，这些协议都需要有各自的 robots.txt 文件。例如，要让 Googlebot 只为所有的 http 网页而不为 https 网页编制索引，应使用下面的 robots.txt 文件。<br/>对于 http 协议 (http://yourserver.com/robots.txt): <br/>User-agent: *<br/>Allow: /<br/>对于 https 协议 (https://yourserver.com/robots.txt):<br/>User-agent: *<br/>Disallow: /<br/>允许所有的漫游器访问您的网页 <br/>User-agent: *<br/>Disallow:<br/>(另一种方法: 建立一个空的 "/robots.txt" 文件, 或者不使用robot.txt。)<br/>使用 robots.txt 文件拦截或删除网页[/b]<br/>您可以使用 robots.txt 文件来阻止 Googlebot 抓取您网站上的网页。 例如，如果您正在手动创建 robots.txt 文件以阻止 Googlebot 抓取某一特定目录下（例如，private）的所有网页，可使用以下 robots.txt 条目： <br/>User-agent: Googlebot<br/>Disallow: /private要阻止 Googlebot 抓取特定文件类型（例如，.gif）的所有文件，可使用以下 robots.txt 条目：<br/>User-agent: Googlebot<br/>Disallow: /*.gif$要阻止 Googlebot 抓取所有包含 ? 的网址（具体地说，这种网址以您的域名开头，后接任意字符串，然后是问号，而后又是任意字符串），可使用以下条目：<br/>User-agent: Googlebot<br/>Disallow: /*?<br/>尽管我们不抓取被 robots.txt 拦截的网页内容或为其编制索引，但如果我们在网络上的其他网页中发现这些内容，我们仍然会抓取其网址并编制索引。因此，网页网址及其他公开的信息，例如指 向该网站的链接中的定位文字，有可能会出现在 Google 搜索结果中。不过，您网页上的内容不会被抓取、编制索引和显示。<br/>作为网站管理员工具的一部分，Google提供了<a href="http://www.google.cn/support/webmasters/bin/answer.py?hlrm=en&answer=35237" target="_blank">robots.txt分析工具</a>。它可以按照 Googlebot 读取 robots.txt 文件的相同方式读取该文件，并且可为 Google user-agents（如 Googlebot）提供结果。我们强烈建议您使用它。 在创建一个robots.txt文件之前，有必要考虑一下哪些内容可以被用户搜得到，而哪些则不应该被搜得到。 这样的话，通过合理地使用robots.txt, 搜索引擎在把用户带到您网站的同时，又能保证隐私信息不被收录。<br/><br/>作者:元创<a href="http://www.lxysem.cn" target="_blank">网站运营</a><br/>原载:<a href="http://www.lxysem.cn" target="_blank">SEO培训</a><br/>原文链接: http://www.lxysem.cn/read.php/134.htm<br/>@版权所有 &#124; 如近日有雷同文章无本站版权链接现象必究 
]]>
</description>
</item><item>
<link>http://www.yuan-chuang.cc/read.php/134.htm#blogcomment583</link>
<title><![CDATA[[评论] 如何使用robots.txt？如何设置robots.txt？]]></title> 
<author>robots &lt;user@domain.com&gt;</author>
<category><![CDATA[评论]]></category>
<pubDate>Mon, 03 May 2010 04:32:35 +0000</pubDate> 
<guid>http://www.yuan-chuang.cc/read.php/134.htm#blogcomment583</guid> 
<description>
<![CDATA[ 
	这个玩意可以作为sitemap来用
]]>
</description>
</item>
</channel>
</rss>