<?xml version="1.0" encoding="UTF-8" ?>
<rss version="2.0">
<channel>
<title><![CDATA[北京SEO_北京SEO培训 - 【元创SEO】]]></title> 
<link>http://www.yuan-chuang.cc/index.php</link> 
<description><![CDATA[元创拥有10多年网络营销和SEO实战经验、管理经验。 《SEO实战 - 核心技术、优化策略、流量提升》一书作者。SEO实战家、推一把联合创始人]]></description> 
<language>zh-cn</language> 
<copyright><![CDATA[北京SEO_北京SEO培训 - 【元创SEO】]]></copyright>
<item>
<link>http://www.yuan-chuang.cc/read.php/.htm</link>
<title><![CDATA[什么是robots.txt？]]></title> 
<author>元创 &lt;admin@yourname.com&gt;</author>
<category><![CDATA[SEO知识库]]></category>
<pubDate>Sat, 03 Jan 2009 16:49:32 +0000</pubDate> 
<guid>http://www.yuan-chuang.cc/read.php/.htm</guid> 
<description>
<![CDATA[ 
	<strong>什么是robots.txt？</strong><br/><br/>&nbsp;&nbsp;&nbsp;&nbsp;robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。<br/>　　当一个搜索蜘蛛访问一个站点时，它会首先检查该站点根目录下是否存在robots.txt，如果存在，搜索机器人就会按照该文件中的内容来确定访问的范围；如果该文件不存在，所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。<br/>　　robots.txt必须放置在一个站点的根目录下，而且文件名必须全部小写。<br/>　　语法：最简单的 robots.txt 文件使用两条规则：<br/>　　• User-Agent: 适用下列规则的漫游器 <br/>　　• Disallow: 要拦截的网页<br/><br/><strong>robots.txt使用误区</strong><br/><br/>误区一：我的网站上的所有文件都需要蜘蛛抓取，那我就没必要在添加robots.txt文件了。反正如果该文件不存在，所有的搜索蜘蛛将默认能够访问网站上所有没有被口令保护的页面。<br/>　　每当用户试图访问某个不存在的URL时，服务器都会在日志中记录404错误（无法找到文件）。每当搜索蜘蛛来寻找并不存在的robots.txt文件时，服务器也将在日志中记录一条404错误，所以你应该做网站中添加一个robots.txt。<br/>　　误区二：在robots.txt文件中设置所有的文件都可以被搜索蜘蛛抓取，这样可以增加网站的收录率。<br/>　　网站中的程序脚本、样式表等文件即使被蜘蛛收录，也不会增加网站的收录率，还只会浪费服务器资源。因此必须在robots.txt文件里设置不要让搜索蜘蛛索引这些文件。<br/>　　具体哪些文件需要排除， 在robots.txt使用技巧一文中有详细介绍。<br/>　　误区三：搜索蜘蛛抓取网页太浪费服务器资源，在robots.txt文件设置所有的搜索蜘蛛都不能抓取全部的网页。<br/>　　如果这样的话，会导致整个网站不能被搜索引擎收录。<br/><br/>robots.txt使用技巧<br/><br/>1. 每当用户试图访问某个不存在的URL时，服务器都会在日志中记录404错误（无法找到文件）。每当搜索蜘蛛来寻找并不存在的robots.txt文件时，服务器也将在日志中记录一条404错误，所以你应该在网站中添加一个robots.txt。<br/>　　2. 网站管理员必须使蜘蛛程序远离某些服务器上的目录——保证服务器性能。比如：大多数网站服务器都有程序储存在“cgi-bin”目录下，因此在robots.txt文件中加入“Disallow: /cgi-bin”是个好主意，这样能够避免将所有程序文件被蜘蛛索引，可以节省服务器资源。一般网站中不需要蜘蛛抓取的文件有：后台管理文件、程序脚本、附件、数据库文件、编码文件、样式表文件、模板文件、导航图片和背景图片等等。<br/>　　下面是VeryCMS里的robots.txt文件：<br/>　　User-agent: *<br/>　　Disallow: /admin/ 后台管理文件<br/>　　Disallow: /require/ 程序文件<br/>　　Disallow: /attachment/ 附件<br/>　　Disallow: /images/ 图片<br/>　　Disallow: /data/ 数据库文件<br/>　　Disallow: /template/ 模板文件<br/>　　Disallow: /css/ 样式表文件<br/>　　Disallow: /lang/ 编码文件<br/>　　Disallow: /script/ 脚本文件<br/>　　3. 如果你的网站是动态网页，并且你为这些动态网页创建了静态副本，以供搜索蜘蛛更容易抓取。那么你需要在robots.txt文件里设置避免动态网页被蜘蛛索引，以保证这些网页不会被视为含重复内容。<br/>　　4. robots.txt文件里还可以直接包括在sitemap文件的链接。就像这样：<br/>　　Sitemap: sitemap.xml<br/>　　目前对此表示支持的搜索引擎公司有Google, Yahoo, Ask and MSN。而中文搜索引擎公司，显然不在这个圈子内。这样做的好处就是，站长不用到每个搜索引擎的站长工具或者相似的站长部分，去提交自己的sitemap文件，搜索引擎的蜘蛛自己就会抓取robots.txt文件，读取其中的sitemap路径，接着抓取其中相链接的网页。<br/>　　5. 合理使用robots.txt文件还能避免访问时出错。比如，不能让搜索者直接进入购物车页面。因为没有理由使购物车被收录，所以你可以在robots.txt文件里设置来阻止搜索者直接进入购物车页面。<br/>
]]>
</description>
</item><item>
<link>http://www.yuan-chuang.cc/read.php/.htm#blogcomment</link>
<title><![CDATA[[评论] 什么是robots.txt？]]></title> 
<author> &lt;user@domain.com&gt;</author>
<category><![CDATA[评论]]></category>
<pubDate>Thu, 01 Jan 1970 00:00:00 +0000</pubDate> 
<guid>http://www.yuan-chuang.cc/read.php/.htm#blogcomment</guid> 
<description>
<![CDATA[ 
	
]]>
</description>
</item>
</channel>
</rss>