Categories


Tags


robots使用技巧

1. 每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该在网站中添加一个robots.txt。

2. 网站管理员必须使蜘蛛程序远离某些服务器上的目录--保证服务器性能。比如:大多数网站服务器都有程序储存在"cgi-bin"目录下,因此在robots.txt文件中加入"Disallow: /cgi-bin"是个好主意,这样能够避免将所有程序文件被蜘蛛索引,可以节省服务器资源。一般网站中不需要蜘蛛抓取的文件有:后台管理文件、程序脚本、附件、数据库文件、编码文件、样式表文件、模板文件、导航图片和背景图片等等。

下面是VeryCMS里的robots.txt文件:

User-agent: *

Disallow: /admin/ 后台管理文件

Disallow: /require/ 程序文件

Disallow: /attachment/ 附件

Disallow: /images/ 图片

Disallow: /data/ 数据库文件

Disallow: /template/ 模板文件

Disallow: /css/ 样式表文件

Disallow: /lang/ 编码文件

Disallow: /script/ 脚本文件

3. 如果你的网站是动态网页,并且你为这些动态网页创建了静态副本,以供搜索蜘蛛更容易抓取。那么你需要在robots.txt文件里设置避免动态网页被蜘蛛索引,以保证这些网页不会被视为含重复内容。

4. robots.txt文件里还可以直接包括在sitemap文件的链接。就像这样:

Sitemap: http://www.***.com/sitemap.xml

目前对此表示支持的搜索引擎公司有Google, Yahoo, Ask and MSN。而中文搜索引擎公司,显然不在这个圈子内。这样做的好处就是,站长不用到每个搜索引擎的站长工具或者相似的站长部分,去提交自己的sitemap文件,搜索引擎的蜘蛛自己就会抓取robots.txt文件,读取其中的sitemap路径,接着抓取其中相链接的网页。

5. 合理使用robots.txt文件还能避免访问时出错。比如,不能让搜索者直接进入购物车页面。因为没有理由使购物车被收录,所以你可以在robots.txt文件里设置来阻止搜索者直接进入购物车页面。

来源:360站长平台


Public @ 2009-05-16 16:09:17

网站图片的搜索引擎优化策略

我以前曾经提到过,网站的图片是非常耗费流量的,去年我就曾经统计过,两天的时间博客有20多G的访问流量,图片所在的目录upload占用了18.6G,而文章所在目录只用了1.3G流量,可见图片占用流量资源之巨大,这也就是很多人都喜欢将图片文件放在第三方免费网络相册的原因。然而,如果条件允许的话(比如有独立的服务器,充足的流量),那么将图片存储在自己的网站空间,反而可以利用搜索引擎的图片搜索给自己带来不

Public @ 2015-03-06 15:16:35

博客网站导航的制作

制作博客网站导航的步骤如下: 1. 设计导航栏的样式与布局: 根据网站的整体风格和主题,设计导航栏的外观,包括颜色、字体、按钮等。决定导航栏的位置,一般常见的位置有网站顶部、侧边栏或底部。 2. 确定导航栏的内容:确定导航栏要显示的链接或按钮,一般包括首页、分类、标签、关于我们、联系我们等。可以根据博客的特点,自定义所需的导航栏内容。 3. 创建HTML导航栏的代码:使用HTML和 CSS编

Public @ 2023-07-26 12:00:41

robots.txt概念和10条注意事项

robots.txt概念如果我们网站内有某些特殊的文件不让搜索引擎收录,那怎么办?答案是:使用一个叫做robots.txt的文件。robots.txt文件告诉搜索引擎本网站哪些文件是允许搜索引擎蜘蛛抓取,哪些不允许抓取。搜索引擎蜘蛛访问网站任何文件之前,需先访问robots.txt文件,然后抓取robots.txt文件允许的路径,跳过其禁止的路径。总结:robots.txt是一个简单的.txt文件

Public @ 2019-12-20 16:09:22

360搜索对Robots协议的扩展

360搜索根据站长们的反馈,会陆续推出扩展的Robots协议命令。这些命令将能帮助站长们提高和360搜索爬虫沟通的效率,减少站长们维护Robots协议文件的技术成本。360搜索首个扩展命令是:indexpage,站长们可以使用此命令告知360搜索哪些网页经常更新。360搜索会根据站长的指示以及自己的算法,智能调整爬虫抓取频率,实现对您网站新内容的更高频率抓取。在命令中可以使用*、$等通配符。示例:

Public @ 2019-02-15 16:09:33

更多您感兴趣的搜索

0.564945s