Categories


Tags


robots.txt使用教程

用几个最常见的情况,直接举例说明:

1. 允许所有SE收录本站:robots.txt为空就可以,什么都不要写。

2. 禁止所有SE收录网站的某些目录:

User-agent: *

Disallow: /目录名1/

Disallow: /目录名2/

Disallow: /目录名3/

3. 禁止某个SE收录本站,例如禁止百度:

User-agent: Baiduspider

Disallow: /

4. 禁止所有SE收录本站:

User-agent: *

Disallow: /

5. 加入sitemap.xml路径


Public @ 2013-01-15 16:09:31

404页面作用

1.避免出现死链接网站设置404页面后,如果网站出现死链接,搜索引擎蜘蛛爬行这类网址得到“404”状态回应时,即知道该URL已经失效,便不再索引该网页,并向数据中心反馈将该URL表示的网页从索引数据库中删除。避免因为死链接影响网站收录。2.提升用户体验404页面通常为用户访问了网站上不存在或已删除的页面,服务器返回404错误页面,告诉浏览者其所请求的页面不存在或链接错误,同时引导用户使用网站其他页

Public @ 2023-02-01 16:11:00

关于Sitemap

百度一直致力于将优质内容索引并呈现给搜索用户,因此百度站长平台推出了Sitemap工具,网站可通过该工具将优质资源主动反馈提交给百度站长平台,加强百度对优质资源的收录,优化收录效果。Sitemap(即站点地图)就是您网站上各网页的列表。创建并提交Sitemap有助于百度发现并了解您网站上的所有网页,包括百度通过传统抓取方式可能找不到的网页。您还可以使用Sitemap提供有关您网站的其他信息,如上次

Public @ 2011-06-13 16:11:59

Robots文件的作用和规范写法

控制页面的抓取、索引是SEO优化网站结构时经常需要用到的技术。常见的工具包括:robots文件页面的noindex标签链接的nofollow属性页面的301转向页面的canonical标签等这几个工具各有各的特定应用场景,但都是用于控制网站内部结构,之间容易混淆,还经常需要配合使用,SEO们必须准确理解这几个工具的机制和原理,不然很容易出错。这篇贴子讨论robots文件。Robots文件的作用ro

Public @ 2012-12-30 16:09:20

robots使用误区

1. 不需要在每个页面都添加robots.txt文件:robots.txt文件只是一份给搜索引擎看的指令,如果不希望搜索引擎从该页面抓取数据,那么每一页都是可以不用添加robots.txt文件的。 2. 不能用于移动设备:robots.txt文件可用于搜索引擎爬虫,但也可以在部分机型的移动设备上进行yu处理,可以用于控制移动设备的蜘蛛爬行进行内容抓取。 3. 不应该将robots保存到公用

Public @ 2023-03-03 14:00:19

更多您感兴趣的搜索

0.516508s