Categories


Tags


robots.txt文件有什么必要?

什么是robots.txt文件?

搜索引擎机器人通过链接抵达互联网上的每个网页,并抓取网页信息。搜索引擎机器人在访问一个网站时,会首先检查该网站的根目录下是否有一个叫做robots.txt的纯文本文件。当我们的网站有一些内容不想被搜索引擎收录,我们可以通过设置robots.txt文件告知搜索引擎机器人。

如果网站上没有禁止搜索引擎收录的内容,则不用设置robots.txt文件,或设置为空。

robots.txt文件有什么必要?

从SEO的角度,robots.txt文件是一定要设置的,原因:

1、网站上经常存在这种情况:不同的链接指向相似的网页内容。这不符合SEO上讲的“网页内容互异性原则”。采用robots.txt文件可以屏蔽掉次要的链接。

2、网站改版或URL重写优化时原来不符合搜索引擎友好的链接需要全部屏蔽掉。采用robots.txt文件删除旧的链接符合搜索引擎友好。

3、一些没有关键词的页面,屏蔽掉更好。

4、一般情况下,站内的搜索结果页面屏蔽掉更好。

来源:搜外网


Public @ 2018-10-22 16:09:22

网站内部链接策略

1. 链接分类 将链接分为主要链接和次要链接。主要链接包括页面的主要导航链接、重要内容页面链接等,次要链接包括页脚链接、侧边栏链接等。主要链接应该占据网站内部链接总数的绝大部分,次要链接数量较少。 2. 内部链接锚文本 内部链接锚文本应该描述被链接页面的内容,而非简单地使用诸如“点击这里”等通用词汇。这有助于提高页面的信息结构和搜索引擎的理解。 3. 内链关联 通过内链将相关页面的内容链

Public @ 2023-06-23 18:00:15

网站一级目录如何制作,有什么作用 ?

SEO优化方法之一是在主站建立一个一级目录,从而提升主站的排名。什么是网站一级目录?继承在主站目录下的,相当于在网站的根目录下再建立一个文件夹存放网站。网站一级目录如何制作?www.seowhy.com/bbs和www.seowhy.com/blog/这两个就属于一级目录。1、在FTP后台【新建一个新的文件夹】-【文件夹命名为bbs或者blog】。2、上传一个“一级目录的首页”到bbs或者blog

Public @ 2016-02-10 16:11:40

360搜索对Robots协议的扩展

360搜索根据站长们的反馈,会陆续推出扩展的Robots协议命令。这些命令将能帮助站长们提高和360搜索爬虫沟通的效率,减少站长们维护Robots协议文件的技术成本。360搜索首个扩展命令是:indexpage,站长们可以使用此命令告知360搜索哪些网页经常更新。360搜索会根据站长的指示以及自己的算法,智能调整爬虫抓取频率,实现对您网站新内容的更高频率抓取。在命令中可以使用*、$等通配符。示例:

Public @ 2019-02-15 16:09:33

更多您感兴趣的搜索

0.383833s