robot 禁止抓取图片
User-agent: *
Disallow: .jpg$
jpg可以代替为gif,png 等等...
Public @ 2020-04-11 16:09:30
User-agent: *
Disallow: .jpg$
jpg可以代替为gif,png 等等...
由于JavaScript可以创造很多吸引人的视觉效果,有些网站喜欢使用JavaScript脚本生成导航。这也是严重的蜘蛛陷阱之一。据观察,有的搜索引擎在技术上可以获得JavaScript脚本中包含的链接,甚至可以执行脚本并跟踪链接,但对权重低的网站,搜索引擎觉得没必要,不会费那个劲。所以网站上的链接必须使用最简单标准的HTML链接,尤其是导航系统。用CSS做导航同样可以实现很多视觉效果。JavaS
对于前端来说,#号是可以使用的,通常用于锚点定位页面位置、实现单页面应用的路由、以及在url上添加参数、实现滚动监听等。但是对于SEO来说,#号会被搜索引擎忽略,因此不应过度使用。
用几个最常见的情况,直接举例说明:1. 允许所有SE收录本站:robots.txt为空就可以,什么都不要写。2. 禁止所有SE收录网站的某些目录:User-agent: *Disallow: /目录名1/Disallow: /目录名2/Disallow: /目录名3/3. 禁止某个SE收录本站,例如禁止百度:User-agent: BaiduspiderDisallow: /4. 禁止所有SE收录
常见的robots.txt文件用法实例:1、禁止所有搜索引擎抓取网站的任何部分User-agent: *Disallow: /这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)User-agent: *Allow: /这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以