Categories


Tags


百度Spider升级HTTPS抓取公告

8月份百度Spider升级了对HTTPS数据的抓取力度,HTTPS数据将更快被Spider抓取到。如网站还在做HTTPS的改造,且网站数据未搭建好,建议网站采取以下措施,避免Spider抓取,以免造成网站流量损失1、把HTTPS的协议封掉,可把443端口关掉;2、做HTTPS到http的301;3、建议站点在改HTTPS没改造好之前,不要提供超链接指向,以免被Spider抓到HTTPS。4、针对一

Public @ 2011-03-28 15:38:47

开发者如何解除封禁百度蜘蛛

近期收到一些开发者反馈,为什么网站或智能小程序资源的内容非常优质,但是没有查询到百度蜘蛛抓取记录,或在百度搜索中没有得到收录和展现?在技术分析后发现,有些网站或智能小程序存在封禁百度蜘蛛的情况,导致百度蜘蛛无法正常抓取,所以无法在百度搜索中正常收录和展现,或在搜索结果中的摘要展现为“存在robots封禁”字样。为了让广大开发者的网站或小程序,在百度搜索中得到正常的收录和展现,建议开发者及时根据以下

Public @ 2011-02-07 15:38:37

什么是模拟蜘蛛抓取

站长可以输入自己网站上的任何一个网址,网管工具会发出Google蜘蛛,实时抓取页面内容,并显示出抓取的HTML代码,包括服务器头信息和页面代码。另外工具也可以用来检查页面是否被黑。有时候黑客放入的代码会检查浏览器类型,如果是用户使用普通浏览器访问则返回正常内容,如果是搜索引擎蜘蛛访问,才返回黑客加上去的垃圾内容和垃圾链接。所以站长自己访问网站看不出异样,Google蜘蛛抓取到的却不是站长自己看到的

Public @ 2011-01-25 16:22:34

百度真假蜘蛛IP如何识别?判断百度蜘蛛的鉴别方法

很多SEO从业人员在刚刚接触这个行业的时候,经常会问——百度蜘蛛是什么?我们可以理解为百度蜘蛛就是用来抓取网站链接的IP,小编经常会听到百度蜘蛛来的太频繁,服务器要被抓爆了,如果你无法识别百度蜘蛛,你怎么知道是百度蜘蛛抓爆的呢?也有出现百度蜘蛛都不来了的情况,还有很多站点想得到百度蜘蛛的IP段,想把IP加入白名单,但无法识别百度IP。那怎么才能识别正确的百度蜘蛛呢?来来来,只需做着两点,就能正确识

Public @ 2010-10-11 16:22:32

我不想我的网站被Baiduspider访问,我该怎么做?

Baiduspider遵守互联网robots协议。您可以利用robots.txt文件完全禁止Baiduspider访问您的网站,或者禁止Baiduspider访问您网站上的部分文件。 注意:禁止Baiduspider访问您的网站,将使您的网站上的网页,在百度搜索引擎以及所有百度提供搜索引擎服务的搜索引擎中无法被搜索到。关于robots.txt的写作方法,请参看我们的介绍:robots.txt写作方

Public @ 2010-07-26 15:56:48

百度搜索引擎基础知识

从输入关键词,到百度给出搜索结果的过程,往往仅需几毫秒即可完成。百度是如何在浩如烟海的互联网资源中,以如此之快的速度将您的网站内容展现给用户?这背后蕴藏着什么样的工作流程和运算逻辑?事实上,百度搜索引擎的工作并非仅仅如同首页搜索框一样简单。搜索引擎为用户展现的每一条搜索结果,都对应着互联网上的一个页面。每一条搜索结果从产生到被搜索引擎展现给用户,都需要经过四个过程:抓取、过滤、建立索引和输出结果。

Public @ 2010-06-25 15:38:38