Categories


Tags


头条搜索站长平台-关于Bytespider

头条搜索UA介绍

头条搜索的爬虫UA为“Bytespider”首写字母为大写,例如:

PC

Mozilla/5.0 (compatible; Bytespider; https://zhanzhang.toutiao.com/) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.0.0 Safari/537.36

Android

Mozilla/5.0 (Linux; Android 5.0) AppleWebKit/537.36 (KHTML, like Gecko) Mobile Safari/537.36 (compatible; Bytespider; https://zhanzhang.toutiao.com/)

iOS

Mozilla/5.0 (iPhone; CPU iPhone OS 7_1_2 like Mac OS X) AppleWebKit/537.36 (KHTML, like Gecko) Version/7.0 Mobile Safari/537.36 (compatible; Bytespider; https://zhanzhang.toutiao.com/)

头条搜索ip字段介绍

头条搜索的ip字段总共涉及10个ip,具体字段如下:

110.249.201.0/24

110.249.202.0/24

111.225.148.0/24

111.225.149.0/24

220.243.135.0/24

220.243.136.0/24

220.243.188.0/24

220.243.189.0/24

60.8.123.0/24

60.8.151.0/24

基本流程

1. 抓取网页

每个独立的搜索引擎都有自己的网页抓取程序爬虫(Spider)。爬虫顺着网页中的超链接,从这个网站爬到另一个网站,通过超链接分析连续访问抓取更多网页。被抓取的网页被称之为网页快照。由于互联网中超链接的应用很普遍,理论上,从一定范围的网页出发,就能搜集到绝大多数的网页。

2. 处理网页

搜索引擎抓到网页后,还要做大量的预处理工作,才能提供检索服务。其中,最重要的就是提取关键词,建立索引库和索引。其他还包括去除重复网页、分词(中文)、判断网页类型、分析超链接、计算网页的重要度/丰富度等。

3. 提供检索服务

用户输入关键词进行检索,搜索引擎从索引数据库中找到匹配该关键词的网页;为了用户便于判断,除了网页标题和URL外,还会提供一段来自网页的摘要以及其他信息。

Bytespider IP反解析

反查IP

站长可以通过DNS反查IP的方式判断某只spider是否来自头条搜索引擎。根据平台不同验证方法不同,如linux/windows/os三种平台下的验证方法分别如下

在linux平台下,您可以使用host ip命令反解ip来判断是否来自Bytespider的抓取。Bytespider的hostname以*.bytedance.com的格式命名,非 *.bytedance.com即为冒充

host 111.225.148.250

148.148.225.111.in-addr.arpa domain name pointer bytespider-111-225-148-148.crawl.bytedance.com.

在windows平台或者IBM OS/2平台下,您可以使用nslookup ip命令反解ip来判断是否来自Bytespider的抓取。打开命令处理器 输入nslookup  -qt=ptr  xxx.xxx.xxx.xxx(IP地 址)就能解析ip,来判断是否来自Bytespider的抓取,Bytespider的hostname以*.bytedance.com 的格式命名,非*.bytedance.com 即为冒充。

在mac os平台下,您可以使用dig命令反解ip来判断是否来自Bytespider的抓取。打开命令处理器输入dig -x xxx.xxx.xxx.xxx(IP地址)就能解析ip, 来判断是否来自Bytespider的抓取,Bytespider的hostname以 *.bytedance.com的格式命名,非 *.bytedance.com即为冒充。

问题反馈

如果您的网站发现有头条spider的UA Bytespider 抓取存在抓取量过大,导致您的网站出现缓慢、宕机等问题,您可以通过“抓取频次”功能,对网站进行设置抓取要求,我们会在1天内时间内生效。

关于spider有其他问题,可以向zhanzhang@bytedance.com提交反馈,我们会在及时处理。

来源:头条搜索站长平台


Public @ 2016-11-30 15:39:00

为什么我的网站已经加了robots.txt,还能在搜狗搜索出来

虽然您在网站上加了robots.txt文件,但搜狗搜索引擎仍然可以在搜索结果中显示您的网站。这是因为robots.txt文件只是一个标准化的协议,它主要用于指导搜索引擎爬虫(蜘蛛)如何访问和索引网站的内容。 尽管大多数搜索引擎都会遵循robots.txt文件中的规则,但有些搜索引擎可能会选择忽略它或解释不同的方式。这可能是因为搜狗搜索引擎没有完全遵循robots.txt文件的指示,或者由于其他原

Public @ 2023-07-31 04:00:31

屏蔽百度爬虫的方法

要屏蔽百度爬虫,可以采取以下方法: 1. 使用robots.txt文件:在网站的根目录下创建一个名为robots.txt的文件,并在其中设置百度爬虫的访问限制。例如,可以使用以下指令来禁止百度爬虫访问整个网站: User-agent: Baiduspider Disallow: / 2. 使用meta标签:在网站的HTML代码中添加以下meta标签,告诉百度爬虫不要访问当前页面: 3. 使

Public @ 2023-07-27 07:50:18

头条搜索Bytespider基本流程

1. 确定搜索对象:首先需要确定搜索的关键词或者主题,同时要考虑搜索的范围和时间范围。 2. 制定搜索策略:基于搜索对象和搜索范围,制定针对性的搜索策略,选择合适的搜索引擎,在搜索过程中要注意细节,如设置搜索选项等。 3. 搜集信息:第三步就是进行搜索,搜集相关信息,可以应用各种搜索工具,如搜索引擎、专业数据库、社交媒体等,搜集到的信息需要进行分类整理,提取有用的信息,剔除无效信息。 4.

Public @ 2023-06-11 13:50:15

更多您感兴趣的搜索

0.534750s