Categories


Tags


拥抱HTTP2.0时代,让网站飞起来

一、什么是HTTP/2.0

HTTP/2.0(超文本传输协议第2版,最初命名为HTTP 2.0),是HTTP协议的的第二个主要版本,使用于万维网。HTTP/2.0是HTTP协议自1999年HTTP 1.1发布后的首个更新,主要基于SPDY协议。它由互联网工程任务组(IETF)的Hypertext Transfer Protocol Bis(httpbis)工作小组进行开发。该组织于2014年12月将HTTP/2标准提议递交至IESG进行讨论,于2015年2月17日被批准。HTTP/2标准于2015年5月以RFC 7540正式发表。

具体可见技术博客《HTTP2.0的奇妙日常》

二、HTTP/2.0的趋势

目前暂时没有国内主流站点对HTTP/2.0支持比例的准确数据,但据w3techs给出的最新调查结果看,国外全网已有5.2%的站点使用了HTTP/2.0,另据一份CDN的数据显示,全网HTPPS流量有50%左右已使用HTTP/2.0。

除此之外,主流互联网平台、组件和模块,大部分都已经或正在支持HTTP/2.0,如浏览器(chrome/safari/ff/opera)、web服务器(apache/ngx/IIS)、proxy服务器(squid/varnish)、以及其他如curl、netty、jetty等。

在主流语言方面,大多已经有了成熟可用的http/2协议库,至少已经覆盖了C/C++、js、java、perl、go、python、ruby、php等,进一步简化向http/2的迁移工作。

三、HTTP/2.0的奇特之处

1,提升网站访问速度

我们通过一个实验对比体验一下:使用最新的Chrome浏览器或者Firefox浏览器分别访问如下的两个链接(来源于网络):

http://http1.xxshe.com/          HTTP/1.1

https://http1.xxshe.com/           HTTP/2.0

以下是测试统计出来的加载速度:

2,降低服务器压力

HTTP/2.0多路复用的特性可以减少服务器端的并发连接数,在一定程度上,可以允许更多的用户访问网站资源,从而降低对服务器的压力。

3,部分替代异步加载的使用

HTTP/2.0的优势在于多连接的并发下载,对于图片资源、js、css文件较多,使用异常加载的站点来说,HTTP/2.0的优势是明显的。但对于仅使用异步加载加载文字内容的站点来说,效果不明显。

声明:使用HTTP/2.0不代表可以不优化就能达到与HTTP/1.1优化一样的效果,针对HTTP/2.0做优化还是有必要的。

4,保护网站安全

HTTP/2.0现阶段必须使用https,在一定程度上保证了网站的数据安全。

来源:百度搜索资源平台


Public @ 2013-05-27 16:06:35

百度搜索资源平台-百度搜索结果中站点LOGO提交尺寸说明

今天百度搜索资源平台首页发出公告,有相关权限的移动站点可以通过站点属性工具向百度提交站点LOGO信息,以争取在移动搜索结果中获得更强势的展现。与此同时,百度搜索资源平台根据已有的PC线上用户体验和反馈,同时修改了PC端LOGO尺寸,请需要修改的管理员尽快行动起来。在此,百度搜索学堂统将最新尺寸公布出来,供大家参考,同时附上《站点属性(LOGO)审核原则》,希望大家提交一次立即过关!PC端站点LOG

Public @ 2022-07-24 15:35:35

【了解产品】专业问答内容质量标准

说明:本文是专业问答内容生产的指导文档,按照专业问答的内容特性,本文由headline要求、摘要质量要求、富媒体资源质量要求、落地页体验要求、其他特殊要求5个板块构成。不符合本标准的专业问答内容将直接不通过审核,无法线上展现获取流量。专业问答内容生产者应熟读本文,清晰地掌握专业问答内容质量要求从而指导内容生产,以避免无效生产带来的高投入低收益问题;有意愿申请专业问答合作的内容生产者也应当提前了解标

Public @ 2018-10-22 16:03:03

百度搜索资源平台sitemap提交后状态总为等待该怎么办?

如果您在百度搜索资源平台提交了Sitemap后,状态总是显示为等待,您可以按照以下步骤进行排查和解决: 1. 确认Sitemap的格式和内容是否符合规范,是否存在错误或重复等问题; 2. 检查Sitemap的URL是否可以被访问,是否存在网络或服务器问题; 3. 确认Sitemap的更新频率和页面变化情况是否适当,不要频繁变更或提交Sitemap; 4. 等待一段时间后重新提交Sitemap,或

Public @ 2023-04-06 08:50:10

为什么抓取频次突然减少?

抓取频次突然减少可能是由以下原因造成的: 1. 网站更新或改版:当网站进行更新或改版时,可能会暂停服务或改变页面结构,导致爬虫无法访问或抓取数据。 2. IP被封禁:如果爬虫使用同一个IP地址多次访问某个网站,网站可能会将该IP地址封禁,导致无法访问或抓取数据。 3. 爬虫程序出现问题:如果爬虫程序出现错误或崩溃,可能会导致无法正常抓取数据。 4. 网络连接问题:当网络连接不稳定或遭受干扰

Public @ 2023-06-26 14:00:21

更多您感兴趣的搜索

0.475218s