Categories


Tags


IIS和Apache实现HTTP重定向到HTTPS

本文介绍IIS7和Apache上实现访问HTTP跳转到HTTPS访问的方法,网站设计出于安全的考虑需要使用https协议,但不少用户因为输入网址的习惯不喜欢带上https协议,导致访问异常,因此需要一种重定向功能,实现HTTP网站重定向到HTTPS网站的方法,具体操作如下。

IIS7

从微软的官方网站下载HTTP重写模块,安装完毕之后重启IIS服务,之后打开IIS控制台,发现多了一个组件,双击“URL重写”,在右边窗体中选择“添加规则”,并添加一个空白规则,给规则自定义一个名字(名称自便),比如我这里叫“redirect to HTTPS”,模式为:(.*),添加一个条件,条件输入为 {HTTPS},与模式匹配,模式为 ^OFF$,然后配置操作,操作类型为:重定向,重定向到URL为:https://{HTTP_HOST}/{R:1},重定向类型:永久301。

设置完毕后点击右侧的“应用”,这个 URL 重写就配置完毕了。

配置后,根目录下的web.config文件的内容如下:

<?xml version="1.0" encoding="UTF-8"?>

<configuration>

<system.webServer>

<rewrite>

<rules>

<rule name="redirect to HTTPS" enabled="true" stopProcessing="true">

<match url="(.*)" />

<conditions>

<add input="{HTTPS}" pattern="^OFF$" />

</conditions>

<action type="Redirect" url="https://{HTTP_HOST}/{R:1}" />

</rule>

</rules>

</rewrite>

</system.webServer>

</configuration>

Apache

修改.htaccess文件,在文件里增加如下几行:

RewriteEngine On

RewriteBase /

RewriteCond %{HTTPS} !=on

RewriteRule ^ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301]

另一种写法是:

RewriteEngine on

RewriteBase /

RewriteCond %{SERVER_PORT} !^443$

RewriteRule (.*) https://%{SERVER_NAME}/$1 [R=301,L]

来源:月光博客


Public @ 2012-12-08 15:56:01

网站被恶意刷流量了应该怎么办?

网站被恶意刷流量了应该怎么办?开发者需要先仔细分析访客IP地址是否存在短时间内出现大量数据的情况,屏蔽攻击源,从源头上堵死流量来源;同时在百度搜索资源平台反馈中心提交流量异常反馈,并附上攻击时间、流量截图等相关信息辅助技术同学进行排查。来源:百度搜索资源平台 百度搜索学堂

Public @ 2011-06-15 15:37:49

Chrome下强制http重定向到https的方法

使用Google的https搜索的时候,我们会发现搜索结果虽然可以显示,但是有时候结果的链接却无法打开。这里的原因是因为Google的https的搜索结果链接往往使用的是http的方式打开,因此有时候会无法访问,本文将介绍在Chrome下解决这个问题的方法。如果你使用的是Chrome浏览器,只需要经过一些简单的设置,就可以强制Google的https搜索结果链接也使用https的方式打开。打开Ch

Public @ 2021-10-09 15:55:59

什么是RPC协议?RPC协议与HTTP协议的区别

RPC(Remote Procedure Call)协议是一种远程过程调用协议,它允许一个计算机程序通过网络请求另一个计算机程序的服务。它是实现分布式计算的关键技术之一。 与HTTP协议相比,RPC协议是更为专业化的协议,用于不同计算机程序之间的通信,而HTTP协议则更广泛地用于 Web 应用中。与HTTP协议相比,RPC协议更加高效、灵活和安全,因为它通常使用二进制的消息格式,而HTTP协议则

Public @ 2023-06-18 23:50:17

HTTPS的收录机制是什么?

HTTPS(全称为Hypertext Transfer Protocol Secure)是一种安全的、基于HTTP的传输协议,主要用于用户与网站之间传输数据或进行安全登录等操作。HTTPS 的收录机制主要是利用 HTTPS 协议,将网页内容加密传输,搜索引擎就能索引到 HTTPS 站点的网页链接信息;而当爬虫抓取数据时,它会进行浏览器模拟从而获取网页信息。

Public @ 2023-03-01 06:00:13

更多您感兴趣的搜索

0.529423s