Categories


Tags


防止网站内部搜索被他人恶意利用

相信很多站长遇到过这种情况:网站内的搜索功能被不良分子利用,通过在站内搜索框中不断搜索敏感关键词,产生一大批TITLE上带有敏感关键词的垃圾搜索结果页(如下图)。由于Baiduspider对每个站点的抓取额是有限定的,所以这些垃圾搜索结果页被百度收录,会导致其它有意义的页面因配额问题不被收录,同时可能因百度处理垃圾页面而影响网站正常排名。

恶意搜索结果页.png

10月底百度站长平台在上海举办的线下培训QA环节中,学员们就如何防范此类垃圾搜索结果页展开深入讨论。携程SEO主管赖强认为,不良分子这样做的目的就是想让敏感关键词在搜索结果中大量曝光,既然百度对搜索结果页的收录有严格限制,那网站就做得彻底些,不允许搜索关键词出现在TITLE和摘要里,这样恶意操作者无法达成目的自然也不来骚扰。

培训结束后,百度站长平台联系了赖强,赖强也很愿意分享携程的具体解决方案:携程在遭遇此类垃圾搜索结果页后,修改了meta调用规划,即避免关键词出现在title/keywords/description处,尝试多种搜索结果页meta的写法后,发现目前这种使用最简短词语的方式效果最佳,不仅突出了页面核心关键词“搜索”,同时再也没有出现过恶意搜索结果页。

修改前:

修改前.png

修改后:

简短meta.png

相关内容讨论请移步【学堂同学汇】《防止网站内部搜索被他人恶意利用》讨论帖

来源:百度搜索资源平台 百度搜索学堂


Public @ 2013-05-23 15:37:50

【开发者必看】死链介绍及设置方法

一、死链介绍什么是死链几乎所有的智能小程序或站点都会遇到内容失效、过期,页面不需要再展现的情况,这些无法对用户提供任何有价值信息的页面就是死链接,它包括协议死链和内容死链两种形式。为什么要及时处理死链当站点/小程序死链数据累积过多并且被展示到搜索结果页时,会影响百度搜索对站点/小程序的评价,对站点/小程序的访问体验和用户转化都会起到负面影响。另一方面,百度检查死链的流程也会为站点/小程序带来额外负

Public @ 2011-04-24 15:36:56

HTTPS的收录机制是什么?

HTTPS 收录机制是指网络爬虫(Internet robots)在索引和跟踪 HTTPS 网址并将它们收录入索引的过程。HTTP是网络爬虫常用的收录机制,网页中的链接都是HTTP链接,但是HTTPS的连接要比HTTP的有些不同,因为它采用的是安全的加密连接。只有当网络爬虫满足HTTPS协议,才能完成收录。

Public @ 2023-02-24 02:00:12

网站被攻击怎么办?这四种方法帮助你

第一种:网页篡改攻击描述:针对网站程序漏洞,植入木马(webshell,跨站点脚本攻击),篡改网页,添加黑链或嵌入非网站信息,甚至创建大量目录网页。其中博客攻击较为常见的CMS建站系统:网站信息被篡改,网站访问者不信任,搜索引擎(以百度为例)和安全平台(安全)为例,如果你发现你的网站被暂停,你会在搜索结果中提示有安全风险,搜索引擎和浏览器会阻止访问。处理方法:1、程序设置:更改程序、更新补丁、修复

Public @ 2017-12-25 15:37:56

网站防止CC攻击的方法

CC攻击(Challenge Collapsar)是DDOS(分布式拒绝服务)的一种,也是一种常见的网站攻击方法,攻击者通过代理服务器或者肉鸡向向受害主机不停地发大量数据包,造成对方服务器资源耗尽,一直到宕机崩溃。CC攻击的攻击技术含量低,利用工具和一些IP代理,一个初、中级的电脑水平的用户就能够实施攻击。不过,如果了解了CC攻击的原理,那就不难针对CC攻击实施一些有效的防范措施。通常防止CC攻击

Public @ 2012-02-16 15:37:51

更多您感兴趣的搜索

0.668084s