Categories


Tags


搜索引擎怎样判断文章或网页的原始出处?

复制内容网页有的时候会影响网页排名。

比如说原本是你写的文章,本来应该排名很好,但是其他人抄袭或转载你的文章,而且搜索引擎不幸的判断那篇被抄袭或转载的网页是原始出处的话,你应有的排名就会被那个网页夺走。

那么搜索引擎怎样才能从多个网页中挑出哪一个是原始出处呢?可能有以下几个考虑:

1)网页PR值。网页PR值越高,被认为是原始版本的可能性就越大。

2)网页第一次被收录的时间。网页被搜索引擎收录的时候越早,相比后发现的相同内容的网页来说,被当作原始出处的可能性就越大。

3)域名注册时间。越老的域名上面的网页被当成原始出处的可能性也越大。

4)网站的权威度。这就有点说不清了,可能包含前面3个因素,还有很多其他因素。

但到目前为止,无论以哪一个因素为主,或怎样组合这些因素,都不可能完全正确从多个网页中挑出原始出处。

比如说我这个博客就很新,域名也很新,文章被收录的时间有的时候也不一定是最早的,就权威地位和被信任度来说,也肯定比不上很多中文网站。但我的博客新,我的域名新,并不意味着我的内容就不是原始出处,实际上我的所有博客都是原创。

我最近也发现了很多网站都转载,有的时候是抄袭我的博客内容,很多网站的规模,历史,PR值都比我的网站要高的多。

在检测文章原始出处方面,Google做的比较好,基本上能够正确判断,百度做的就比较差。从我的文章在不同的地方出现的情况看,百度似乎认为域名比较老的就是原创。

这个问题不是网站管理员自己可以解决的,只有依靠搜索引擎算法的改进。

来源:SEO每天一贴 Zac 昝辉


Public @ 2017-04-29 16:21:50

搜索引擎如何抓取你的网页

搜索引擎优化(SEO)是搜索引擎有好的收录网页的过程,适当的SEO有利于蜘蛛爬行你的网站,使你的内容符合搜索引擎算法,以便确认它与关键词高度相关。优化的目的就是使网页的内容便于蜘蛛理解,下面我就以百度新收录的一篇内容来进行说明,我以一个完整标题进行搜索,其目的是能反映出更多关键词在百度自然搜索的结果页面,能更好的说明搜索引擎是如何抓取你的网页的。搜索引擎如何抓取你的网页 网站优化 SEO优化 SE

Public @ 2019-08-19 16:22:21

爬行和抓取

爬行和抓取在计算机领域中都指数据采集的过程。 爬行是指使用网络爬虫程序,通过抓取网页上的数据来建立一个数据集。例如,搜索引擎就使用网络爬虫程序来收集网页上的内容,以便用户进行搜索。 抓取则是指通过编写程序从特定的网站或数据源上抓取数据,以便进行分析或者处理。例如,电商平台可以使用抓取程序从竞争对手的网站上抓取商品价格信息,以便制定自己的价格策略。 总的来说,爬行和抓取都是数据采集的方式,只是

Public @ 2023-04-07 23:50:49

搜索引擎发展历程

搜索引擎是伴随互联网的发展而产生和发展的,互联网已成为人们学习、工作和生活中不可缺少的平台,几乎每个人上网都会使用搜索引擎。搜索引擎大致经历了四代的发展: 1、第一代搜索引擎1994年第一代真正基于互联网的搜索引擎Lycos诞生,它以人工分类目录为主,代表厂商是Yahoo, 特点是人工分类存放网站的各种目录,用户通过多种方式寻找网站,现在也还有这种方式存在。 2、第二代搜索引擎

Public @ 2009-09-09 16:22:56

搜索引擎的用户是什么?

搜索引擎的用户是使用搜索引擎工具在互联网上查找信息、资源、产品、服务等的人群。这些用户可能是普通的网民、学生、教师、研究人员、业务人士、消费者等各行各业的人士,他们使用搜索引擎来获得信息、解决问题、满足需求、获取知识等。因此,搜索引擎的用户群体非常广泛。

Public @ 2023-04-06 16:50:13

更多您感兴趣的搜索