SEO观察
研究搜索引擎优化(SEO)技术。

搜狗推出石破算法,剑指网站恶劣采集问题

现今SEO行业真的是日新月异,关于内容输出方面,可以用一句话“原创犹如狗,采集满地走”来形容。一直以来,采集站都是各大搜索引擎头痛和打击对象,因为都深受其毒害过,内容采集拼接就像不倒翁一样顽强。

搜狗搜索平台

就连万年不变的搜狗搜索也因为不堪采集站的忍受,6月17日推出石破算法,表示将对网站恶意采集行为进行整顿,真的是太稀奇了。

仔细观察就会发现,这是搜狗搜索第一次在站长平台公开推出新的SEO算法,难道是因为换了新的东家的原因。

最近搜狗站长平台连续两次发声,升级“搜索资源平台”,以及推出“石破算法”。

我仿佛看见腾讯的“资深专家”拿着手术刀在搜狗上“咔咔咔”进行换血手术,然后进行基因重组的画面。

以往搜狗站长平台的公告都是各种“放假通知”,现在打算重组业务,真稀罕,以下是搜狗站长平台关于石破算法的公告内容:

为促进搜索内容生态健康发展,保障用户的浏览体验,搜索将于6月17日推出石破算法。

该算法旨在对包含恶劣采集行为的链接、网站进行识别,根据网站作弊程度落实相应的清洗打压措施。

恶劣采集标准解读与示例如下,烦请合作方自查并于算法上线前完成全面整改。

1、内容逻辑混乱

采集不同文章进行拼凑或相同文章的重复片段堆叠成一篇文章,文章前后无逻辑关系,致使用户理解困难;

2、内容结构混乱

采集后未进行编辑导致的文章排版混乱、无关信息冗杂、功能丢失等问题,难以为用户提供有效信息;

3、网站由大量采集内容构成

网站缺少原创/独有内容,即多为批量采集并未进行编辑整理的内容,整体内容质量较低;

4、跨领域采集

网站采集大量与主要经营领域无关内容用以获取流量的行为也会被判定为恶劣采集;

针对采集站的感想

现今网络上充斥着各种采集软件、工具以及针对各种CMS的插件,各大论坛站长网站都有分享采集工具的经验和攻略。

原创内容创作者真的是太难了,熬夜编写的原创文章稿件,可能自身网站都还没有收录,搜索标题发现可能存在着大量的搜索结果,无言以对。

搜索引擎习惯新鲜内容这不假,但是用户并不排斥也不会分辨网站内容是否是采集而来的,因为正常的采集内容不会出现阅读障碍的情况,只要SEO人员或网编稍加修饰内容,是不会影响用户体验的。

只有那种恶意采集内容的网站才会出现内容混乱、拼接、毫无逻辑、可读性差的现象,这种网站一般是以走量为主,不注重网页的质量与相关性,自然会出现无法阅读的情况。

恶意猜测一下,其实搜索引擎并不完全排斥采集内容,大型站点采集内容后排名比原创来源网站的效果好,是因为大型网站的蜘蛛访问频率高,内容相关性强,一旦出现新的内容,很快会被蜘蛛发现并抓取收录,并给予一样的排名。

各大搜索引擎之所以要推出SEO算法打击采集站点,是因为采集站影响了用户体验,这点非常重要。

用户通过搜索引擎搜索出垃圾内容,可想而知用户对搜索引擎的感官不会太好,长期日积月累这个搜索引擎平台的使用率就会越来越少。

本篇最后总结

互联网之所以出现过多的垃圾内容,是因为搜索引擎目前还无法完全识别内容的质量,况且拼接的内容实际上也属于新的内容范畴,被抓取的概率蛮高,要想扼制恶意采集内容,只能推出SEO算法或者对搜索引擎迭代更新。

赞(1) 打赏
版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《搜狗推出石破算法,剑指网站恶劣采集问题》
文章链接:https://www.badpon.com/4076.html
免责申明:本站部分内容、图片来源于网络,如有侵权,请联系邮箱,本站将及时删除。

觉得文章有用就打赏一下文章作者

微信扫一扫打赏