筋斗云SEO的 Linus 教你处理!学会上手仅需1分钟喔~
最近有好一些朋友紧急找我们处理网站被挂黑链的问题,恶意攻击会使collection/vendor这种搜索链接批量强制缓存,让你的网站搜索结果出现一大堆这种不堪入目的违规搜索结果,在后台会看到很多奇怪的词汇和点击量飙升的情况:
其实这种情况已经出现了很久了,最早在10月我们已经关注到我们客户中出现了这种情况,并且已经对我们100多家的SEO客户都做了预防措施。
但后续我们在帮助卖家朋友处理的时候才发现影响面可能比我们想象得多得多,我们发现每一个Shopify网站都有被攻击的风险。
https://example.com/collections/vendors?q=
其他语言可能是不同的子目录或者域名,根据你的设置而定,比如:
https://example.com/en-hk/collections/vendors?q=
https://example.com/en-tw/collections/vendors?q=
https://example.com/fr/collections/vendors?q=
https://example.com/de/collections/vendors?q=
在Google Search Console中选择【编制索引】-【删除】-【新要求】-【暂时移除网址】-【移除所有带此前缀的网址】,填入上一步的统计出来的所有网址,注意不要带参数。
然后,需要在你网站的robots.txt的 User-agent: *中底部添加一条正则表达式:
Disallow: /collections/vendors*
这条正则表达式的意义是匹配到 /collections/vendors 开头的网址都不被谷歌收录。
如果你输入 /collections/vendors?q=*,那灰黑产的恶意攻击者有其他方式进行绕过!因此请直接使用/collections/vendors*
点击Customize旁边的三个点,然后点击编辑代码Edit Code。
点击添加新模板,然后选择robots.txt。
默认会创建一个robots.txt的模板,再往中间增加这三行即可:
{%- if group.user_agent.value == '*' -%}
{{ 'Disallow: /collection/vendors*' }}
{%- endif -%}
另外,还需要在 theme.liquid 中的 <head> 标签下方添加以下代码,告知谷歌爬虫屏蔽该页索引。
{% if request.path == '/collections/vendors' and collection.all_products_count == 0 -%}<meta name="robots" content="noindex"> {% endif %}
通过以上简单三步就可以删除掉相关的影响,谷歌会在几天内处理完成处理。你可以看到我们介入之后几天就可以恢复。
我们也反馈了这个情况给到Shopify官方,希望他们能尽快出通用的解决方案。
除此之外,不光是Shopify的网站,所有没有处理妥当的网站都会有这个风险,很多黑灰产能够强行地用一些方式提交索引,但是当你提前预防好,就不会出现这个问题。
robots.txt 目的是为了让谷歌不要对这些页面进行收录,如果想了解更多关于robots.txt的知识,请点击以下链接到谷歌官方了解:
robots.txt 简介(Google官方):https://developers.google.com/search/docs/crawling-indexing/robots/intro
Shopify 的 robots.txt 编辑指引:
https://help.shopify.com/zh-CN/manual/promoting-marketing/seo/editing-robots-txt
使用 noindex 阻止搜索引擎编入索引:
https://developers.google.com/search/docs/crawling-indexing/block-indexing
三头六臂跨境卖家福利交流群,会员招募中…
跨境卖家免费加入,可享受海量课件资源分享/资深大卖解疑/多平台经理对接/私享会名额预定。
快添加小助理微信,一起加入三头六臂卖家会员俱乐部吧!
三头六臂跨境电商联盟是一个整合资源的平台,打造一个公平、公正、公开、共同成长的跨境电商界生态圈。我们提供商标专利/VAT/欧代英代等服务。
评论