公众号可被搜索引擎抓取,微信或将更加“互联互通” -亚博电竞官方网址

109views
no comments

共计 1999 个字符,预计需要花费 5 分钟才能阅读完成。

尽管官方已经回应,但这也可能是微信进一步“”的先兆。

微信 的内容只能在微信中看,这可以说早在多年前就已经成为用户的共识。不过最近有消息显示,微信公众号的内容可以被谷歌和必应等 搜索引擎 搜索到。

但腾讯方面很快就给出了回应,并表示是因为近期平台技术升级,公众号的 robots 协议出现了漏洞,致使外部爬虫技术可抓取部分公众号内容,但目前漏洞已修复。按照这一说法,这一次的情况只是技术操作失误。

那么,导致公众号内容出现在海外搜索引擎山上的“元凶”robots 协议是什么呢? 事实上,robots 协议也叫 robots.txt,是一种存放于网站根目录下的 ascii 编码文本文件,它的唯一作用就是告诉搜索引擎的 user-agent(网络蜘蛛),网站中的哪些内容是不对搜索引擎蜘蛛开放,哪些内容又可以被抓取的。

作为控制网站被搜索引擎抓取内容的一种策略,该文件一般会放在网站的根目录里,也就是 /robots.txt。因此可以直接在网站域名后加上 /robots.txt,就能访问到该网站的 robots 协议页面。

我们以淘宝的“https://www.taobao.com/robots.txt”为例可以看到,这家电商网站采用的 robots 协议其实非常简单,“user-agent”主要作用是告诉网站服务器,访问者是通过什么工具来请求的,而后面的“baiduspider”就是大名鼎鼎的百度搜索引擎蜘蛛,而最后的“disallow: /”,按照 robots 协议的规则,是禁止被描述的搜索引擎蜘蛛(百度)访问网站的任何部分。

其实早在 2008 年 9 月百度搜索引擎就已经被淘宝屏蔽,而这几行简简单单的代码,也让淘宝在战略层面掌握了竞争的主动权,避免了流量被百度搜索引擎拿走,同时也避免了平台内的商家要给百度竞价排名付费的可能,更是间接催生了淘宝的竞价排名体系。

而对于微信来说同样也是如此,此前微信公众号的内容只支持在该应用的搜一搜功能,或是腾讯旗下的搜狗搜索引擎中搜索到。这主要要因为用户上网冲浪的最终目地往往是消费内容,而内容、特别是高质量的原创内容更是天然的流量来源,这些内容可以帮助微信形成封闭的商业生态。所以让用户只能在体系内访问微信公众号的内容,也就成为了微信保护私域流量的关键。

那么问题就来了,robots 协议会出现漏洞吗? 答案是肯定的。robots 协议从本质上来说就是网站运营方提供的规则,然而是规则就免不了出现漏洞。不过 robots 协议也很难出现问题,因为它的书写非常简单、逻辑也很直白,允许什么搜索引擎爬虫访问什么内容都可以清晰地表述出来。特别是微信这种协议非常简单的规则,仅面向自己的应用内搜索和搜狗搜索开放的 robots 协议,基本也不会有什么多余的内容。

更为重要的一点是,robots 协议本身其实是一个“君子协议”,是一个搜索引擎与网站之间的共识,并没有任何法律效力,也没有任何技术约束。所以换句话来说,这也意味着 robots 协议从技术层面是无法与搜索引擎爬虫对抗的。

例如,一些网站如果不想让爬虫占据自家宝贵的服务器资源,往往就会直接在 robots.txt 文件中写上这样的规则,“user-agent: googlebot,allow: /user-agent: *,disallow: /”,意思是本网站仅允许谷歌爬虫抓取,拒绝其他任何搜索引擎。

然而有意思的事情来了,苹果方面在亚博电竞官方网址官网的“applebot”页面声明中写道,“如果 robots.txt 中没有提到 applebot,而是提到了 googlebot,那么 applebot 将遵循 googlebot 的指令“,言下之意就是 applebot 也是 googlebot。

事实上,robots 协议并不会经常修改,毕竟它的内容是与内容运营策略息息相关的。而微信的 robots 协议在平稳运行了多年后,却在此前监管部门要求互联网厂商互联互通的时候出现“漏洞”,这个件事就可以说或非常“巧”了。

9 月 17 日在监管机构的要求之下,在过去数年间各大互联网厂商建立的以邻为壑的“高墙”已经开始逐步坍塌。尽管在要求“互联互通”一个月后,各大互联网厂商之间的藩篱虽然还没有一夜之间倒塌,但也逐渐有了消融的迹象。

对于微信来说,公众号内容开放给外界,或许是腾讯分阶段分步骤实施互联互通中的一个环节。而如今微信公众号的内容出现在谷歌和必应上,也更像是微信在测试新的 robots 协议。毕竟,此前他们的 robots 协议协议可以说是非常简单,只需要允许搜狗搜索一家即可,但现在却需要对外界开放。

要知道,国内的搜索引擎蜘蛛可不仅仅是百度、搜狗、360 这些大家比较熟悉的,还有包括网易有道的 youdaobot、宜搜的 easouspider、一搜的 yisouspider、微软的 bingbot 和 msnbot,以及其他大大小小不知名的爬虫。所以有观点认为,这也就使得微信 robots 协议的编写难度将会陡然上升。

正文完
 
亚博电竞官方网址 copyright notice: our original article, by seo 2022-12-13 publish, total 1999 words.
转载说明:除特殊说明外本站文章皆由cc-4.0协议发布,转载请注明出处。
comment(no comments)
网站地图