严格遵守Robots协议 为网站保驾护航

发布者:云商网络 来源:http://www.baisoubao.cn/ 发布时间:2015-10-4 8:04:37 浏览量:

   Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”,网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。该协议尊重信息提供者的意愿,并维护其隐私权;保护其使用者的个人信息和隐私不被侵犯。而日前,百度以奇虎360违反Robots协议为由一纸诉状将其告上法庭,一审要求360赔付百度相关损失70万元。

  我们做SEO时,为了让网站更好的运行经常会应用robots文件,它相当于给网站加上一层保护网,对网站而言**的有利的。而本次Robots协议事件,让我们不得不再次将Robots提上网站安全的文案。

  有法律专家表示,Robots协议如果被破坏,对整个行业可谓灭顶之灾。然而,作为行业惯例的robots协议却因为并非白纸黑字的法律条文,成了一些无节操互联网公司恶意违反robots协议搞不正当竞争的借口。那么,不是法律条文的robots协议,在全行业普遍遵守的习惯下,违反者难道不应该为此承担法律责任吗?

  “惯例也好,习惯也好,都是一种行为模式,是为了要达到一定的利益诉求。通常它是既有利于自己的利益,同时又与其他利益攸关者的正当利益不相冲突。在这个前提下,惯例是一种经济上节约,法律上又合法的行为模式。这样一种行为模式,只要符合前面说的这两条就是合法的。”

  由此来看,我们只需要搞清楚Robots协议是不是一种切切实实存在的行业惯例或习惯,就可以对违反Robots协议如何定性这个问题做到**少心中有数。

  robots协议由荷兰籍网络工程师MartijnKoster于1994年**提出,robots协议是国际互联网界通行的道德规范,网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。其目的是保护网站数据和敏感信息、确保用户个人信息和隐私不被侵犯。有统计资料显示,目前国内设置robots协议的网站超过4亿,中国大的网站也均都设置了robots协议:淘宝网、腾讯、CCTV、人民网、网易、新浪、太平洋在线、优酷等,百度和360也都在各自站点中设置了robots协议。

  不仅如此,国际排名前1000左右的网站中,Facebook、Twitter、Alexa、LinkedIn等国际知名网站,均采用白名单制设置robots,只允许robots.txt文件中声明的搜索引擎抓取,禁止其他搜索引擎抓取,例如Facebook网站允许baiduspider、Googlebot、msnbot、naverbot、Eznambot、Slurp、teoma、Yandex等搜索引擎爬虫收录使用网站特定内容,禁止包含360等在内的其他搜索引擎抓取。TWITTER网站部分内容只允许Googlebot、Slurp、Yandex、msnbot搜索引擎爬虫抓取,对于其他搜索引擎不允许抓取。

  实际上,不可计数的中小网站也大多在使用robots文件来保护后台登陆地址、数据存档目录等敏感信息,以保护网站及其用户的隐私安全。

  综合这些情况来看,robots协议确实一种行业惯例,是全行业用来保护知识产权、信息安全和隐私内容的一种惯用方法。

  然而,在实际的行业市场中,却偏偏存在不按常规出牌的公司,比如360公司自2012年8月推出独立搜索以来,一直无视robots协议这一国际通行规范,在未获得百度等公司允许的情况下,违反业内公认的Robots协议,擅自抓取网站Robots文件中明文禁止的内容,即便在互联网协会出面调解,签署了《互联网搜索引擎服务自律公约》后,仍然明知故犯,实乃不把行业惯例放在眼里。

  有专家指出,Robots协议代表一种契约精神,互联网企业只有遵守这一规则,才能保证网站及用户的隐私数据不被侵犯。可以说,无论从保护网民隐私还是尊重版权内容的角度,遵守robots协议都应该是正规互联网公司的默之举,任何违反robots协议的行为都应该为此付出代价。

  Robots协议为网站安全保驾护航,一旦违反协议要求很多商业性网站可能会蒙受巨大损失。我们不想知道如此惯例是否有罪,重要的是维护网络环境和谐让网络User可以放心是每位站长的共同心愿。


我们可为您提供如下网络服务: 营销型网站建设 商标注册 竞价帐户托管 阿里淘宝装修 seo网站优化 支付接口对接 站群系统 程序开发 网站维护
(转载请注明转自:http:www.baisoubao.cn 网站建设 谢谢!)
上一篇:程序员的年龄天花板,程序员能干到多少岁?
下一篇:如何合理安排现阶段的网站优化工作?