您当前的位置:首页 >  工作计划 >  工作计划范文 > 内容

从行业惯例的角度分析robots协议的司法约束力

材料写作网    时间: 2019-12-27 17:20:53     阅读:


  【摘 要】robots协议也称爬虫协议、爬虫规则等,是指网站可建立一个robots.txt文件来告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,而搜索引擎则通过读取robots.txt文件来识别这个页面是否允许被抓取。但是,这个robots协议不是防火墙,也没有强制执行力,搜索引擎完全可以忽视robots.txt文件去抓取网页的快照。那么,当百度基于robots协议诉奇虎不正当竞争时,法院该判令奇虎遵守robots协议吗?文章以此案例导出,通过对robots协议的法律性质作出认定,从行业惯例的角度去分析robots协议的司法约束力,并认为在法律缺失的条件下,符合习惯构成要件的robots协议应该得到遵守。
  【关键词】robots协议;爬虫协议;搜索引擎;法律性质;行业惯例
  一、案例简况
  2012年8月16日,360搜索上线并成为360网址导航的默认搜索,360搜索将百度多项业务纳入搜索范围供用户选择,如百度知道,百度音乐,百度地图等纳入自己的综合搜索。这一行为遭到百度的强烈抵制,随后百度通过技术手段,令这些搜索请求无法通过360直达结果页面,而是跳转至百度首页,让用户重新搜索。双方的争议随后进入司法程序,2012年10月16日,百度将奇虎360 诉诸北京市第一中级人民法院。
  百度不允许360搜索直接访问百度的内容,其依据的是国外成型已久的所谓搜索行业规范””robots协议。百度认为,百度知道、百科、贴吧等内容是百度所有的内网内容,百度有权决定其内容是否要被360综合搜索抓取与展示,而360综合搜索无视百度在robots协议中未对其进行授权的事实,对百度知道、百度百科等内容进行强行抓取,违背行业规范,涉嫌侵犯著作权、不正当竞争。奇虎360则认为,'robots.txt仅仅是指导和提示搜索引擎蜘蛛程序,善意的提示性TXT文件,既不是法规或标准,也不是合约,因而不存在违反与不违反的问题“。百度既是搜索引擎,也是内容网站,百度百科和百度知道等内容的robots协议仅针对360综合搜索,其他引擎如谷歌搜索则可以顺利抓取,这是一种歧视性的行为,是假robots协议之名阻止360进入搜索市场,是不正当竞争。并且,百度百科和百度知道等都是公开的信息,是网民一点一滴贡献出来的,允许其它搜索引擎抓取就正说明不涉及隐私的内容,不符合robots协议的适用范围。
  本文无意探讨上述双方谁是谁非,只是借助这个案例,告诉大家什么是robots协议,通过对robots协议的法律性质作出认定,从行业惯例的角度去分析robots协议的司法约束...

== 试读已结束,如需继续阅读敬请充值会员 ==
本站文章均为原创投稿,仅供下载参考,付费用户可查看完整且有格式内容!
(费用标准:38元/2月,98元/2年,微信支付秒开通!)
升级为会员即可查阅全文 。如需要查阅全文,请 免费注册登录会员
《从行业惯例的角度分析robots协议的司法约束力.doc》
将本文的Word文档下载到电脑,方便收藏和打印
推荐度:

文档为doc格式

相关热搜

《从行业惯例的角度分析robots协议的司法约束力.doc》

VIP请直接点击按钮下载本文的Word文档下载到电脑,请使用最新版的WORD和WPS软件打开,如发现文档不全可以联系客服申请处理。

文档下载
VIP免费下载文档

浏览记录