Python爬虫技术到底违不违法,怎么才能合法挣钱?
近几年来,因为开发者使用爬虫技术锒铛入狱的案例越来越多。
2015年,某公司授意五名程序员,利用网络爬虫获取一公司服务器的公交车行驶信息、到站信息等数据。这五名程序员需承担连带责任。
2019年,某公司4名主管人员,利用爬虫技术,非法爬取某节跳动服务器存储中的视频数据,被告人依法被判处有期徒刑9-10个月,并处罚金。
越来越多的案件,让开发者越发不安,爬虫也违法?
公司要让我爬取数据,爬是不爬?爬吧?违法,不爬吧,也不好。
使用爬虫技术,怎么规避风险?也成了一个大难题。
仔细研究爬虫相关案例,我们不难总结出,如何合法的使用爬虫技术,规避风险。
1、遵守Robots协议
Robots是网站和爬虫之间的君子协议,当网站拒绝爬虫访问,爬取数据时,可以在根目录下存放robots.txt文件,告诉爬虫不能爬取网站全部或部分指定内容。
360搜索爬取百度内容一案中,就是因为360违反Robots协议,最终才判赔70万元。
但是,网站没有该协议,不意味着能随意爬取数据,也有可能违法。
2、爬虫行为
开发者使用爬虫技术,如果请求频率过高,接近DDoS攻击的频率,一旦造成目标服务器瘫痪,这个就不是爬虫行为,而是黑客行为,必定要承担相应的责任。
3、反爬措施
如果目标网站已使用BotGuard爬虫管理等云产品,来控制和管理爬虫,或者使用了一些措施反爬,或者正常用户不能到达的页面。如果开发者强行突破以上这些措施,同样会被界定为黑客行为。
4、爬取内容
爬取的以下内容是一条高压线,绝对不能触碰。包括但不限于:
1.爬取用户信息谋利
用户个人信息属于敏感信息,近几年打击力度越来越大,严禁使用爬虫爬取这些信息。
2.爬取商业数据
很多公司为了获得竞争优势,会使用爬虫技术,爬取竞争对手的内容,但这一手段会构成不正当竞争。
3.爬取知识产权数据
爬取大量带有知识产权的数据,并且用于商业目的,属于违法行为。
不难看出,爬虫技术本身并不违法,关键在于使用的方式和目的。
最后总结一下,爬虫爬数据有几个雷区:
一是只能爬取公开数据,
二是不能对目标业务和网站造成影响,
三是目标网站的全部或部分内容没有使用反爬措施。
最后,希望大家合理学习和使用爬虫技术,正正当当、合法地挣钱。