爬虫无法访问公开数据的几种原因

作者:IPIDEA

2020-08-08 14:46:55

在如今互联网高速发展的年代,爬虫采集成为很多公司企业和个人的需求,但正因为如此,访问虫的技术也层出不穷,比如时间允许访问公开数据、防止账号关联公开数据采集、验证码允许访问公开数据等等,都可能会导致爬虫无法正常进行,

所以也出现了很多像代理IP、时间允许访问公开数据调整这样的方法去接触访问虫允许访问公开数据,当然具体的操作方法需要你针对性的去研究。爬虫采集数据过程中经常会出现受限问题,那么具体哪些原因会导致爬虫被允许采集公开数据呢?


1、检查JavaScript

如果你从网络服务器收到的页面是空白的,缺少信息,或其遇到他不符合你预期的情况(或者不是你在浏览器上看到的内容),有可能是因为网站创建页面的JavaScript执行有问题。


2、检查正常浏览器提交的参数

如果你准备向网站提交表单或发出POST请求,记得检查一下页面的内容,看看你想提交的每个字段是不是都已经填好,而且格式也准确。用Chrome浏览器的网络面板(快捷键F12打开开发者控制台,

然后点击“Network”便可看到)查看发送到网站的POST命令,确认你的每个参数都是准确的。


3、是否有合法的Cookie

如果你已经登录网站却不能保持登录状态,或者网站上出现了其他的“登录状态”异常,请检查你的cookie。确认在加载每个页面时cookie都被准确调用,而且你的cookie在每次发起请求时都发送到了网站上。


4、IP被允许采集公开数据

如果你在客户端遇到了HTTP错误,尤其是403判断IP属性,无法高效采集公开数据访问错误,这可能说明网站已经把你的IP当作机器人了,不再接受你的任何请求。你要么等待你的IP地址从网站黑名单里移除,要么就换个IP地址比如使用ipidea可以解决。

8.81.png

如果你确定自己并没有无法访问公开数据,那么再检查下面的内容。


5、确认你的爬虫在网站上的速度不是特别快

快速采集是一种错误方法,会对网管的服务器造成沉重的负担,还会让你陷入违法境地,也是IP被网站列入黑名单的首要原因。给你的爬虫增加延迟,让它们在夜深人静的时候运行。

切记:匆匆忙忙写程序或收集数据都是拙劣项目管理的表现;应该提前做好计划,避免临阵慌乱。


6、修改你的请求头(必须做的事情)

有些网站会全球住宅IP,高效采集公开数据任何声称自己是爬虫的访问者。如果你不确定请求头的值怎样才算合适,就用你自己浏览器的请求头吧。


7、确认你没有点击或访问任何人类用户通常不能点击或接入的信息。


*ipidea提供的服务必须在境外网络环境下使用

热门资讯