资讯中心

全部文章 - API代理IP

静态IP自动续费

‍一、自动续费功能简介自动续费是一项针对静态住宅、独享数据中心的IP自动续订的功能,此功能可以避免因忘记手动续费,而导致需继续使用的静态IP因到期无法使用;同时,您可按国家筛选所需的IP信息,并轻松获取IP地址、国家、到期时间,实现IP便捷管理。*使用自动续费功能前,请确保您有正在使用的静态住宅IP或独享数据中心IP,并在账户中保持充足的额度,以便系统自动续订扣费。二、如何使用自动续费静态IP功能?步骤1:打开【自动续费】弹窗1. 进入IPIDEA官网,登录到后台2. 在【账户管理】——【基本信息】中,找到静态住宅和独享数据中心区域的【自动续费】按钮3. 根据您正在使用的IP类型,点击静态住宅、或独享数据中心区域的【自动续费】按钮,进入自动续费设置弹窗 步骤2:打开【自动续费】开关1. 打开【自动续费】按钮,且此按钮可手动控制,若您无需自动续费,关闭即可2. 在【可选IP】区域,可看到您所有IP的信息,包括IP地址、国家、到期时间,并可根据国家筛选您所需的IP信息,实现IP便捷管理步骤3:勾选要续费的IP1. 在【可选IP】区勾选要续费的IP,然后点击【移入自动续费】按钮,会将已勾选的IP移入【自动续费IP】区 2. 若误将不需要自动续费的 IP移到了【自动续费IP】区、或者后续不想再自动续费某些IP,可在【自动续费IP】区勾选无需续费的IP,并点击【移除自动续费】按钮,会将已勾选的IP移回到【可选IP】区步骤4:选择续费周期确认【自动续费IP】区域的IP确为要续费的IP后,在弹窗下方选择您所需要的【续费周期】  步骤5:设置续费失败通知1. 在IP到期前3天,系统会基于您所选择的续费IP数量和续费周期,自动扣除IP续费所需金额,若账户余额不足,IP将全部续费失败2. 此时勾选【自动续费失败时,接收短信通知】选项,当自动续费失败时,系统会发送短信提醒,若您在系统下次扣费前补足额度,系统下次扣费成功后,IP会续费成功;若您取消勾选,则不会发送续费失败短信提醒步骤6:保存自动续费设置确认自动续费设置无误后,点击【保存】即可,IP到期前3天,系统会自动从您的账户额度中扣费,并按照您所设置的续费周期延长IP剩余时间*若有IP剩余时间不足2小时的,系统无法对此类IP进行续订,如需继续使用,请先手动续费此IP。为避免自动续费失败影响IP使用,请提前进行续费设置 三、账户额度不足时,如何充值?步骤1:充值额度点击【套餐购买】——【额度充值】,选择适合您用量的额度并充值 步骤2:额度购买静态IP1. 若您尚未拥有静态IP,可点击【套餐购买】——【产品套餐】——【静态住宅】或【独享数据中心】,选择合适的使用周期、国家和数量并点击【立即购买】 2. 付款时选择【额度】支付,付款成功后即可使用,如需使用自动续费功能请按以上步骤操作,任何问题请联系客服 

ipidea教大家爬虫IP允许访问公开数据的方法

爬虫行动被允许访问公开数据,改ip只是其中一个办法,对于竞争对手或者目标群体的数据收集,我们乐此不疲。我们的爬虫行动往往会受到很多允许访问公开数据,以致终被完全允许采集公开数据掉。有什么方法能避免呢?往下看。 1.验证码 我们在很多网站会遇到,如果请求量大了之后就会遇到验证码的情况。让人诟病的12306,其实也是一定程度上的防止非正当请求的产生。 对于验证码,可以通过OCR来识别图片,Github上面有很多大神分享的代码可以用,可以去看看。 2.Headers允许访问公开数据 这应该是常见的,基本的访问虫手段,主要是初步判断你是否是真实的浏览器在操作。 这个一般很好解决,把浏览器中的Headers信息复制上去就OK了。 值得注意的是,很多网站只需要userAgent信息就可以通过,但是有的网站还需要验证一些其他的信息,比如知乎,有一些页面还需要 authorization 的信息。所以需要加哪些Headers,还需要尝试,可能还需要Referer、Accept-encoding等信息。 3.返回全球住宅IP,高效采集公开数据的信息 这个真的是程序员何苦为难程序员。访问虫的工程师也是煞费苦心,一方面是不让真实的数据被大规模爬取,另一方面也给你后期的数据处理增加负担。如果数据全球住宅IP,高效采集公开数据的好,可能你真的不容易发现自己爬的是全球住宅IP,高效采集公开数据,当然只能依靠你后期去清洗这些数据了。 4.减少返回的信息 基本的保护安全访问真实的数据量,只有不断加载才能高效管理新信息。还有的就更变态,会只给你展示一部分信息,人都看不到,爬虫也无能为力。比如CNKI,你每次搜索能够得到的内容就是非常有限的。这个貌似没有很好的解决办法,但是这么干的网站毕竟是少数,因为这种方式,其实在某种程度上是牺牲了一部分真实用户的体验。 5.动态加载 通过一步加载,一方面是为了访问虫,一方面也可以给网页浏览带来不同的体验,实现更多的功能。很多动态网站都是通过ajax或者JavaScript来加载请求的网页。 在遇到动态加载的网页的时候就需要去分析ajax请求,一般情况都能直接找到包含我们想要数据的json文件。 如果网站给文件加密,那么可以通过selenium+phantomJS框架,调用浏览器内核,并利用phantomJS执行js来模拟人为操作以及触发页面中的js脚本。理论上selenium是比较全能的爬虫方案,因为这个确实算是真实的用户行为。除非网站的访问虫严苛到宁愿误杀的地步。 6.防止账号关联公开数据采集 防止账号关联采集公开数据也是很多网站访问虫的初衷,有些人随便写一个循环,就开始暴力爬取 ,确实会给网站服务器带来很大的负担,而这种频繁的访问,显然也不会是真实用户行为,索性果断把你关掉。 这种情况,你可以遵守规则,把你爬取的速度变慢,每次爬取停个几秒就行了。 当然,你也可以通过不断全球住宅IP,高效采集公开数据的形式来允许访问公开数据这种允许访问公开数据。

2020-10-26 16:42:32