许多用户使用了代理IP后仍然经常遇到爬虫被封IP的情况,实际上使用代理IP后并不意味着用户可以不作伪装,随心所欲的爬取数据。要知道,网站的反爬虫策略主要是反那些比较猖狂的爬虫,不可能反那些正常的用户。那么什么样的用户是正常的用户呢,如果将爬虫伪装成正常的用户呢,是不是就不会被封了?
首先,正常用户访问网站的频率不会太快,毕竟浏览速度有限。如果爬虫非要伪装成用户,爬行频率不可能反人类,但这样一来,效率会大打折扣。这个问题可以通过多线程爬取来解决,既能保障高效爬取,又可以合理伪装。
其次,有些网站往往需要验证码来验证。对于正常用户来说基本没问题,但是对于爬虫来说,需要一套强大的验证码识别程序来识别。
然后,还有一些其他的细节,比如,UserAgent频繁更换,cookie要清理,访问顺序不要有规律,抓取每个页面的时间不要有规律等等。掌握目标网站的反爬策略和http代理ip软件的使用对爬虫的成功非常关键。