Python3爬虫-02-模拟浏览器

586 阅读1分钟

#Cookie 用你自己账号登陆后,用火狐浏览器看看你自己的Cookie

'''
伪装浏览器

对于一些需要登录的网站,如果不是从浏览器发出的请求,则得不到响应。
所以,我们需要将爬虫程序发出的请求伪装成浏览器正规军。
具体实现:自定义网页请求报头。
'''

#实例二:依然爬取豆瓣,采用伪装浏览器的方式

import urllib.request
import ssl
ssl._create_default_https_context = ssl._create_unverified_context

#定义保存函数
def saveFile(data):
    #路径替换成你自己的
    path = "//Users//wangleilei//Documents//04_douban.html"
    f = open(path,'wb')
    f.write(data)
    f.close()

#网址
url = "http://www.douban.com"
headers = {'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.12; rv:57.0) Gecko/20100101 Firefox/57.0'}

print(url)
req = urllib.request.Request(url=url,headers=headers)

res = urllib.request.urlopen(req)

data = res.read()

#也可以把爬取的内容保存到文件中
saveFile(data)

data = data.decode('utf-8')
#打印抓取的内容
#print(data)


#打印爬取网页的各类信息
print(type(res))
print(res.geturl())
print(res.info())
print(res.getcode())

我的Python3爬虫系列 原文参照Python3 爬虫系列教程