关于python爬虫中的一些问题--5 urllib.request.urlretrieve()

1,298 阅读1分钟

urllib.request.urlretrieve()

该方法用于根据URL下载文件到本地,常用于爬虫程序中快速下载文件。

用法: urllib.request.urlretrieve(url, filename=None, reporthook=None, data=None)

参数url:传入的网址,网址必须得是个字符串

参数filename:指定了保存本地路径(如果参数未指定,urllib会生成一个临时文件保存数据。)

参数reporthook:是一个回调函数,当连接上服务器、以及相应的数据块传输完毕时会触发该回调,我们可以利用这个回调函数来显示当前的下载进度。

参数data:指 post 到服务器的数据,该方法返回一个包含两个元素的(filename, headers)元组,filename 表示保存到本地的路径,header 表示服务器的响应头。

实例:

def download_and_uncompress_tarball(tarball_url, dataset_dir):
"""
Downloads the `tarball_url` and uncompresses it locally.
:param tarball_url: The URL of a tarball file.
:param dataset_dir: The directory where the temporary files are stored.
:return:
"""

filename = tarball_url.split('/')[-1]
filepath = os.path.join(dataset_dir, filename)


#可以当作进度条使用
def _progress(block_num, block_size, total_size):
    sys.stdout.write('\r>>>Downloading %s %.1f%%' % (
        filename, float(block_num * block_size / total_size * 100.0)
    ))
    sys.stdout.flush()


filepath, _ = request.urlretrieve(tarball_url, filepath, _progress)
print()
statinfo = os.stat(filepath)  # 系统调用,返回一些信息
print('Successfully downloaded', filename, statinfo.st_size, 'bytes.')

#cidar10 数据下载地址 及数据存储文件夹

DATA_URL = 'www.cs.toronto.edu/~kriz/cifar…' DATA_DIR = 'data'

download_and_uncompress_tarball(DATA_URL, DATA_DIR)