import urllib.request
import requests
import selenium
# urllib 库的用法
# a = urllib.request.urlopen('http://www.baidu.com')
# requests 库的用法
# b = requests.get('http://www.baidu.com')
# selenium 库的用法
# 安装selenium库 会提示chromedriver未安装 所以要先去安装下这个
# chromedriver http://chromedriver.chromium.org/ 下载地址官方网站
# 然后直接把他放到环境变量的 目录下
# 注意版本
# from selenium import webdriver
# driver = webdriver.Chrome()
# print(driver.get('http://www.baidu.com'))
# 用chromedriver 会出现一个浏览器窗口 会非常不方便
# phantomjs 这个库就是无界面的 下载地址 http://phantomjs.org/download.html
# 下载完成后 解压 然后配置环境变量
# driver_js = webdriver.PhantomJS()
# 这样运行 就不用看到浏览器的操作
# driver_js.get('http://www.baidu.com')
# driver_js.page_source
# lxml 库的安装 解析方式 pip install lxml 通过pip 进行安装
# import lxml
# lxml.get_include()
# beautifulsoup 库
# Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。
# 它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。
# Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。
# 你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup就不能自动识别编码方式了。
# 然后,你仅仅需要说明一下原始编码方式就可以了。
# Beautiful Soup已成为和lxml、html6lib一样出色的python解释器,为用户灵活地提供不同的解析策略或强劲的速度
# pyquery 库 这样就引进 qyquery 库
# from pyquery import PyQuery as pq
#
#
#
# pymysql 库
# import pymysql
# mysql = pymysql.connect('127.0.0.1', 'root', 'root')
# pymongo 库
# redis 库
# import redis
#
#
#
# flask 库 web库 做代理的时候有可能用到这个库
# import flask
# django web服务器框架
# jupyter 库 记事本库
# 这些库都会有官网 下载库 都可以用 pip install 库名