- # 开关快捷键
- windows: Ctrl-Shift-X
- Mac: Command-Shift-X
- # 1、安装 lxml 库
- $ pip install lxml
- # 或使用国内源
- $ pip install lxml -i https://pypi.tuna.tsinghua.edu.cn/simple
-
- # 2、导入 lxml.etree
- from lxml import etree
-
- # 3、解析本地文件:etree.parse()
- html_tree = etree.parse('xxx.html')
-
- # 4、解析服务器响应数据:etree.HTML()
- html_tree = etree.HTML(response.read().decode('utf-8'))
-
- # 5、xpath路径
- html_tree.xpath('xpath路径')
路径表达式案例 | 含义 |
---|---|
// | 查找所有子孙节点,不考虑层级关系 |
/ | 直接找子节点 |
//div[@id] | 查询有 id 属性的 div 标签 |
//@class | 获得所有带 class 属性标签的 class 属性值 |
//div[contains(@id, "he")] | 查询 id 属性包含 he 的 div 标签 |
//div[starts-with(@id, "he")] | 查询 id 属性以 he 开头的 div 标签 |
//div/h1/text() | 获得 div 标签内 h1 标签的内容 |
//div[@id="head" and @class="one"] | 查找 id 属性为 head 同时 class 属性为 one 的 div 标签 |
//div[@id="head"] | //div[@id="one"] | 查找 id 属性为 head 或 id 属性为 one 的 div 标签 |
- <!DOCTYPE html>
- <html lang="en">
- <head>
- <meta charset="UTF-8"/>
- <meta http-equiv="X-UA-Compatible" content="IE=edge"/>
- <meta name="viewport" content="width=device-width, initial-scale=1.0"/>
- <title>Document</title>
- </head>
- <body>
- <ul>
- <li>北京</li>
- <li>上海</li>
- <li>深圳</li>
- <li>武汉</li>
- </ul>
- <ul>
- <li>大连</li>
- <li>沈阳</li>
- <li>长沙</li>
- </ul>
- </body>
- </html>
- # 导入 lxml.etree
- from lxml import etree
-
- # 解析本地文件(远程网页内容按上面使用流程替换就行)
- tree = etree.parse('test.html')
-
- # 查找 ul 下面带 id 属性的 li 标签
- li_list = tree.xpath('//ul/li[@id]/text()') # ['北京', '上海', '深圳', '武汉']
- li_list = tree.xpath('//li[@id]/text()') # ['北京', '上海', '深圳', '武汉']
-
- # 查找 ul 下面 id 属性为 l1 的 li 标签
- li_list = tree.xpath('//li[@id="l1"]/text()') # ['北京']
-
- # 获取 ul 下面 id 属性为 l1 的 li 标签的内容
- li_list = tree.xpath('//li[@id="l1"]/text()') # ['北京']
-
- # 查找 ul 下面 id 属性为 l1 的 li 标签的 class 属性值
- li_list = tree.xpath('//li[@id="l1"]/@class') # ['c1']
-
- # 查找 id 属性中包含 3 的标签
- li_list = tree.xpath('//ul/li[contains(@id, "3")]/text()') # ['深圳']
-
- # 查找 id 属性中以 l 开头的标签
- li_list = tree.xpath('//ul/li[starts-with(@id, "l")]/text()') # ['北京', '上海', '深圳', '武汉']
-
- # 查找 id 属性为 l1 和 class 属性为 c1 的标签
- li_list = tree.xpath('//ul/li[@id="l1" and @class="c1"]/text()') # ['北京']
-
-
- # 查找 id 属性为 l1 或 id 属性为 l2 的标签
- li_list = tree.xpath('//ul/li[@id="l1" | @class="c1"]/text()') # 错误写法
- li_list = tree.xpath('//ul/li[@id="l1"]/text() | //ul/li[@id="l2"]/text()') # ['北京', '上海']
-
- # 输出
- # print(li_list)
- # print(len(li_list))
- # 使用 urllib
- import urllib.request
- # 使用 lxml
- from lxml import etree
-
- # 定义 header
- headers = {
- # UA 最基本的防爬识别
- 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36'
- }
-
- # 1、定义一个 https 的 url
- url = 'https://www.baidu.com'
-
- # 2、定义一个 Request 对象,urlopen 方法并不能直接带 header。
- # 细节:为什么这里需要写 url=url 而有的地方不需要?因为 Request 构造方法传参顺序问题 Request(url, data=None, headers={} ...)
- request = urllib.request.Request(url=url, headers=headers)
-
- # 3、模拟浏览器向服务器发送请求
- response = urllib.request.urlopen(request)
-
- # 3、获取内容字符串
- content = response.read().decode('utf-8')
-
- # 4 输出
- # print(content)
-
- # 5、解析服务器响应数据
- tree = etree.HTML(content)
-
- # 是否存在 id 属性为 su 的标签
- print(tree.xpath('//@id="su"')) # True
-
- # 获得 `百度一下` 四个字
- print(tree.xpath('//input[@id="su"]/@value')) # ['百度一下']