在爬虫的世界里,数据解析占用很重要的位置
数据解析原理:
bs4数据解析原理:
通过上述描述。我们需要安装所需要的库文件。执行如下:
环境安装:
- pip install bs4
-
- pip install lxml
使用时候导入包:
- from bs4 import BeautifulSoup
我们先来熟悉bs4的对象中相关的属性:
- (1)根据标签名查找
- - soup.a 只能找到第一个符合要求的标签
- (2)获取属性
- - soup.a.attrs 获取a所有的属性和属性值,返回一个字典
- - soup.a.attrs['href'] 获取href属性
- (3)获取其标签内的内容
- - soup.a.string
- - soup.a.text
- - soup.a.get_text()
- 【注意】如果标签还有标签,那么string获取到的结果为None,而其它两个,可以获取文本内容
- (4)find:找到第一个符合要求的标签
- - soup.find('a') 找到第一个符合要求的
- - soup.find('a',)
- - soup.find('a', alt="xxx")
- - soup.find('a', class_="xxx")
- - soup.find('a', id="xxx")
- (5)find_all:找到所有符合要求的标签
- - soup.find_all('a')
- - soup.find_all(['a','b']) 找到所有的a和b标签
- - soup.find_all('a', limit=2) 限制前两个
- (6)根据选择器选择指定的内容
- select:soup.select('#feng')
- - 常见的选择器:标签选择器(a)、类选择器(.)、id选择器(#)、层级选择器
- - 层级选择器:
- div .dudu #lala .meme .xixi 下面好多级
- div > p > a > .lala 只能是下面一级
- 【注意】select选择器返回永远是列表,需要通过下标提取指定的对象
实例演示:
- from bs4 import BeautifulSoup
-
- import requests
-
- url ="https://www.shicimingju.com/book/sanguoyanyi.html"
- headers = {
- 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko)'
- ' Chrome/88.0.4324.182 Safari/537.36 Edg/88.0.705.74'
- }
-
- result = requests.get(url=url,headers=headers)
- result.encoding ="utf-8"
- result_text = result.text
-
- # 将内容存储到html中去
- # with open('shici.html',mode='w',encoding='utf-8') as f:
- # f.write(result_text)
-
- # 开始使用bs4 进行数据解析(这里lxml是解析器的一种。还有其他解析方式,html.parse,xml,html5lib等)
- soup = BeautifulSoup(result_text,'lxml')
-
- print(soup.title.text); #查找标签下的文本
上面执行一下,得到的就是第一个title标签的文本:
下面的代码就是获取唯一元素的代码和文本:
- print(soup.find('div',id='top_left_menu'))
- print(soup.find('p',class_='des').text)
获取元素下批量元素下的内容:
- book_mulu = soup.find('div',class_="book-mulu").find_all('a')
- for muli in book_mulu:
- print(muli.text)
也可以通过select选择器进行选择:
- lists = soup.select('div#top_right_nav >ul>li>a')
-
- list_content =[]
- for i in lists:
- list_content.append(i.attrs['data-cate'])
-
- print(list_content)
使用bs4解析数据,第一步就是将html转为bs4.BeautifulSoup的类型,然后通过find方法找到内容具体的标签,最后再通过select方法进行选择相关所需内容。多多练习就会使用。其实需要有一定的前端知识。