Python 连接并操作 MySQL 数据库,主要通过 Pymysql 模块实现。本节讲解如何将抓取的数据存储至 MySQL 数据库。
提示:在学习本节知识之前,您已经掌握了 SQL 语言的基本语法。可参考《MySQL教程》
首先您应该确定您的计算机上已经安装了 MySQL 数据库,然后再进行如下操作:
- db = pymysql.connect('localhost','root','123456','maoyandb')
参数说明:
execute() 方法用来执行 SQL 语句。如下所示:
- #第一种方法:编写sql语句,使用占位符传入相应数据
- sql = "insert into filmtab values('%s','%s','%s')" % ('刺杀,小说家','雷佳音','2021')
- cursor.excute(sql)
- 第二种方法:编写sql语句,使用列表传参方式
- sql = 'insert into filmtab values(%s,%s,%s)'
- cursor.execute(sql,['刺杀,小说家','雷佳音','2021'])
完整的代码如下所示:
- # -*-coding:utf-8-*-
- import pymysql
-
- #创建对象
- db = pymysql.connect('localhost','root','123456','maoyandb')
- cursor = db.cursor()
- # sql语句执性,单行插入
- info_list = ['刺杀,小说家','雷佳音,杨幂','2021-2-12']
- sql = 'insert into movieinfo values(%s,%s,%s)'
- #列表传参
- cursor.execute(sql,info_list)
- db.commit()
- # 关闭
- cursor.close()
- db.close()
查询数据结果,如下所示:
还有一种效率较高的方法,使用 executemany() 可以同时插入多条数据。示例如下:
- db = pymysql.connect('localhost','root','123456','maoyandb',charset='utf8')
- cursor = db.cursor()
- # sql语句执性,列表元组
- info_list = [('我不是药神','徐峥','2018-07-05'),('你好,李焕英','贾玲','2021-02-12')]
- sql = 'insert into movieinfo values(%s,%s,%s)'
- cursor.executemany(sql,info_list)
- db.commit()
- # 关闭
- cursor.close()
- db.close()
查询插入结果,如下所示:
下面修改上一节《Python爬虫抓取猫眼电影排行榜》中的爬虫程序,将抓取下来的数据存储到 MySQL 数据库。如下所示:
- # coding=gbk
- from urllib import request
- import re
- import time
- import random
- from ua_info import ua_list
- import pymysql
-
- class MaoyanSpider(object):
- def __init__(self):
- #初始化属性对象
- self.url = 'https://maoyan.com/board/4?offset={}'
- #数据库连接对象
- self.db = pymysql.connect(
- 'localhost','root','123456','maoyandb',charset='utf8')
- #创建游标对象
- self.cursor = self.db.cursor()
-
- def get_html(self,url):
- headers = {'User-Agent':random.choice(ua_list)}
- req = request.Request(url=url,headers=headers)
- res = request.urlopen(req)
- html = res.read().decode()
- # 直接解析
- self.parse_html(html)
-
- def parse_html(self,html):
- re_bds = '<div class="movie-item-info">.*?title="(.*?)".*?<p class="star">(.*?)</p>.*?class="releasetime">(.*?)</p>'
- pattern = re.compile(re_bds,re.S)
- r_list = pattern.findall(html)
- self.save_html(r_list)
-
- def save_html(self, r_list):
- L = []
- sql = 'insert into movieinfo values(%s,%s,%s)'
- # 整理数据
- for r in r_list:
- t = (
- r[0].strip(),
- r[1].strip()[3:],
- r[2].strip()[5:15]
- )
- L.append(t)
- print(L)
- # 一次性插入多条数据 L:[(),(),()]
- try:
- self.cursor.executemany(sql,L)
- # 将数据提交数据库
- self.db.commit()
- except:
- # 发生错误则回滚
- self.db.rollback()
-
- def run(self):
- for offset in range(0,11,10):
- url = self.url.format(offset)
- self.get_html(url)
- time.sleep(random.uniform(1,3))
- # 断开游标与数据库连接
- self.cursor.close()
- self.db.close()
-
- if __name__ == '__main__':
- start=time.time()
- spider = MaoyanSpider()
- spider.run()
- end=time.time()
- print("执行时间:%.2f" % (end-start))
数据库查询存储结果,如下所示: