likes
comments
collection
share

利用urllib库与re库抓取电影数据网站

作者站长头像
站长
· 阅读数 5

简单概述

本系列可能是一个比较长的系列,主要是对《Python3网络爬虫开发实战》前七章的一个内容总结并且熟悉使用一下相关的框架与技术。

任务目标

爬取电影数据网站ssr1.scrape.center/, 此网站无反爬,数据通过服务端渲染,需要爬取的部分为列表页里面的电影数据详情。

任务目标解析

  1. 爬取ssr1.scrape.center/网站的列表页面, 通过列表页面的内容获取到需要的URL
  2. 爬取ssr1.scrape.center/detail/{id}, 网站内的数据详情,需要获取的部分有:
    1. 电影标题
    2. 电影图片的url
    3. 电影上映时间
    4. 电影分类
    5. 电影评分
    6. 剧情简介
  3. 将内容存放到需要的数据库中

技术选型与爬取

如何爬取

本网站的爬取使用urllib库进行最基本的爬取,通过此库完成对于爬取内容,爬取列表页,爬取详情页进行设定。

构建基础的爬取函数

由于我们要完成对两个不同页面内容的爬取,但他们实际上所需要完成的步骤都是对页面的内容爬取,即获取到静态网页页面,因此我们只需要设计一个页面爬取的函数即可,而对于列表页和详情页更改url就可以进行调用了。

def scarpe_page(url):
    # 进行爬取网页链接的输出
    logging.info('scraping %s ...', url)
    # 异常捕获操作
    try:
        # 尝试打开网页内容
        response = urlopen(url)
        # 如果页面返回代码为200
        if response.status == 200:
            # 输出网页的内容
            return response.read().decode('utf-8')
        # 日志请求
        logging.error('get invalid status code %s while scraping %s',
                      response.status, url)
    except urllib.error.HTTPError as e:
        # 输出错误
        logging.error('error ocurred while scraping %s', url, exc_info=True)

构建列表页的爬取函数

这个部分只需要分析出最基础的URL的页码规则就可以完成对页面内容的爬取,经过分析我们可以发现https://ssr1.scrape.center/page/{page}可以发现变动的内容在{page}部分,因此构建的抓取方式如下:

# 构建一个函数用于爬取列表页
def scrape_index(page):
    # 列表页的索引
    index_url = f'{BASE_URL}/page/{page}'
    # 调用爬取页面
    return scarpe_page(url=index_url)

构建详情页的爬取函数

详情页的爬取是建立在解析列表的基础上获得的,因此详情页爬取函数只需要知道url就可以直接调用基础爬取函数,而这里我们只需要对列表页解析后就可以获取到我们所需要的url,因此整体的构建方式如下:

# 构建一个函数用于爬取详情页
def scrape_detail(url):
    return scarpe_page(url=url)

如何解析

解析列表页后获取详情页的URL

当我们获得我们所需要的静态网页数据后,我们就可以从其内容中分析出我们所需要的数据了,这个时候我们可以通过正则表达式来快速便捷的帮我们获取到我们所需要的数据,而正则表达式所需要寻找的url就藏在一个a标签当中,完善好所需要的正则表达式后,我们就完成了此函数的构建:

# 解析列表页网页
def parse_index(html):
    # 正则表达式
    # 构建正则表达式
    pattern = re.compile('a.*?href="(.*?)" class="name"')
    # 查找所有满足正则表达式的字符串
    items = re.findall(pattern, html)
    # 如果为空就返回一个空列表
    if not items:
        return []
    # 获取详情页
    for item in items:
        # 进行详情页的url拼接
        detail_url = urljoin(BASE_URL, item)
        # 输出生成的链接信息
        logging.info('get detail url %s', detail_url)
        # 生成器函数
        yield detail_url

解析详情页获取需要的数据

当详情页数据获取到之后,对网页内的信息进行解析,实现对电影名称,电影类别,图片地址,出版日期,剧情简介以及评分的内容获取:

# 解析详情页网页
def parse_detail(html):
    global index

    # 构建正则表达式
    # 电影标题
    name_pattern = re.compile('<h2.*?>(.*?)</h2>')
    # 电影图片url
    cover_pattern = re.compile('class="item.*?<img.*?src="(.*?)".*?class="cover">', re.S)
    # 电影上映时间
    published_at = re.compile('(\d{4}-\d{2}-\d{2}) 上映')
    # 电影分类
    categories_pattern = re.compile('<button.*?category.*?<span>(.*?)</span>.*?</button>', re.S)
    # 电影评分
    score_pattern = re.compile('score.*?>(.*?)</p>', re.S)
    # 电影剧情简介
    drama_pattern = re.compile('drama.*?<p.*?>(.*?)</p></div>', re.S)

    # 获取需要的解析数据
    name = re.search(name_pattern, html).group(1) if re.search(name_pattern, html) \
            else None
    cover = re.search(cover_pattern, html).group(1) if re.search(cover_pattern, html) \
            else None
    published = re.search(published_at, html).group(1) if re.search(published_at, html) \
            else None
    categories = re.findall(categories_pattern, html) if re.findall(categories_pattern, html) \
            else []
    drama = re.search(drama_pattern, html).group(1).strip() if re.search(drama_pattern, html) \
            else None
    score = re.search(score_pattern, html).group(1).strip() if re.search(score_pattern, html) \
            else None
    
    # 以字典形式输出解析数据
    return {
        # 索引
        'index': index,
        # 电影标题
        'name': name,
        # 图片地址
        'cover': cover,
        # 出版日期
        'published': published,
        # 分类
        'categories': categories,
        # 剧情简介
        'drama': drama,
        # 分数
        'score': score
    }

如何存储

本次存储使用txt文本进行文件内容的存储,直接将文件内容写入一个txt文件当中。

# 完成对网页内容的存储
# 本次存储使用txt进行文件内容的存储
def save_data(data):
    data_path = '{0}/movies.txt'.format(RESULTS_DIR)
    

    # 创建一个文件
    with open(data_path, 'a+', encoding='utf-8') as file:
        # 内部直接进行索引的自增并不会做到文件的自增
        file.write('索引:{0}\n'.format(data.get('index')))
        file.write('名称:{0}\n'.format(data.get('name')))
        file.write('类别:{0}\n'.format(data.get('categories')))
        file.write('图片地址:{0}\n'.format(data.get('cover')))
        file.write('出版日期:{0}\n'.format(data.get('published')))
        file.write('剧情简介:{0}\n'.format(data.get('drama')))
        file.write('评分:{0}\n'.format(data.get('score')))
        file.write(f'{"=" * 50}\n')

附录-源代码

import urllib
import urllib.error
from os import makedirs
from os.path import exists
from urllib.request import urlopen
from urllib.parse import urljoin


import re
import logging


# logging用于进行日志输出
logging.basicConfig(level=logging.INFO,
                    format='%(asctime)s - %(levelname)s: %(message)s')

# 常量
# 基本URL
BASE_URL = 'https://ssr1.scrape.center'
# 需要请求的总页数
TOTAL_PAGE = 10
# 文件夹
RESULTS_DIR = 'RESULTS'
# 索引
index = 0

# 存放OS文件
exists(RESULTS_DIR) or makedirs(RESULTS_DIR)

# 完成对网页内容的爬取

# 构建一个基本的函数用于网页的爬取
def scarpe_page(url):
    # 进行爬取网页链接的输出
    logging.info('scraping %s ...', url)
    # 异常捕获操作
    try:
        # 尝试打开网页内容
        response = urlopen(url)
        # 如果页面返回代码为200
        if response.status == 200:
            # 输出网页的内容
            return response.read().decode('utf-8')
        # 日志请求
        logging.error('get invalid status code %s while scraping %s',
                      response.status, url)
    except urllib.error.HTTPError as e:
        # 输出错误
        logging.error('error ocurred while scraping %s', url, exc_info=True)

# 构建一个函数用于爬取列表页
def scrape_index(page):
    # 列表页的索引
    index_url = f'{BASE_URL}/page/{page}'
    # 调用爬取页面
    return scarpe_page(url=index_url)

# 构建一个函数用于爬取详情页
def scrape_detail(url):
    return scarpe_page(url=url)

# 完成对网页内容的解析

# 解析列表页网页
def parse_index(html):
    # 正则表达式
    # 构建正则表达式
    pattern = re.compile('a.*?href="(.*?)" class="name"')
    # 查找所有满足正则表达式的字符串
    items = re.findall(pattern, html)
    # 如果为空就返回一个空列表
    if not items:
        return []
    # 获取详情页
    for item in items:
        # 进行详情页的url拼接
        detail_url = urljoin(BASE_URL, item)
        # 输出生成的链接信息
        logging.info('get detail url %s', detail_url)
        # 生成器函数
        yield detail_url

# 解析详情页网页
def parse_detail(html):
    global index

    # 构建正则表达式
    # 电影标题
    name_pattern = re.compile('<h2.*?>(.*?)</h2>')
    # 电影图片url
    cover_pattern = re.compile('class="item.*?<img.*?src="(.*?)".*?class="cover">', re.S)
    # 电影上映时间
    published_at = re.compile('(\d{4}-\d{2}-\d{2}) 上映')
    # 电影分类
    categories_pattern = re.compile('<button.*?category.*?<span>(.*?)</span>.*?</button>', re.S)
    # 电影评分
    score_pattern = re.compile('score.*?>(.*?)</p>', re.S)
    # 电影剧情简介
    drama_pattern = re.compile('drama.*?<p.*?>(.*?)</p></div>', re.S)

    # 获取需要的解析数据
    name = re.search(name_pattern, html).group(1) if re.search(name_pattern, html) \
            else None
    cover = re.search(cover_pattern, html).group(1) if re.search(cover_pattern, html) \
            else None
    published = re.search(published_at, html).group(1) if re.search(published_at, html) \
            else None
    categories = re.findall(categories_pattern, html) if re.findall(categories_pattern, html) \
            else []
    drama = re.search(drama_pattern, html).group(1).strip() if re.search(drama_pattern, html) \
            else None
    score = re.search(score_pattern, html).group(1).strip() if re.search(score_pattern, html) \
            else None
    
    # 以字典形式输出解析数据
    return {
        # 索引
        'index': index,
        # 电影标题
        'name': name,
        # 图片地址
        'cover': cover,
        # 出版日期
        'published': published,
        # 分类
        'categories': categories,
        # 剧情简介
        'drama': drama,
        # 分数
        'score': score
    }


# 完成对网页内容的存储
# 本次存储使用txt进行文件内容的存储
def save_data(data):
    data_path = '{0}/movies.txt'.format(RESULTS_DIR)
    

    # 创建一个文件
    with open(data_path, 'a+', encoding='utf-8') as file:
        # 内部直接进行索引的自增并不会做到文件的自增
        file.write('索引:{0}\n'.format(data.get('index')))
        file.write('名称:{0}\n'.format(data.get('name')))
        file.write('类别:{0}\n'.format(data.get('categories')))
        file.write('图片地址:{0}\n'.format(data.get('cover')))
        file.write('出版日期:{0}\n'.format(data.get('published')))
        file.write('剧情简介:{0}\n'.format(data.get('drama')))
        file.write('评分:{0}\n'.format(data.get('score')))
        file.write(f'{"=" * 50}\n')
        


def main():
    global index

    # 对网页进行测试
    for page_index in range(1, TOTAL_PAGE + 1):
        page = scrape_index(page=page_index)
        # 获取url解析
        detail_urls = parse_index(page)
        for detail_url in detail_urls:
            index += 1
            # 获取页面内容
            detail_html = scrape_detail(detail_url)
            data = parse_detail(detail_html)
            logging.info('get detail data %s', data)
            save_data(data=data)

if __name__ == '__main__':
    main()

版权信息

本文由PorterZhang整理或写作完成 本人的Github: PorterZhang2021 本人的博客地址:PorterZhang