使用Python requests库快速获取dy2018最新电影下载信息

项目介绍

 

本项目是本人的课设,实用性很强,对于喜欢看电影的朋友来说可以快捷获取最新电影的下载信息(相关网址dy2018.com)

电影 / 最新电影_电影天堂-迅雷电影下载

环境搭建

python:3.10.0

request、lxml

步骤详解

依赖:

正则、requset、lxml

import requests
import re
from lxml import etree

创建类并初始化:

请求地址为目标网站:

class dy2018:
    def __init__(self):
        """初始化"""
        # 请求地址
        self.url = "https://www.dy2018.com/html/gndy/dyzz/index.html"
        # 请求头
        self.header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64)     AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36"}
        # 代理
        self.proxies = {"HTTP": "117.114.149.66:55443"}

请求函数:

网站编码为GBK:

    def get_response(self, url):
        """发送请求并获取响应"""
        return requests.get(url=url, headers=self.header).content.decode("GBK")

解析函数:

在第一级页面用xpath定位每条电影链接:

 获取的地址不能直接用,可以点击任意两个链接查看它们的特征:

 

 

 得出结论,下一级网址 = dy2018.com/ + href元素的地址,

调用请求函数,得到html信息,调用打印函数。

    def parse_list_data(self, html):
        """解析数据"""
        # 1.创建查找对象
        html_node = etree.HTML(html)
        # 2. 查找父节点div
        div_node = html_node.xpath('//div[@class="co_content8"]/ul')[0]
        # 3. 查找table节点
        all_table_nodes = div_node.xpath('//table[@class="tbspan"]')
        # 4. 遍历每一个table节点
        for table_node in all_table_nodes:
            # 地址前缀
            base_url = "https://www.dy2018.com"
            # 取后缀地址
            path = table_node.xpath(".//tr[2]//b/a/@href")[0]
            # 连接地址前缀和后缀
            movie_detail_url = base_url + path
            # 发送详情页请求
            movie_detail_html = self.get_response(movie_detail_url)

            # print(movie_detail_html)

            self.print_list_data(movie_detail_html)

打印函数:

定义正则:

通过观察特征可以看出电影信息前缀都有一个固定的字符串:

◎译  名

◎片  名

◎年  代

最后,最重要的是电影的下载链接:

观察这个链接的特征,

发现这个链接是以“magnet:\?xt=urn:btih:”开头的,但是确获取了多个值,有的链接是无法下载的,为了准确获取的值,我们直接在html中找出特征:

我们发现有效链接是以a href=为开头,&tr为结尾的,根据这个特征定义正则: 

r'a href="(magnet:\?xt=urn:btih:.*?)&tr='

根据正则去匹配信息,

打印电影信息。

    def print_list_data(self, page_data):
        """打印数据"""
        # 定义正则表达式模式
        patterns = {
            "译名": r"◎译\s* \s*名\s+(.*?)<br />",
            "片名": r"◎片\s* \s*名\s+(.*?)<br />",
            "年代": r"◎年\s* \s*代\s+(.*?)<br />",
            "产地": r"◎产\s* \s*地\s+(.*?)<br />",
            "类别": r"◎类\s* \s*别\s+(.*?)<br />",
            "语言": r"◎语\s* \s*言\s+(.*?)<br />",
            "上映日期": r"◎上映日期\s+(.*?)<br />",
            "豆瓣评分": r"◎豆瓣评分\s+(.*?)<br />",
            "torrent": r'a href="(magnet:\?xt=urn:btih:.*?)&tr=',
        }

        # 初始化一个字典来存储提取的信息
        movie_data = {}

        # 使用正则表达式提取信息
        for key, pattern in patterns.items():
            match = re.search(pattern, page_data)
            if match:
                movie_data[key] = match.group(1)

        # 打印提取的电影信息
        print("译名:", movie_data.get("译名"))
        print("片名:", movie_data.get("片名"))
        print("年代:", movie_data.get("年代"))
        print("产地:", movie_data.get("产地"))
        print("类别:", movie_data.get("类别"))
        print("语言:", movie_data.get("语言"))
        print("上映日期:", movie_data.get("上映日期"))
        print("豆瓣评分:", movie_data.get("豆瓣评分"))
        print("torrent:", movie_data.get("torrent"))
        print("--------------------------------")

运行函数:

传递参数为页数,但是这个网站第一页和第二页没有统一特征:

https://www.dy2018.com/html/gndy/dyzz/index.html

https://www.dy2018.com/html/gndy/dyzz/index_2.html

这是第一页和第二页的url

可以看出第一页index后面不带“_”第二页带,没办法,获取第二页、第三页信息时只能重新写一个统一的url,将变量index传递进去。

    def run_spider(self, page_index=1):
        # 请求地址
        url = self.url
        # 发送请求
        pageHtml = self.get_response(url)
        # 解析数据
        self.parse_list_data(pageHtml)

        if page_index > 1:
            for index in range(2, page_index + 1):
                base_index_url = f"https://www.dy2018.com/html/gndy/dyzz/index_{index}.html"
                # 发送请求
                pageHtml = self.get_response(base_index_url)
                # 解析数据
                self.parse_list_data(pageHtml)

运行结果: 

最后打开迅雷,将复制的链接在迅雷中打开,就可以下载电影了

源代码

放出源代码

import requests
import re
from lxml import etree

class dy2018:
    def __init__(self):
        """初始化"""
        # 请求地址
        self.url = "https://www.dy2018.com/html/gndy/dyzz/index.html"
        # 请求头
        self.header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36"}
        # 代理
        self.proxies = {"HTTP": "117.114.149.66:55443"}

    def get_response(self, url):
        """发送请求并获取响应"""
        return requests.get(url=url, headers=self.header).content.decode("GBK")

    def print_list_data(self, page_data):
        """打印数据"""
        # 定义正则表达式模式
        patterns = {
            "译名": r"◎译\s* \s*名\s+(.*?)<br />",
            "片名": r"◎片\s* \s*名\s+(.*?)<br />",
            "年代": r"◎年\s* \s*代\s+(.*?)<br />",
            "产地": r"◎产\s* \s*地\s+(.*?)<br />",
            "类别": r"◎类\s* \s*别\s+(.*?)<br />",
            "语言": r"◎语\s* \s*言\s+(.*?)<br />",
            "上映日期": r"◎上映日期\s+(.*?)<br />",
            "豆瓣评分": r"◎豆瓣评分\s+(.*?)<br />",
            "torrent": r'a href="(magnet:\?xt=urn:btih:.*?)&tr=',
        }

        # 初始化一个字典来存储提取的信息
        movie_data = {}

        # 使用正则表达式提取信息
        for key, pattern in patterns.items():
            match = re.search(pattern, page_data)
            if match:
                movie_data[key] = match.group(1)

        # 打印提取的电影信息
        print("译名:", movie_data.get("译名"))
        print("片名:", movie_data.get("片名"))
        print("年代:", movie_data.get("年代"))
        print("产地:", movie_data.get("产地"))
        print("类别:", movie_data.get("类别"))
        print("语言:", movie_data.get("语言"))
        print("上映日期:", movie_data.get("上映日期"))
        print("豆瓣评分:", movie_data.get("豆瓣评分"))
        print("torrent:", movie_data.get("torrent"))
        print("--------------------------------")


    def parse_list_data(self, html):
        """解析数据"""
        # 1.创建查找对象
        html_node = etree.HTML(html)
        # 2. 查找父节点div
        div_node = html_node.xpath('//div[@class="co_content8"]/ul')[0]
        # 3. 查找table节点
        all_table_nodes = div_node.xpath('//table[@class="tbspan"]')
        # 4. 遍历每一个table节点
        for table_node in all_table_nodes:
            # 地址前缀
            base_url = "https://www.dy2018.com"
            # 取后缀地址
            path = table_node.xpath(".//tr[2]//b/a/@href")[0]
            # 连接地址前缀和后缀
            movie_detail_url = base_url + path
            # 发送详情页请求
            movie_detail_html = self.get_response(movie_detail_url)

            # print(movie_detail_html)

            self.print_list_data(movie_detail_html)

    def run_spider(self, page_index=1):
        # 请求地址
        url = self.url
        # 发送请求
        pageHtml = self.get_response(url)
        # 解析数据
        self.parse_list_data(pageHtml)

        if page_index > 1:
            for index in range(2, page_index + 1):
                base_index_url = f"https://www.dy2018.com/html/gndy/dyzz/index_{index}.html"
                # 发送请求
                pageHtml = self.get_response(base_index_url)
                # 解析数据
                self.parse_list_data(pageHtml)


if __name__ == '__main__':
    dy2018().run_spider(page_index=1)

第一次做博客,有不足的地方,还望各位海涵。

作者:阳光普照595

物联沃分享整理
物联沃-IOTWORD物联网 » 使用Python requests库快速获取dy2018最新电影下载信息

发表回复