网创优客建站品牌官网
为成都网站建设公司企业提供高品质网站建设
热线:028-86922220
成都专业网站建设公司

定制建站费用3500元

符合中小企业对网站设计、功能常规化式的企业展示型网站建设

成都品牌网站建设

品牌网站建设费用6000元

本套餐主要针对企业品牌型网站、中高端设计、前端互动体验...

成都商城网站建设

商城网站建设费用8000元

商城网站建设因基本功能的需求不同费用上面也有很大的差别...

成都微信网站建设

手机微信网站建站3000元

手机微信网站开发、微信官网、微信商城网站...

建站知识

当前位置:首页 > 建站知识

python如何爬取电影并下载

这篇文章给大家分享的是有关python如何爬取电影并下载的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

创新互联-专业网站定制、快速模板网站建设、高性价比沙坪坝网站开发、企业建站全套包干低至880元,成熟完善的模板库,直接使用。一站式沙坪坝网站制作公司更省心,省钱,快速模板网站建设找我们,业务覆盖沙坪坝地区。费用合理售后完善,10年实体公司更值得信赖。

一、概述

对于一个宅男,喜欢看电影,每次打开电影网站,各种弹出的广告,很是麻烦,还是要自己去复制下载链接到迅雷上粘贴并下载,这个过程中还有选择困难症;这一系列的动作让人甚是不爽,不如有下好的,点着看就好了;作为一个python爱好者,结合对爬虫的一点小了解,于是周末花了点时间用python写了一个爬取某电影网站上的最新电影板块;
思路:
爬虫针对某电影网站,收集电影名,下载链接,评分,等信息;当天更新的电影,特别的打印出来;同时通过评分调用迅雷下载,当然先判断下,是否已经下载过了,再决定是否下载;然后,就是可以看了~

本次版本是基于python3.x下通过,在windows上才能调用迅雷~linux平台只能获取相关信息!
python安装和相关的模块安装这里不讲述,如有不明白请留言我~
jupyter上运行如下:
python如何爬取电影并下载

二、代码

废话不多说上代码吧~

# coding:utf-8
# version 20181027 by san
import re,time,os
from urllib import request
from lxml import etree  # python xpath 单独使用导入是这样的
import platform
import ssl
ssl._create_default_https_context = ssl._create_unverified_context   # 取消全局证书

#爬虫电影之类
class getMovies:
    def __init__(self,url,Thuder):
        '''        实例初始化       '''
        self.url = url
        self.Thuder = Thuder

    def getResponse(self,url):
        url_request = request.Request(self.url)
        url_response = request.urlopen(url_request)
        return url_response   #返回这个对象

    def newMovie(self):
        ''' 获取最新电影 下载地址与url '''
        http_response = self.getResponse(webUrl) #拿到http请求后的上下文对象(HTTPResponse object)
        data = http_response.read().decode('gbk')
        #print(data)  #获取网页内容
        html = etree.HTML(data)
        newMovies = dict()
        lists = html.xpath('/html/body/div[1]/div/div[3]/div[2]/div[2]/div[1]/div/div[2]/div[2]/ul/table//a')
        for k in lists:
            if "app.html" in k.items()[0][1] or "最新电影下载" in k.text:
                continue
            else:
                movieUrl = webUrl + k.items()[0][1]
                movieName = k.text.split('《')[1].split("》")[0]
                newMovies[k.text.split('《')[1].split("》")[0]] = movieUrl = webUrl + k.items()[0][1]
        return newMovies

  def Movieurl(self,url):
        ''' 获取评分和更新时间 '''
        url_request = request.Request(url)
        movie_http_response = request.urlopen(url_request)
        data = movie_http_response.read().decode('gbk')
        if len(re.findall(r'豆瓣评分.+?.+users',data)):  # 获取评分;没有评分的返回null
            pingf = re.findall(r'豆瓣评分.+?.+users',data)[0].split('/')[0].replace("\u3000",":")

        else:
            pingf = "豆瓣评分:null"
        desc = re.findall(r'简\s+介.*',data)[0].replace("\u3000","").replace('',"").split("src")[0].replace('&ldquo',"").replace('&rdquo',"").replace('",v,"\n")
            else:
                print("========================================")
                print(k,"-->",v,"\n")

if __name__ == '__main__':
    # 以下依据您个人电影迅雷的相关信息填写即可
    save_path="O:\迅雷下载"     # 电影下载保存位置 (需要填写)
    Thuder = "O:\Program\Thunder.exe"   #Thuder: 迅雷Thuder.exe路径 (需要填写)
    webUrl = 'http://www.dytt8.net'     # 电影网站
    test = getMovies(webUrl,Thuder)   # 实例化
    test.NewMoives()
    Movies = test.Main()

    for k,v in Movies.items():
        movies_name = v[0][0].split('/')[3]
        socre = v[0][2].split(":")[1]
        check_down_status = test.check_end(movies_name,save_path)
#       print(check_down_status)
        if  check_down_status:
            print("电影: %s 已经下载" %movies_name)
            continue
        elif  socre == 'null':
            continue
        elif float(socre) > 7.0:
            print(movies_name,socre)
            test.DownMovies(k,v[0][0])
            time.sleep(10)

注意:以上代码是针对windows平台下,迅雷版本为非极速版本,本次使用的是9.14 如图:
python如何爬取电影并下载
另外需要勾选以下配置项,否则程序调用迅雷下载时会有提示框:
python如何爬取电影并下载

程序运行效果如图:
python如何爬取电影并下载
python如何爬取电影并下载

再看下O盘 下载的目录:
python如何爬取电影并下载

至此自动获取最新电影并下载指定评分电影完成~ 再也不用担心选择困难了,下好看就行了~

感谢各位的阅读!关于“python如何爬取电影并下载”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!


分享题目:python如何爬取电影并下载
本文地址:http://bjjierui.cn/article/gdosec.html

其他资讯