当前位置 主页 > 服务器问题 > win服务器问题汇总 >

    使用Python编写简单网络爬虫抓取视频下载资源

    栏目:win服务器问题汇总 时间:2019-12-09 19:08

    我第一次接触爬虫这东西是在今年的5月份,当时写了一个博客搜索引擎,所用到的爬虫也挺智能的,起码比电影来了这个站用到的爬虫水平高多了!

    回到用Python写爬虫的话题。

    Python一直是我主要使用的脚本语言,没有之一。Python的语言简洁灵活,标准库功能强大,平常可以用作计算器,文本编码转换,图片处理,批量下载,批量处理文本等。总之我很喜欢,也越用越上手,这么好用的一个工具,一般人我不告诉他。。。

    因为其强大的字符串处理能力,以及urllib2,cookielib,re,threading这些模块的存在,用Python来写爬虫就简直易于反掌了。简单到什么程度呢。我当时跟某同学说,我写电影来了用到的几个爬虫以及数据整理的一堆零零散散的脚本代码行数总共不超过1000行,写电影来了这个网站也只有150来行代码。因为爬虫的代码在另外一台64位的黑苹果上,所以就不列出来,只列一下VPS上网站的代码,tornadoweb框架写的 :)

    [xiaoxia@307232 movie_site]$ wc -l *.py template/*
      156 msite.py
       92 template/base.html
       79 template/category.html
       94 template/id.html
       47 template/index.html
       77 template/search.html

    下面直接show一下爬虫的编写流程。以下内容仅供交流学习使用,没有别的意思。

    以某湾的最新视频下载资源为例,其网址是

    http://某piratebay.se/browse/200

    因为该网页里有大量广告,只贴一下正文部分内容:

    对于一个python爬虫,下载这个页面的源代码,一行代码足以。这里用到urllib2库。

    >>> import urllib2
    >>> html = urllib2.urlopen('http://某piratebay.se/browse/200').read()
    >>> print 'size is', len(html)
    size is 52977

    当然,也可以用os模块里的system函数调用wget命令来下载网页内容,对于掌握了wget或者curl工具的同学是很方便的。

    使用Firebug观察网页结构,可以知道正文部分html是一个table。每一个资源就是一个tr标签。

    而对于每一个资源,需要提取的信息有:

    1、视频分类
    2、资源名称
    3、资源链接
    4、资源大小
    5、上传时间

    就这么多就够了,如果有需要,还可以增加。

    首先提取一段tr标签里的代码来观察一下。

    <tr>
      <td class="vertTh">
       <center>
        <a href="/browse/200" title="此目录中更多">视频</a><br />
        (<a href="/browse/205" title="此目录中更多">电视</a>)
       </center>
      </td>
      <td>
    <div class="detName">   <a href="/torrent/7782194/The_Walking_Dead_Season_3_Episodes_1-3_HDTV-x264" class="detLink" title="细节 The Walking Dead Season 3 Episodes 1-3 HDTV-x264">The Walking Dead Season 3 Episodes 1-3 HDTV-x264</a>