python
主页 > 脚本 > python >

使用Python写个听小说的爬虫

2022-02-20 | 秩名 | 点击:

在路上发现好多人都喜欢用耳机听小说,同事居然可以一整天的带着一只耳机听小说。小编表示非常的震惊。今天就用 Python 下载听小说 tingchina.com的音频。

书名和章节列表

随机点开一本书,这个页面可以使用 BeautifulSoup 获取书名和所有单个章节音频的列表。复制浏览器的地址,如:https://www.tingchina.com/yousheng/disp_31086.htm。

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

from bs4 import BeautifulSoup

import requests

import re

import random

import os

 

headers = {

    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36'

}

 

def get_detail_urls(url):

    url_list = []

    response = requests.get(url, headers=headers)

    response.encoding = 'gbk'

    soup = BeautifulSoup(response.text, 'lxml')

    name = soup.select('.red12')[0].strong.text

    if not os.path.exists(name):

        os.makedirs(name)

    div_list = soup.select('div.list a')

    for item in div_list:

        url_list.append({'name': item.string, 'url': 'https://www.tingchina.com/yousheng/{}'.format(item['href'])})

    return name, url_list

音频地址

打开单个章节的链接,在 Elements 面板用章节名称作为搜索词,在底部发现了一个 script,这一部分就是声源的地址。

在 Network 面板可以看到,声源的 url 域名和章节列表的域名是不一样的。在获取下载链接的时候需要注意这一点。

1

2

3

4

5

6

7

8

def get_mp3_path(url):

    response = requests.get(url, headers=headers)

    response.encoding = 'gbk'

    soup = BeautifulSoup(response.text, 'lxml')

    script_text = soup.select('script')[-1].string

    fileUrl_search = re.search('fileUrl= "(.*?)";', script_text, re.S)

    if fileUrl_search:

        return 'https://t3344.tingchina.com' + fileUrl_search.group(1)

下载

惊喜总是突如其来,把这个 https://t3344.tingchina.com/xxxx.mp3 放入浏览器中运行居然是 404。

肯定是少了关键性的参数,回到上面 Network 仔细观察 mp3 的 url,发现在 url 后面带了一个 key 的关键字。如下图,这个 key 是来自于 https://img.tingchina.com/play/h5_jsonp.asp?0.5078556568562795 的返回值,可以使用正则表达式将 key 取出来。

1

2

3

4

5

6

7

8

def get_key(url):

    url = 'https://img.tingchina.com/play/h5_jsonp.asp?{}'.format(str(random.random()))

    headers['referer'] = url

    response = requests.get(url, headers=headers)

    matched = re.search('(key=.*?)";', response.text, re.S)

    if matched:

        temp = matched.group(1)

        return temp[len(temp)-42:]

最后的最后在 __main__ 中将以上的代码串联起来。

1

2

3

4

5

6

7

8

9

10

11

12

13

if __name__ == "__main__":

    url = input("请输入浏览器书页的地址:")

    dir,url_list = get_detail_urls()

 

    for item in url_list:

        audio_url = get_mp3_path(item['url'])

        key = get_key(item['url'])

        audio_url = audio_url + '?key=' + key

        headers['referer'] = item['url']

        r = requests.get(audio_url, headers=headers,stream=True)

        with open(os.path.join(dir, item['name']),'ab') as f:

            f.write(r.content)

            f.flush()

完整代码

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

from bs4 import BeautifulSoup

import requests

import re

import random

import os

 

headers = {

    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36'

}

 

def get_detail_urls(url):

    url_list = []

    response = requests.get(url, headers=headers)

    response.encoding = 'gbk'

    soup = BeautifulSoup(response.text, 'lxml')

    name = soup.select('.red12')[0].strong.text

    if not os.path.exists(name):

        os.makedirs(name)

    div_list = soup.select('div.list a')

    for item in div_list:

        url_list.append({'name': item.string, 'url': 'https://www.tingchina.com/yousheng/{}'.format(item['href'])})

    return name, url_list

     

def get_mp3_path(url):

    response = requests.get(url, headers=headers)

    response.encoding = 'gbk'

    soup = BeautifulSoup(response.text, 'lxml')

    script_text = soup.select('script')[-1].string

    fileUrl_search = re.search('fileUrl= "(.*?)";', script_text, re.S)

    if fileUrl_search:

        return 'https://t3344.tingchina.com' + fileUrl_search.group(1)

         

def get_key(url):

    url = 'https://img.tingchina.com/play/h5_jsonp.asp?{}'.format(str(random.random()))

    headers['referer'] = url

    response = requests.get(url, headers=headers)

    matched = re.search('(key=.*?)";', response.text, re.S)

    if matched:

        temp = matched.group(1)

        return temp[len(temp)-42:]

 

if __name__ == "__main__":

    url = input("请输入浏览器书页的地址:")

    dir,url_list = get_detail_urls()

 

    for item in url_list:

        audio_url = get_mp3_path(item['url'])

        key = get_key(item['url'])

        audio_url = audio_url + '?key=' + key

        headers['referer'] = item['url']

        r = requests.get(audio_url, headers=headers,stream=True)

        with open(os.path.join(dir, item['name']),'ab') as f:

            f.write(r.content)

            f.flush()

总结

这个 Python 爬虫比较简单,小编的每个月 30 元的流量都不够用,有了这个小程序在地铁上就可以不用流量听小说了。

原文链接:https://mp.weixin.qq.com/s/JzzHwQ0G9IoenlmdEXi3hA
相关文章
最新更新