前言

第一次写博客,主要内容是爬取微信公众号的文章,将文章以PDF格式保存在本地。

爬取微信公众号文章(使用wechatsogou)

1.安装

pip install wechatsogou --upgrade

wechatsogou是一个基于搜狗微信搜索的微信公众号爬虫接口

2.使用方法

使用方法如下所示

import wechatsogou
# captcha_break_time为验证码输入错误的重试次数,默认为1
ws_api = wechatsogou.WechatSogouAPI(captcha_break_time=3)
# 公众号名称
gzh_name = \'\'
# 将该公众号最近10篇文章信息以字典形式返回
data = ws_api.get_gzh_article_by_history(gzh_name)

data数据结构:

{
    \'gzh\': {
        \'wechat_name\': \'\',  # 名称
        \'wechat_id\': \'\',  # 微信id
        \'introduction\': \'\',  # 简介
        \'authentication\': \'\',  # 认证
        \'headimage\': \'\'  # 头像
    },
    \'article\': [
        {
            \'send_id\': int,  # 群发id,注意不唯一,因为同一次群发多个消息,而群发id一致
            \'datetime\': int,  # 群发datatime 10位时间戳
            \'type\': \'\',  # 消息类型,均是49(在手机端历史消息页有其他类型,网页端最近10条消息页只有49),表示图文
            \'main\': int,  # 是否是一次群发的第一次消息 1 or 0
            \'title\': \'\',  # 文章标题
            \'abstract\': \'\',  # 摘要
            \'fileid\': int,  #
            \'content_url\': \'\',  # 文章链接
            \'source_url\': \'\',  # 阅读原文的链接
            \'cover\': \'\',  # 封面图
            \'author\': \'\',  # 作者
            \'copyright_stat\': int,  # 文章类型,例如:原创啊
        },
        ...
    ]
}

这里需要得到两个信息:文章标题,文章url。

得到文章url以后,就可以根据url将html页面转换成pdf文件了。

生成PDF文件

1.安装wkhtmltopdf

下载地址:https://wkhtmltopdf.org/downloads.html

2.安装pdfkit

pip install pdfkit

3.使用方法

import pdfkit
# 根据url生成pdf
pdfkit.from_url(\'http://baidu.com\',\'out.pdf\')
# 根据html文件生成pdf
pdfkit.from_file(\'test.html\',\'out.pdf\')
# 根据html代码生成pdf
pdfkit.from_string(\'Hello!\',\'out.pdf\')

如果直接用上面得到的文章url去生成pdf,会出现pdf文件不显示文章图片的问题。

解决办法:

# 该方法根据文章url对html进行处理,使图片显示
content_info = ws_api.get_article_content(url)
# 得到html代码(代码不完整,需要加入head、body等标签)
html_code = content_info[\'content_html\']

然后根据html_code构造完整的html代码,调用pdfkit.from_string()方法生成pdf文件,这时候会发现文章中的图片在pdf文件中显示出来了。

完整代码

import os
import pdfkit
import datetime
import wechatsogou

# 初始化API
ws_api = wechatsogou.WechatSogouAPI(captcha_break_time=3)


def url2pdf(url, title, targetPath):
    \'\'\'
    使用pdfkit生成pdf文件
    :param url: 文章url
    :param title: 文章标题
    :param targetPath: 存储pdf文件的路径
    \'\'\'
    try:
        content_info = ws_api.get_article_content(url)
    except:
        return False
    # 处理后的html
    html = f\'\'\'
    <!DOCTYPE html>
    <html lang="en">
    <head>
        <meta charset="UTF-8">
        <title>{title}</title>
    </head>
    <body>
    <h2 style="text-align: center;font-weight: 400;">{title}</h2>
    {content_info[\'content_html\']}
    </body>
    </html>
    \'\'\'
    try:
        pdfkit.from_string(html, targetPath + os.path.sep + f\'{title}.pdf\')
    except:
        # 部分文章标题含特殊字符,不能作为文件名
        filename = datetime.datetime.now().strftime(\'%Y%m%d%H%M%S\') + \'.pdf\'
        pdfkit.from_string(html, targetPath + os.path.sep + filename)


if __name__ == \'__main__\':
    # 此处为要爬取公众号的名称
    gzh_name = \'\'
    targetPath = os.getcwd() + os.path.sep + gzh_name
    # 如果不存在目标文件夹就进行创建
    if not os.path.exists(targetPath):
        os.makedirs(targetPath)
    # 将该公众号最近10篇文章信息以字典形式返回
    data = ws_api.get_gzh_article_by_history(gzh_name)
    article_list = data[\'article\']
    for article in article_list:
        url = article[\'content_url\']
        title = article[\'title\']
        url2pdf(url, title, targetPath)

版权声明:本文为xuzifan原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/xuzifan/archive/2019/07/02/11121878.html