快捷导航

Python利用无头浏览器爬虫爬取笔趣阁小说教程

[复制链接]
查看: 2080|回复: 0

3768

主题

9666

狗粮

6

精华

管理员

积分
28103

最佳新人活跃会员热心会员推广达人宣传达人灌水之王突出贡献优秀版主荣誉管理论坛元老

QQ
发表于 2024-12-16 18:52:03 | 显示全部楼层 |阅读模式

1.下载安装chromium

2.明确chromium默认安装路径

3.编写代码

4.明白爬取参数与注意事项

5.开始爬取

6.查看结果

步骤1.下载安装chromium

下载方式一:官网下载 -> Chromiun下载链接

下载方式二:夸克网盘下载保存 -> chromium下载器

下载后,直接双击安装器完成安装即可,如图

8ae5e5e44601164c376a26fb15147f23_5a374fd40e2e4da380c9e255bbf4727b.png

步骤2.明确chromium默认安装路径

安装后,需要明白默认安装的位置,因为代码中会用到,我的电脑用户名为AW,因此被安装在了如下路径,如图

C:\Users\AW\AppData\Local\Chromium\Application\chrome.exe
3c828c14b51eae4521064deb94395b62_25cc26a5acd846fa9bd106e357b05697.png 步骤3.编写代码

这段代码中用到的库主要为pyppteer、python-docx,这两个库需额外下载

最终代码如下

import asyncioimport osfrom docx import Documentfrom pyppeteer import launch# 禁用自动下载 Chromiumos.environ["PYPPETEER_SKIP_CHROMIUM_DOWNLOAD"] = "true"async def main():    # word名称    wordName = "宿命之环1~3章.docx"    # 笔趣阁域名    netName = "https://www.22biqu.com"    # 指定起始页的链接    firstPagePath = "/biqu5251/5259122.html"    # 指定结束页的链接,不要指定的太远,因为字数太多,打开word很卡的    endPagePath= "/biqu5251/5259124.html"    # 要爬取的链接    catchUrl = netName + firstPagePath    # 页数,可参考    pageCount=0    # 结束标志    endFlag=False    while True:        try:            #尝试打开一个word            doc = Document(wordName)        except:            doc = Document()        # 启动浏览器,指定手动下载的 Chromium 路径        browser = await launch(executablePath=r'C:\Users\AW\AppData\Local\Chromium\Application\chrome.exe', headless=True)        # 创建新页面        page = await browser.newPage()        # 打开目标页面        await page.goto(catchUrl)        # 使用 querySelector 获取 h1 标签且 class 为 title 的元素        element = await page.querySelector('h1.title')        if element:            # 获取该元素的文本内容            text = await page.evaluate('(element) => element.innerText', element)            doc.add_heading(text, level=1)        else:            print('Element not found.')        # 使用 querySelector 获取 id="content" 元素        content_element = await page.querySelector('#content')        if content_element:            # 获取 content 下所有 p 标签的内容            paragraphs = await content_element.querySelectorAll('p')            for paragraph in paragraphs:                # 获取每个 p 标签的文本内容并输出                text = await page.evaluate('(p) => p.innerText', paragraph)                doc.add_paragraph(text)        else:            print('Content element not found.')        # 使用 querySelector 获取 id="next_url" 的元素        element = await page.querySelector('#next_url')        next_url=""        if element:            # 获取该元素的 href 属性            next_url = await page.evaluate('(element) => element.getAttribute("href")', element)            # 拼接下一页爬取的链接            catchUrl=netName+next_url        else:            print('Element not found.')        # 关闭浏览器        await browser.close()        # 保存word        doc.save(wordName)        if endFlag:            break        pageCount+=1        print("已完成页码"+str(pageCount))        if next_url==endPagePath:            print("匹配到结束链接:"+str(endPagePath))            print("即将结束")            endFlag=True# 运行异步主函数asyncio.run(main())步骤4.明白爬取参数与注意事项

在使用上面的代码时,你需要明白函数中的一些参数需要你替换

wordName:也就是爬取后word保存的名称,我建议爬什么就取什么名,且加上多少章到多少章

netName:爬取网址的域名,这里固定不用改

firstPathPath:这是起始页的路径,比如我要从《宿命之环》的第三开始爬起,则这里写为/biqu5251/5259124.html,看如下图你应该就明白了

98e212632d656f383cc57be1ec67c2ec_ca36bba5264c4d0a8fb7bf89795eeaf1.png

endPagePath:和指定起始页一样,要在哪页结束,就把哪页的路径放进去,但是这里有个注意点

注意点:指定的结束页和起始页不要隔的太远了,因为word中字数太多,打开都卡,我测试了下,我爬取了200章到一个word中,结果是能打开,但是打开时比较卡,因此我建议分为几章节来爬取,不要妄图一次爬取所有章节,理论是可以的,但是你的电脑处理器肯定受不了

步骤5.开始爬取

我这里测试爬取笔趣阁-《宿命之环的1~5章》,因此我设置参数为如下

35ccc5591092133873f28c511ac2c0ef_2b2ea1e7d03d411c97292141312a1c79.png

参数设置好后,直接运行代码即可,如图保存为了word

7b12ea11eeeb705247cc5f4e6f0924bf_cac0cd8d2eb242029b98eb3dababeae3.png

步骤6.查看结果

打开我们爬取的1~5章的word,如图,我这里做了将章节名作为标题,打开章节导航还可以点击标题直接定位到对应章节

97c71c001db33ff262611939865a1a50_6ac41addfb534d3f800c6627cd66f2a1.png

结语

以上是幽络源的利用无头浏览器爬虫爬取笔趣阁小说的教程,对于此篇教程的内容,后续的优化我建议是做成一个PyQT程序,这样会更加方便。


温馨提示:
1、本站所有信息都来源于互联网有违法信息与本网站立场无关。
2、当有关部门,发现本论坛有违规,违法内容时,可联系站长删除,否则本站不承担任何责任。
3、当政府机关依照法定程序要求披露信息时,论坛均得免责。
4、本帖部分内容转载自其它媒体,但并不代表本站赞同其观点和对其真实性负责
5、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意
6、如果使用本帖附件,本站程序只提供学习使用,请24小时内删除!使用者搭建运营触犯法律,违法,违规,本站不承担任何责任。
我是一条可怜的土狗...
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

精彩推荐

让创业更简单

  • 反馈建议:xiaotuzi2018@foxmail.com
  • 客服电话:
  • 工作时间:周一到周六

云服务支持

精品资源,快速检索

关注我们

Copyright 小白源码网  Powered by©  技术支持: