文章分类

热门文章

公众号:iMyShare 关注微信公众号

产品汪,爱好设计,业余Coding,想学运营,定期分享实用互联网小技巧!

利用Python爬取epubw整站27502本高质量电子书,并自动保存至百度网盘(内附分享)

MeetUp
2020-09-30
407
0

epubw.com全站电子书,百度网盘分享

本文重点如上图👆👆👆

一点小感慨

最近在逛知乎发现之前经常使用的高质量电子书下载网站闭站了(https://epubw.com),可见我是多久没看书了。不过说实话有点人走茶凉的感觉,站长默默为我们提供了这么大便利,最终还是一场空。

epubw网站暂停运营,其他电子书网站

不过也想起了,疫情期间因为各种琐事干扰,无法集中精力系统学习,所以在家干一些乱七八糟的小玩意。然后就做了个百度网盘的全自动脚本,顺便把epubw.com整个站的书全部爬下来,并且自动保存至自己的百度网盘了,还陆陆续续爬了一些其他电子书网站,几个音乐网站保存至网盘了

不知不觉,就已经十一假期了,一个疫情仿佛拉快了整年的节奏,今年的工作格外的忙,搬砖也格外的累。想想今年好久没学习,各种想做的事情一拖再拖都没达成,有点惭愧和不知所措😔。然后这个十一没人约,也不想出去玩,只想休息一下,顺便充一下电,给自己打打气~

电子书网站推荐

说实话,我之所以爬epubw(觊觎epubw家的电子书),是因为epubw的电子书不仅质量高,而且书都还挺新的,链接有效性也是非常高。这样一个网站说没就没了,在此感谢epubw站长过去提供的便利吧。然后我这里把我常用的高质量电子书网站都整理到这里了(点击进入电子书网站大全>>),大家有需要的自取使用吧。不过都2020了,不知道这些网站还能支撑多久,且用且珍惜吧!

imyshare(神秘的热心网友)电子书网站推荐,电子书下载,电子书分享

epubw电子书爬取

关于python爬虫代码就没什么说的了,其实非常简单,因为我当时爬的时候没有任何反爬虫机制,直接爬就OK了。比如:自动将爬好的数据保存到百度网盘就这么一点代码就搞定了。关于得到百度网盘分享链接后,利用Python自动将分享内容保存至自己的网盘这块,可以参考我之前的文章:《利用Python实现百度网盘自动化:转存分享资源,获取文件列表,重命名,删除文件,创建分享链接等等》

# coding="utf-8"

import sys
sys.path.append('/home/meetup/Desktop/BaiDuPan')
from BaiDuPan import BaiDuPan
from DbOperate import DbOperate
import time

def startSave():
	db_operate = DbOperate()
	unsave_list = db_operate.getUnSave()
	bai_du_pan = BaiDuPan()
	print(time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()), '开始执行保存至百度网盘')
	for epubw in unsave_list:
		try:
			result = bai_du_pan.saveShare(epubw.pan_url, epubw.pan_pwd, '/epubw.com(epubw.xyz)')
		except Exception as e:
			result = {'errno': -1}
			print(time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()), '其他保存异常(ID:', epubw.id, '): ', e)
		if(result['errno'] == 0):
			db_operate.update(epubw.id, 1, 1)
			if(result['errno'] > 0):
				print(time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()), '百度网盘分享链接有问题(ID:', epubw.id, '): ', e)
		else:
			db_operate.update(epubw.id, 0, 0)
	print(time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()), '全部执行完成!')


if __name__ == '__main__':
	startSave()

当时爬取的数据是存到sqlite中,然后再从数据库中取网盘分享链接,利用自动保存脚本保存至自己的网盘的。这是当时保存的数据,估计里面的链接都已经失效了,就不分享了,后面直接分享网盘中存好的电子书源文件。

利用python爬取电子书,并存储到数据库

epubw整站电子书打包分享

电子书打包分享,电子书打包下载epubw.com全站电子书,百度网盘分享

由于epubw整站的电子书有801.25GB,文件非常大,创建分享链接会直接失败,所以还是加网盘好友获取吧,具体方法如下:

获取本文包含的资源

第一步,关注公众号:iMyShare
第二步,在公众号中回复:1017

									
交流评论