第一个问题:JS加密如何突破
(1) 熟练掌握Chrome的开发者工具的各个功能,Elements, Network,Source
(2) 认真观察,善于思考。Network查看加载流程,找可疑的xhr请求,设置xhr断点,通过Call Stack 回溯js执行过程,边回溯边查看上下文代码。能读懂js,知道js的相关知识,比如js里面的window变量。
(3) 以上是通过debug js找到js加密解密的代码,然后通过Python重新实现,这个过程很长,可能耗费你几天的时间,一旦网站改变一下js算法你的Python实现就不能用了。
(4) 用Selenium可简单突破,并且网站随便该都无所谓。唯一遗憾的是,Selenium的运行效率较差。但是,作为一个能用js加密来保护数据的网站,单价的运行效率应该足以满足网站的访问频率限制。这时候,更多的思考是如何增加资源(IP、账号)来提高抓取效率。
第二个问题、多线程、协程,多进程的选择
(1)爬虫是IO密集型任务,大部分时间花在网络访问上,所以多进程不适合网络爬虫,而多线程、异步IO协程更适合,而异步IO是最适合的,它相比多线程,协程间的切换代价更小,我们提倡使用异步IO而非多线程。异步IO的模块主要是:aysncio, aiohttp, aiomysql 等。
(2)网页爬下来后从中提取想要的数据是CPU密集型的,这时候可以用多进程并发提取。
(3)我们推荐的爬虫策略是,爬虫只管爬,把爬下来的html保存起来,存到数据库。然后单独写提取数据的提取器,单独运行提取器。好处是,提取不影响爬取,爬的效率更高,并且提取程序可以随时修改,有新的提取需求时不需要重新抓取。比如,最初写爬虫时只想提取网页中的两项数据,运行一段时间后,发现另外3项数据也很有用,如果保存了html,只需改改提取器重新跑一遍就好了。
第三个问题、如果想要保留加粗或者图片原始位置,只能通过挖掘规律再写正则表达式来针对性处理吗?
网页数据提取主要两种方法:正则表达式,xpath。通过xpath可以获得某个html标签节点。比如,一篇blog网页,它的主体内容都在某个标签里面,可能是某个div。用xpath得到这个div,转换为html,就是包含了格式及其图片的部分,你保存这段html代码而非纯文本就好了。
第四个问题、爬虫的增量爬取、断点续爬、去重等
(1)通过网址池的概念去管理所有的URL
(2)增量爬取就是不重复下载已经下载过的,让网址池记住那些已经下载过的URL;
(3)断点续爬,就是上次还没有爬取的URL这次接着爬,还是让网址池记住那些还没被爬取的URL
(4)爬虫的去重,让网址池记录URL的状态以避免重复爬取。
第五个问题、爬虫的部署问题,在公司是不是分布式爬虫系统比较多会涉及部署问题
爬虫的部署,不一定是分布式的。大规模的爬虫,突破了目标网站限制的爬虫才会涉及到分布式,分布式的好处是抓取速度提高,但是管理会比较复杂。
第六个问题、网页的自动解析?这个话题就包含很多子任务了: 怎么自动抽取文章的内容,如何处理各种各样的时间格式,怎样处理翻页
(1)文章内容的提取,基本的是每种网页建立一个提取模板(正则表达式),好处是提取精准,坏处是工作量大,一旦稍微改版就失败。通过算法建立单一提取程序,基本上都可以提取,但是可能会有写杂质,比如文末的相关阅读。好处是,一劳永逸,不受改版限制。
(2)时间的提取,除了正则表达式之外似乎没有特别有效的方法。
(3)翻页的话,如果只是抓取,把该页的url提取出来继续抓;如何在提取内容时要把多页内容合并成一个网页,那就要特别处理。
第七个问题、爬新闻类的网站时,如何做好同一新闻,各网站相互转载,爬取时文本去重
比较著名的算法是,Google的simhash,但具体实践中比较复杂。网传百度的做法是把文章的最长一句话(或多句)做hash,这个hash值就是文章的唯一性代表(指纹),这个方法准确率很高,但是召回率比较低,一旦这最长的几句话改一个字就不能召回;我改进了该方法,对n句最长的话分别做hash,一个文章由n个指纹(如图人的是个指头指纹都不一样)确定唯一性。准确率和召回率都还不错。
第八个问题、异步爬虫的设计
(1)一个好的URL管理策略,见猿人学上的网址池相关文章;
网址池是一个“生产者-消费者”模型,爬虫从中取出url去下载,下载的html中提取新的url放入池中,告诉url池刚才拿出的url是否下载成功;再从池中取出url进行下载。。。url池是核心部件,它记录url的不同状态:
(a)下载成功
(b)下载失败n次
(c)正在下载
每次往池子添加url时都要检查url在池中的状态,避免重复下载。
1
2
3
4
5
6
7
8
9
10
11
12
13
def fac(num):
if num > 1:
#在此处调整代码
result = num
for i in range (1, num):
result = result * i
return result
else:
return 1
number = int(input('Please input a natural number:'))
answer = fac(number)
print('The factorial of %d is %d.'%(number,answer))
我最近也在自学,感觉难度不大,确实很容易入门!目前还没发现什么棘手问题,因为是学习基础语法阶段,现在只会编写很简单的程序。别人编写的复杂程序能轻松看懂,但是自己编写复杂的就感觉难度挺大!
既然问到这个问题,我姑且将提问这个问题当作小白来回答,那要介绍在windows系统的Python开发工具,并根据使用Python去做什么推荐开发工具,并且推荐使用Anaconda包管理器,自带Python解释器,完美!
1.平时一些Python脚本去完成一些小任务的话。
推荐使用vscode,“爸爸”是微软,开发插件比较多,社区活跃,还能跨平台。除此外vscode还可以通过其他插件配合python编辑,以及还有其他功能,例如绘制流程图,刷leetcode等。当然还可以跨平台,现在该软件应该在世界上使用率比较全,基本上每个程序员都会安装的。sublimeText,次推荐。本身由Python书写,对Python的兼容性特别好,软件也比较好,插件也挺多的。2.人工智能、数据分析
Spyder,这个可以在Anaconda中安装,可以进行交互式的编程,南京大学的一个教授Python的一个老师在课程中就是用该工具。Jupyter,这个也是交互式工具,更偏向记录笔记。支持交互式编程,使用markdown记录笔记(也支持latex数学公式),支持导出多种格式的文档,比较强大。3.其他
Pycharm,Pycharm是一个全能的IDE,社区版免费。开发Web项目,以及上面所提到的内容都是可以的,软件打开比较慢,但是快捷键比较多,用多了就很爽了。Eclipse,主要开发Java,如果是熟练Java的,可以通过插件配置进行Python开发。GUI项目,GUI需要设计软件辅组,不过这个也任务也比较冷门,这里就不介绍了。补充:在linux系统中,大神使用的是vim,有兴趣的可以了解一下,之所以厉害的人会使用这个编辑器,不仅使用因为快捷键多,还有的就是更能理解项目的各种逻辑等等。
祝好!
总结,以上就是关于python常见问题提问以及Python网络爬虫会遇到哪些问题的经验分享,卡友有疑问可以加wx或扫码加群!Copyright © 广州京杭网络科技有限公司 2005-2024 版权所有 粤ICP备16019765号
广州京杭网络科技有限公司 版权所有