利用Python爬取几百万github数据!这些源码都是我的囊中之物!

前端之家收集整理的这篇文章主要介绍了利用Python爬取几百万github数据!这些源码都是我的囊中之物!前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

进群:548377875   即可获取数十套PDF哦!

看到这么简单的流程,内心的第一想法就是先简单的写一个递归实现呗,要是性能差再慢慢优化,所以第一版代码很快就完成了(在目录recursion下)。数据存储使用mongo,重复请求判断使用的redis,写mongo数据采用celery的异步调用,需要rabbitmq服务正常启动,在settings.py正确配置后,使用下面的步骤启动:

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

这是按粉丝数降序排列的用户列表

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

运行缺陷

作为一个有追求的程序员,当然不能因为一点小成就满足,总结一下递归实现的几个缺陷:

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

异步优化

针对这种I/O耗时的问题,解决方法也就那几种,要么多并发,要么走异步访问,要么双管齐下。针对上面的问题2,我最开始的解决方式是异步请求API。因为最开始写代码的时候考虑到了这点,代码调用方法已经做过优化,很快就改好了,实现方式使用了grequests。这个库和requests是同一个作者,代码也非常的简单,就是讲request请求用gevent做了一个简单的封装,可以非阻塞的请求数据。

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

运行程序

为了实现多级部署(虽然我就只有一台机器),消息队列使用了rabbitmq,需要创建名为github,类型是direct的exchange,然后创建四个名称分别为user,repo,follower,following的队列,详细的绑定关系见下图:

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

利用Python爬取几百万github数据!这些源码都是我的囊中之物!

嘿嘿 还是挺好玩的。如果对你有帮助,评论666.谢谢大家阅读!

原文链接:https://www.f2er.com/python/58981.html

猜你在找的Python相关文章