python – 我如何使用wget下载scrapy文件

前端之家收集整理的这篇文章主要介绍了python – 我如何使用wget下载scrapy文件前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

scrapy没有正确下载文件.我有我的项目的URL,所以我想我可以使用wget下载文件.

如何在scrapy process_item函数中使用wget?或者,还有另一种下载文件的方式吗?

class MyImagesPipeline(ImagesPipeline):
    #Name download version
    def image_key(self,url):
        image_guid = url.split('/')[-1]
        return 'full/%s' % (image_guid)

    def get_media_requests(self,item,info):
        if item['image_urls']:
            for image_url in item['image_urls']:
            # wget -nH image_ul -P  images/
            yield Request(image_url)
最佳答案
代码将执行wget,您可以使用以下行替换您的注释

import subprocess

    ...

subprocess.call(['wget','-nH',image_url,'-P  images/'])

你可以在这里阅读有关subprocess.call的内容http://docs.python.org/2/library/subprocess.html

猜你在找的Python相关文章