如何让scrapy表单提交工作

前端之家收集整理的这篇文章主要介绍了如何让scrapy表单提交工作前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

我尝试使用scrapy来完成登录并收集我的项目提交计数.这是代码.

from scrapy.item import Item,Field
from scrapy.http import FormRequest
from scrapy.spider import Spider
from scrapy.utils.response import open_in_browser


class GitSpider(Spider):
    name = "github"
    allowed_domains = ["github.com"]
    start_urls = ["https://www.github.com/login"]

    def parse(self,response):
        formdata = {'login': 'username','password': 'password' }
        yield FormRequest.from_response(response,formdata=formdata,clickdata={'name': 'commit'},callback=self.parse1)

    def parse1(self,response):
        open_in_browser(response)

运行代码

scrapy runspider github.py

它应该显示表单的结果页面,该页面应该是在同一页面中失败的登录页面,因为用户名和密码是假的.但是它显示search page.日志文件位于pastebin

如何修复代码?提前致谢.

最佳答案
您的问题是FormRequest.from_response()使用不同的形式 – “搜索表单”.但是,您希望它使用“登录表单”.提供formnumber参数:

yield FormRequest.from_response(response,formnumber=1,callback=self.parse1)

以下是我在应用更改后在浏览器中看到的内容(使用“假”用户):

原文链接:https://www.f2er.com/python/438956.html

猜你在找的Python相关文章