主頁 > 知識庫 > 詳解使用scrapy進(jìn)行模擬登陸三種方式

詳解使用scrapy進(jìn)行模擬登陸三種方式

熱門標(biāo)簽:千呼ai電話機器人免費 外呼系統(tǒng)前面有錄音播放嗎 柳州正規(guī)電銷機器人收費 高德地圖標(biāo)注字母 申請辦個400電話號碼 深圳網(wǎng)絡(luò)外呼系統(tǒng)代理商 騰訊地圖標(biāo)注有什么版本 鎮(zhèn)江人工外呼系統(tǒng)供應(yīng)商 400電話辦理費用收費

scrapy有三種方法模擬登陸方式:
- 直接攜帶cookies
- 找url地址,發(fā)送post請求存儲cookie
- 找到對應(yīng)的form表單,自動解析input標(biāo)簽,自動解析post請求的url地址,自動帶上數(shù)據(jù),自動發(fā)送請求

1、攜帶cookies登陸github

import scrapy
import re
 
class Login1Spider(scrapy.Spider):
  name = 'login1'
  allowed_domains = ['github.com']
  start_urls = ['https://github.com/NoobPythoner'] # 這是一個需要登陸以后才能訪問的頁面
 
  def start_requests(self): # 重構(gòu)start_requests方法
    # 這個cookies_str是抓包獲取的
    cookies_str = '...' # 抓包獲取
    # 將cookies_str轉(zhuǎn)換為cookies_dict
    cookies_dict = {i.split('=')[0]:i.split('=')[1] for i in cookies_str.split('; ')}
    yield scrapy.Request(
      self.start_urls[0],
      callback=self.parse,
      cookies=cookies_dict
    )
 
  def parse(self, response): # 通過正則表達(dá)式匹配用戶名來驗證是否登陸成功
    result_list = re.findall(r'noobpythoner|NoobPythoner', response.body.decode())
    print(result_list)
    pass

注意:

scrapy中cookie不能夠放在headers中,在構(gòu)造請求的時候有專門的cookies參數(shù),能夠接受字典形式的coookie
在setting中設(shè)置ROBOTS協(xié)議、USER_AGENT

2、使用scrapy.FormRequest()登錄

通過scrapy.FormRequest能夠發(fā)送post請求,同時需要添加fromdata參數(shù)作為請求體,以及callback

 yield scrapy.FormRequest(
       "https://github.com/session",
       formdata={
         "authenticity_token":authenticity_token,
         "utf8":utf8,
         "commit":commit,
         "login":"****",
         "password":"****"
       },
       callback=self.parse_login
     )

3、使用scrapy.Formrequest.from_response登陸github

import scrapy
import re
 
class Login3Spider(scrapy.Spider):
  name = 'login3'
  allowed_domains = ['github.com']
  start_urls = ['https://github.com/login']
 
  def parse(self, response):
    yield scrapy.FormRequest.from_response(
      response, # 傳入response對象,自動解析
      # 可以通過xpath來定位form表單,當(dāng)前頁只有一個form表單時,將會自動定位
      formxpath='//*[@id="login"]/form', 
      formdata={'login': '****', 'password': '***'},
      callback=self.parse_login
    )
 
  def parse_login(self,response):
    ret = re.findall(r"noobpythoner|NoobPythoner", response.text)
    print(ret)

到此這篇關(guān)于詳解使用scrapy進(jìn)行模擬登陸三種方式的文章就介紹到這了,更多相關(guān)scrapy模擬登陸內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Scrapy模擬登錄趕集網(wǎng)的實現(xiàn)代碼
  • Scrapy框架實現(xiàn)的登錄網(wǎng)站操作示例
  • python爬蟲框架scrapy實現(xiàn)模擬登錄操作示例

標(biāo)簽:海南 烏蘭察布 大慶 烏蘭察布 郴州 合肥 平頂山 哈爾濱

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《詳解使用scrapy進(jìn)行模擬登陸三種方式》,本文關(guān)鍵詞  詳解,使用,scrapy,進(jìn)行,模擬,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《詳解使用scrapy進(jìn)行模擬登陸三種方式》相關(guān)的同類信息!
  • 本頁收集關(guān)于詳解使用scrapy進(jìn)行模擬登陸三種方式的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章