python - scrapy 再次請求的問題
問題描述
如:item[’url’]=response.xpath(’a/@href’)分析出一個鏈接,然后想從這個鏈接里的網(wǎng)頁再獲取一些元素,放入item[’other’]。應(yīng)該怎么寫,謝謝。
問題解答
回答1:def parse_page1(self, response): for url in urls:item = MyItem()item[’url’] = urlrequest = scrapy.Request(url,callback=self.parse_page2)# request = scrapy.Request('http://www.example.com/some_page.html',dont_filter=True,callback=self.parse_page2)request.meta[’item’] = itemyield requestdef parse_page2(self, response): item = response.meta[’item’] item[’other’] = response.xpath(’/other’) yield item
最后附上官方文檔https://doc.scrapy.org/en/lat...中文翻譯版http://scrapy-chs.readthedocs...
相關(guān)文章:
1. java - 如何在Fragment中調(diào)用Activity的onNewIntent?2. javascript - js 對中文進行MD5加密和python結(jié)果不一樣。3. python - 獲取到的數(shù)據(jù)生成新的mysql表4. mysql里的大表用mycat做水平拆分,是不是要先手動分好,再配置mycat5. javascript - 圖片鏈接請求一直是pending狀態(tài),導(dǎo)致頁面崩潰,怎么解決?6. python的文件讀寫問題?7. javascript - ionic1的插件如何遷移到ionic2的項目中8. window下mysql中文亂碼怎么解決??9. sass - gem install compass 使用淘寶 Ruby 安裝失敗,出現(xiàn) 40410. javascript - jquery hide()方法無效
