Python爬蟲(chóng)獲取豆瓣電影并寫(xiě)入excel
豆瓣電影排行榜前250 分為10頁(yè),第一頁(yè)的url為https://movie.douban.com/top250,但實(shí)際上應(yīng)該是https://movie.douban.com/top250?start=0 后面的參數(shù)0表示從第幾個(gè)開(kāi)始,如0表示從第一(肖申克的救贖)到第二十五(觸不可及),https://movie.douban.com/top250?start=25表示從第二十六(蝙蝠俠:黑暗騎士)到第五十名(死亡詩(shī)社)。等等,
所以可以用一個(gè)步長(zhǎng)為25的range的for循環(huán)參數(shù)
復(fù)制代碼 代碼如下:for i in range(0, 250, 25): print(i)
分析完頁(yè)面組成后,開(kāi)始獲取頁(yè)面,直接request.get()發(fā)現(xiàn)沒(méi)有返回任何東西,輸出一下響應(yīng)碼
url = ’https://movie.douban.com/top250?start=0’res = request.get(url=url)print(res.status_code)
發(fā)現(xiàn)返回響應(yīng)碼418
以前沒(méi)見(jiàn)過(guò)這個(gè),拉網(wǎng)線上網(wǎng)查一下,發(fā)現(xiàn)給get里面加一個(gè)header參數(shù)就行了
這里可以用自己瀏覽器的user-agent,如
headers = {’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36’}
或者用fake_agent(安裝直接用pip install fake_agent) 來(lái)為自己生成一個(gè)隨機(jī)的agent添加到header字典中
from fake_useragent import UserAgentheaders = {’User-Agent’: UserAgent().random}
之后就可以得到頁(yè)面源碼了。
然后使用lxml.etree,即xpath解析頁(yè)面源碼。用瀏覽器插件xpath finder快速定位到元素
import requestsimport lxml.etree as etreeurl = ’https://movie.douban.com/top250?start=0’headers = {’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36’}res = requests.get(url=url, headers=headers)print(res.text)html = etree.HTML(res.text)name = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[1]/div/div[2]/div[1]/a/span[1]')print(name)
但是直接這樣子,解析到的是這樣的結(jié)果
[<Element span at 0x20b2f0cc488>]
關(guān)于這東西是什么,有文章寫(xiě)的很好:https://www.jb51.net/article/132145.htm
這里我直接寫(xiě)解決部分,在使用xpath解析時(shí),后面加上/text()
name = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[1]/div/div[2]/div[1]/a/span[1]/text()')
解決后,再使用xpath finder插件,一步一步獲取到電影所有數(shù)據(jù)
最后把這個(gè)寫(xiě)在函數(shù)里,外面再套上一開(kāi)始說(shuō)的循環(huán),就OK了
# -*- coding: utf-8 -*-import requestsimport lxml.etree as etreedef get_source(page): url = ’https://movie.douban.com/top250?start={}’.format(page) headers = { ’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36’} print(url) res = requests.get(url=url, headers=headers) print(res.status_code) html = etree.HTML(res.text) for i in range(1, 26): name = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[1]/a/span[1]/text()'.format(i)) info = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[1]/text()'.format(i)) score = html.xpath( '/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/div/span[2]/text()'.format(i)) slogan = html.xpath( '/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[2]/span/text()'.format(i)) print(name[0]) print(info[0].replace(’ ’, ’’)) print(info[1].replace(’ ’, ’’)) print(score[0]) print(slogan[0])n = 1for i in range(0, 250, 25): print(’第%d頁(yè)’ % n) n += 1 get_source(i) print(’==========================================’)
在定位時(shí),發(fā)現(xiàn)有4部電影介紹沒(méi)有slogan,導(dǎo)致獲取到的信息為空列表,也就導(dǎo)致了list.append()會(huì)出錯(cuò)。所以我加上了幾個(gè)差錯(cuò)處理,解決方式可能有點(diǎn)傻,如果有更好的解決辦法,洗耳恭聽(tīng)
代碼在最后可以看到
EXCEL保存部分
這里我用的xlwt
book = xlwt.Workbook()
sheet = book.add_sheet(u’sheetname’, cell_overwrite_ok=True)
創(chuàng)建一個(gè)sheet表單。
數(shù)據(jù)保存到一個(gè)大列表中,列表嵌套列表
再通過(guò)循環(huán)把數(shù)據(jù)導(dǎo)入到excel表單中
r = 1 for i in LIST: #有10頁(yè) for j in i: #有25條數(shù)據(jù) c = 2 for x in j: #有5組數(shù)據(jù)print(x)sheet.write(r, c, x)c += 1 r += 1
最后在保存一下
book.save(r’douban.xls’)
注意文件后綴要用xls,用xlsx會(huì)導(dǎo)致文件打不開(kāi)
然后就大功告成了
打開(kāi)文件,手動(dòng)加入排名,等部分信息(這些也可以在程序里完成,我嫌麻煩,就沒(méi)寫(xiě),直接手動(dòng)來(lái)的快)
前面的✓是我自己整的,用于記錄那些看過(guò),那些沒(méi)看過(guò)
這也是我寫(xiě)這個(gè)東西的最初的目的
完整代碼在下面,僅用于參考
# -*- coding: utf-8 -*-import requestsimport lxml.etree as etreeimport xlwtdef get_source(page): List = [] url = ’https://movie.douban.com/top250?start={}’.format(page) headers = { ’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36’} print(url) res = requests.get(url=url, headers=headers) print(res.status_code) html = etree.HTML(res.text) for i in range(1, 26): list = [] name = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[1]/a/span[1]/text()'.format(i)) info = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[1]/text()'.format(i)) score = html.xpath( '/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/div/span[2]/text()'.format(i)) slogan = html.xpath( '/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[2]/span/text()'.format(i)) try: list.append(name[0]) except: list.append(’----’) try: list.append(info[0].replace(’ ’, ’’).replace(’n’, ’’)) except: list.append(’----’) try: list.append(info[1].replace(’ ’, ’’).replace(’n’, ’’)) except: list.append(’----’) try: list.append(score[0]) except: list.append(’----’) try: list.append(slogan[0]) except: list.append(’----’) List.append(list) return Listn = 1LIST = []for i in range(0, 250, 25): print(’第{}頁(yè)’.format(n)) n += 1 List = get_source(i) LIST.append(List)def excel_write(LIST): book = xlwt.Workbook() sheet = book.add_sheet(u’sheetname’, cell_overwrite_ok=True) r = 1 for i in LIST: #有10頁(yè) for j in i: #有25條數(shù)據(jù) c = 2 for x in j: #有5組數(shù)據(jù)print(x)sheet.write(r, c, x)c += 1 r += 1 book.save(r’douban1.xls’) #保存代碼excel_write(LIST)
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持好吧啦網(wǎng)。
相關(guān)文章:
1. ASP刪除img標(biāo)簽的style屬性只保留src的正則函數(shù)2. 低版本IE正常運(yùn)行HTML5+CSS3網(wǎng)站的3種解決方案3. HTML5 Canvas繪制圖形從入門(mén)到精通4. 讀大數(shù)據(jù)量的XML文件的讀取問(wèn)題5. css代碼優(yōu)化的12個(gè)技巧6. jsp+servlet實(shí)現(xiàn)猜數(shù)字游戲7. asp批量添加修改刪除操作示例代碼8. PHP循環(huán)與分支知識(shí)點(diǎn)梳理9. ASP.NET MVC使用異步Action的方法10. ASP實(shí)現(xiàn)加法驗(yàn)證碼
