国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

詳解Python爬蟲爬取博客園問題列表所有的問題

瀏覽:8日期:2022-06-29 15:45:01
一.準備工作 首先,本文使用的技術為 python+requests+bs4,沒有了解過可以先去了解一下。 我們的需求是將博客園問題列表中的所有問題的題目爬取下來。

詳解Python爬蟲爬取博客園問題列表所有的問題

二.分析: 首先博客園問題列表頁面右鍵點擊檢查 通過Element查找問題所對應的屬性或標簽

詳解Python爬蟲爬取博客園問題列表所有的問題

可以發現在div class ='one_entity'中存在頁面中分別對應每一個問題接著div class ='news_item'中h2標簽下是我們想要拿到的數據

三.代碼實現

首先導入requests和BeautifulSoup

import requestsfrom bs4 import BeautifulSoup

由于很多網站定義了反爬策略,所以進行偽裝一下

headers = { ’User-Agent’: ’Mozilla / 5.0(WindowsNT10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 87.0.4280.141Safari / 537.36’ }

在這里User-Agent只是其中的一種方式,而且大家的User-Agent可能不同。

爬取數據main代碼

url = ’https://q.cnblogs.com/list/unsolved?’ fp = open(’blog’, ’w’, encoding=’utf-8’) for page in range(1,26): page = str(page) param = { ’page’:page } page_text = requests.get(url=url,params=param,headers=headers).text page_soup = BeautifulSoup(page_text,’lxml’) text_list = page_soup.select(’.one_entity > .news_item > h2’) for h2 in text_list: text = h2.a.string fp.write(text+’n’) print(’第’+page+’頁爬取成功!’)

注意一下這里,由于我們需要的是多張頁面的數據,所以在發送請求的url中我們就要針對不同的頁面發送請求,https://q.cnblogs.com/list/unsolved?page=我們要做的是在發送請求的url時候,根據參數來填充頁數page,代碼實現:

url = ’https://q.cnblogs.com/list/unsolved?’ for page in range(1,26): page = str(page) param = { ’page’:page } page_text = requests.get(url=url,params=param,headers=headers).text

將所有的h2數組拿到,進行遍歷,通過取出h2中a標簽中的文本,并將每取出來的文本寫入到文件中,由于要遍歷多次,所以保存文件在上面的代碼中。

text_list = page_soup.select(’.one_entity > .news_item > h2’) for h2 in text_list: text = h2.a.string fp.write(text+’n’)

完整代碼如下:

import requestsfrom bs4 import BeautifulSoupif __name__ == ’__main__’: headers = { ’User-Agent’: ’Mozilla / 5.0(WindowsNT10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 87.0.4280.141Safari / 537.36’ } url = ’https://q.cnblogs.com/list/unsolved?’ fp = open(’blog’, ’w’, encoding=’utf-8’) for page in range(1,26): page = str(page) param = { ’page’:page } page_text = requests.get(url=url,params=param,headers=headers).text page_soup = BeautifulSoup(page_text,’lxml’) text_list = page_soup.select(’.one_entity > .news_item > h2’) for h2 in text_list: text = h2.a.string fp.write(text+’n’) print(’第’+page+’頁爬取成功!’)四.運行結果

運行代碼:

詳解Python爬蟲爬取博客園問題列表所有的問題

詳解Python爬蟲爬取博客園問題列表所有的問題

到此這篇關于詳解Python爬蟲爬取博客園問題列表所有的問題的文章就介紹到這了,更多相關Python爬蟲爬取列表內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 亚洲网站免费看 | 在线aaa| 日本黄网站高清色大全 | 欧美成人影院免费观 | 大尺度福利视频奶水在线 | 美一级片| 国产a∨一区二区三区香蕉小说 | 国产午夜精品久久理论片小说 | 最新中文字幕一区二区乱码 | 欧美三级黄 | 成人黄色一级视频 | 91香蕉国产线在线观看免费 | 可以看毛片的网址 | 国产美女视频一区 | 亚洲第一网色综合久久 | 窝窝午夜精品一区二区 | 成人欧美日韩高清不卡 | 国产精品区牛牛影院 | 婷婷亚洲久悠悠色在线播放 | 成人国产精品免费网站 | 欧美日韩视频精品一区二区 | 日本免费一区二区三区a区 日本免费一区二区三区看片 | 欧美国产合集在线视频 | 免费一级片网站 | 在线亚洲精品国产波多野结衣 | 免费观看一级欧美在线视频 | 日本爽快片100色毛片 | 国产精品一区二区四区 | 伊人成人在线视频 | 99热国产免费 | 日韩久久一区二区三区 | 美女张开腿让男生桶出水 | 欧洲色老头 | 一区二区三区在线免费看 | 久久精品国产一区二区 | 性成人动作片在线看 | 日韩欧美在线一级一中文字暮 | 久久精品无遮挡一级毛片 | 亚洲最黄视频 | 久久不见久久见免费影院 | 99久在线 |