上一篇我們講過Cookie相關(guān)的知識(shí),了解到Cookie是為了交互式web而誕生的,它主要用于以下三個(gè)方面:
我們今天就用requests庫來登錄豆瓣然后爬取影評(píng)為例子,用代碼講解下Cookie的會(huì)話狀態(tài)管理(登錄)功能。
此教程僅用于學(xué)習(xí),不得商業(yè)獲利!如有侵害任何公司利益,請(qǐng)告知?jiǎng)h除!
之前豬哥帶大家爬取了優(yōu)酷的彈幕并生成詞云圖片,發(fā)現(xiàn)優(yōu)酷彈幕的質(zhì)量并不高,有很多介詞和一些無效詞,比如:哈哈、啊啊、這些、那些。。。而豆瓣口碑一直不錯(cuò),有些書或者電影的推薦都很不錯(cuò),所以我們今天來爬取下豆瓣的影評(píng),然后生成詞云,看看效果如何吧!
我們使用requests庫登錄豆瓣,然后爬取影評(píng),最后生成詞云!
為什么我們之前的案例(京東、優(yōu)酷等)中不需要登錄,而今天爬取豆瓣需要登錄呢?那是因?yàn)槎拱暝跊]有登錄狀態(tài)情況下只允許你查看前200條影評(píng),之后就需要登錄才能查看,這也算是一種反扒手段!
我們看下簡(jiǎn)單的技術(shù)方案,大致可以分為三部分:
方案確定之后我們就開始實(shí)際操作吧!
做爬蟲前我們都是先從瀏覽器開始,使用調(diào)試窗口查看url。
打開登錄頁面,然后調(diào)出調(diào)試窗口,輸入用戶名和密碼,點(diǎn)擊登錄。
這里豬哥建議輸入錯(cuò)誤的密碼,這樣就不會(huì)因?yàn)轫撁嫣D(zhuǎn)而捕捉不到請(qǐng)求!上面我們便獲取到登錄請(qǐng)求的URL:https://accounts.douban.com/j/mobile/login/basic
因?yàn)槭且粋€(gè)POST請(qǐng)求,所以我們還需要看看請(qǐng)求登錄時(shí)攜帶的參數(shù),我們將調(diào)試窗口往下拉查看Form Data。
得到登錄請(qǐng)求URL和參數(shù)后,我們就可以來用requests庫來寫一個(gè)登錄功能!
上期我們?cè)谂廊?yōu)酷彈幕的時(shí)候我們是復(fù)制瀏覽器中的Cookie到請(qǐng)求頭中這來來保存會(huì)話狀態(tài),但是我們?nèi)绾巫尨a自動(dòng)保存Cookie呢?
也許你見過或者使用過urllib
庫,它用來保存Cookie的方式如下:
cookie = http.cookiejar.CookieJar() handler = urllib.request.HttpCookieProcessor(cookie) opener = urllib.request.build_opener(handler) opener(url)
但是前面我們介紹requests庫的時(shí)候就說過:
requests庫是一個(gè)基于urllib/3的第三方網(wǎng)絡(luò)庫,它的特點(diǎn)是功能強(qiáng)大,API優(yōu)雅。由上圖我們可以看到,對(duì)于http客戶端python官方文檔也推薦我們使用requests庫,實(shí)際工作中requests庫也是使用的比較多的庫。
所以今天我們來看看requests庫是如何優(yōu)雅的幫我們自動(dòng)保存Cookie的?我們來對(duì)代碼做一點(diǎn)微調(diào),使之能自動(dòng)保存Cookie維持會(huì)話狀態(tài)!
上述代碼中,我們做了兩處改動(dòng):
s = requests.Session()
,生成Session對(duì)象用來保存Cookie我們可以看到發(fā)起請(qǐng)求的對(duì)象變成了session對(duì)象,它和原來的requests對(duì)象發(fā)起請(qǐng)求方式一樣,只不過它每次請(qǐng)求會(huì)自動(dòng)帶上Cookie,所以后面我們都用Session對(duì)象來發(fā)起請(qǐng)求!
講到這里也許有同學(xué)會(huì)問:requests.Session對(duì)象是不是我們常說的session呢?
答案當(dāng)然不是,我們常說的session是保存在服務(wù)端的,而requests.Session對(duì)象只是一個(gè)用于保存Cookie的對(duì)象而已,我們可以看看它的源碼介紹
所以大家千萬不要將requests.Session對(duì)象與session技術(shù)搞混了!
我們實(shí)現(xiàn)了登錄和保存會(huì)話狀態(tài)之后,就可以開始干正事啦!
首先在豆瓣中找到自己想要分析的電影,這里豬哥選擇一部美國(guó)電影**《荒野生存》**,因?yàn)檫@部電影是豬哥心中之最,沒有之一!
然后下拉找到影評(píng),調(diào)出調(diào)試窗口,找到加載影評(píng)的URL
但是爬取下來的是一個(gè)HTML網(wǎng)頁數(shù)據(jù),我們需要將影評(píng)數(shù)據(jù)提取出來
上圖中我們可以看到爬取返回的是html,而影評(píng)數(shù)據(jù)便是嵌套在html標(biāo)簽中,如何提取影評(píng)內(nèi)容呢?
這里我們使用正則表達(dá)式來匹配想要的標(biāo)簽內(nèi)容,當(dāng)然也有更高級(jí)的提取方法,比如使用某些庫(比如bs4、xpath等)去解析html提取內(nèi)容,而且使用庫效率也比較高,但這是我們后面的內(nèi)容,我們今天就用正則來匹配!
我們先來分析下返回html 的網(wǎng)頁結(jié)構(gòu)
我們發(fā)現(xiàn)影評(píng)內(nèi)容都是在span class="short">/span>
這個(gè)標(biāo)簽里,那我們 就可以寫正則來匹配這個(gè)標(biāo)簽里的內(nèi)容啦!
檢查下提取的內(nèi)容
我們爬取、提取、保存完一條數(shù)據(jù)之后,我們來批量爬取一下。根據(jù)前面幾次爬取的經(jīng)驗(yàn),我們知道批量爬取的關(guān)鍵在于找到分頁參數(shù),我們可以很快發(fā)現(xiàn)URL中有一個(gè)start
參數(shù)便是控制分頁的參數(shù)。
這里只爬取了25頁就爬完,我們可以去瀏覽器中驗(yàn)證一下,是不是真的只有25頁,豬哥驗(yàn)證過確實(shí)只有25頁!
數(shù)據(jù)抓取下來之后,我們就來使用詞云分析一下這部電影吧!
基于使用詞云分析的案例前面已經(jīng)講過兩個(gè)了,所以豬哥只會(huì)簡(jiǎn)單的講解一下!
因?yàn)槲覀兿螺d的影評(píng)是一段一段的文字,而我們做的詞云是統(tǒng)計(jì)單詞出現(xiàn)的次數(shù),所以需要先分詞!
最終成果:
從這些詞中我們可以知道這是關(guān)于一部關(guān)于追尋自我與現(xiàn)實(shí)生活的電影,豬哥裂墻推薦?。。?/p>
今天我們以爬取豆瓣為例子,學(xué)到了不少的東西,來總結(jié)一下:
鑒于篇幅有限,爬蟲過程中遇到的很多細(xì)節(jié)和技巧并沒有完全寫出來,所以希望大家能自己動(dòng)手實(shí)踐
源碼地址:https://github.com/pig6/douban_comments_spider
到此這篇關(guān)于詳解如何用Python登錄豆瓣并爬取影評(píng)的文章就介紹到這了,更多相關(guān)Python爬取影評(píng)內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
標(biāo)簽:寧夏 盤錦 大同 普洱 林芝 南平 海南 漯河
巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《詳解如何用Python登錄豆瓣并爬取影評(píng)》,本文關(guān)鍵詞 詳解,如,何用,Python,登錄,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。