博主作為爬蟲初學(xué)者,本次使用了requests和beautifulsoup庫進(jìn)行數(shù)據(jù)的爬取
爬取網(wǎng)站:http://datachart.500.com/dlt/history/history.shtml —500彩票網(wǎng)
(分析后發(fā)現(xiàn)網(wǎng)站源代碼并非是通過頁面跳轉(zhuǎn)來查找不同的數(shù)據(jù),故可通過F12查找network欄找到真正儲存所有歷史開獎結(jié)果的網(wǎng)頁)
如圖:
爬蟲部分:
from bs4 import BeautifulSoup #引用BeautifulSoup庫 import requests #引用requests import os #os import pandas as pd import csv import codecs lst=[] url='http://datachart.500.com/dlt/history/newinc/history.php?start=07001end=21018' r = requests.get(url) r.encoding='utf-8' text=r.text soup = BeautifulSoup(text, "html.parser") tbody=soup.find('tbody',id="tdata") tr=tbody.find_all('tr') td=tr[0].find_all('td') for page in range(0,14016): td=tr12下一頁閱讀全文您可能感興趣的文章:
- Python爬蟲實例——爬取美團(tuán)美食數(shù)據(jù)
- Python基于pandas爬取網(wǎng)頁表格數(shù)據(jù)
- python 爬取疫情數(shù)據(jù)的源碼
- 用python爬取歷史天氣數(shù)據(jù)的方法示例
- 基于Python的Post請求數(shù)據(jù)爬取的方法詳解
- Python3實現(xiàn)的爬蟲爬取數(shù)據(jù)并存入mysql數(shù)據(jù)庫操作示例
標(biāo)簽:郴州 哈爾濱 平頂山 烏蘭察布 烏蘭察布 大慶 合肥 海南
巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python爬取分析超級大樂透歷史開獎數(shù)據(jù)第1/2頁》,本文關(guān)鍵詞 python,爬取,分析,超級,大樂,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。