python爬取區塊鏈瀏覽器上的交易列表數據
發表於 2022-06-04 17:43 作者: Bress
前言
2022年6月3日 端午節安康。
今天主要分享如何利用爬蟲爬取區塊鏈瀏覽器上的交易列表數據。
原因
dune上沒有bsc鏈上的轉账明細數據表。Footprint Analytics上現有的bsc_transactions表transfer_type粒度不夠。
環境
python 3.7
數據存儲:mysql 5.7
緩存:redis 6.2.6
开發工具:pycharm
思路
(1)所有協議、合約、swap地址轉账信息全爬不太實際,對存儲要求比較高。所以針對需要分析的協議,專門去爬取對應智能合約轉账是個不錯的選擇。
(2)區塊鏈瀏覽器肯定是有反爬機制的。所以在代理選擇上,要選擇國外的代理。國內的代理都訪問不到,具體原因你懂的。本文中不涉及代理部分,因爲國外的代理廠家之前沒有了解過。不過即使是上代理,對代碼層面改動也比較小
(3)採用了urllib同步請求 + 範圍內隨機時長程序休眠。減少了被風控的概率。但是也降低了爬蟲的效率。
後面再研究用scrapy或異步請求 [1]
[1] 同步:請求發送後,需要接受到返回的消息後,才進行下一次發送。異步:不需要等接收到返回的消息。
實現
找到需要爬取合約的具體地址:
第一頁
http://bscscan.com/txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8
第二頁
https://bscscan.com/txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8&p=2
第三頁
https://bscscan.com/txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8&p=3
....
可以知道 p = ?就代表頁數。
然後F12 點擊“網絡”,刷新界面,查看網絡請求信息。
主要查看,網頁上顯示的數據,是哪個文件響應的。以什么方式響應的,請求方法是什么
如何驗證呢,就是找一個txn_hash在響應的數據裏面按ctrl + f去搜索,搜索到了說明肯定是這個文件返回的。
查看響應的數據,是html的格式。在python裏面,處理html數據,個人常用的是xpath(當然,如果更擅長BeautifulSoup也可以)
在python裏面安裝相關的依賴
pip install lxml ‐i https://pypi.douban.com/simple
同時在瀏覽器上安裝xpath插件,它能更好的幫助我們獲到網頁中元素的位置
XPath Helper - Chrome 網上應用店 (google.com)
然後就可以通過插件去定位了,返回的結果是list
**注:**瀏覽器看到的網頁都是瀏覽器幫我們渲染好的。存在在瀏覽器中能定位到數據,但是代碼中取不到值的情況,這時候可以通過鼠標右鍵-查看網頁源碼,然後搜索實現
# 請求和xpath定位具體實現代碼: def start_spider(page_number): url_base = 'http://bscscan.com /txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8&' # 請求頭 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36', 'referer': 'https://bscscan.com/txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8' } # 需要傳入的參數 data = { 'p': page_number } # 將參數轉爲Unicode編碼格式 unicode_data = urllib.parse.urlencode(data) # 拼接網址 # http://bscscan.com/txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8 url = url_base + unicode_data # 自定義request對象 request = urllib.request.Request(url=url, headers=headers) # 模擬瀏覽器發送請求 response = urllib.request.urlopen(request) # 將返回的數據利用lxml轉爲 tree = etree.HTML(response.read().decode('utf‐8')) # //div[@id='paywall_mask']//tbody//td//span/a[@class='myFnExpandBox_searchVal']/text() txn_hash_list = tree.xpath("//div[@id='paywall_mask']//tbody//td//span/a[@class='myFnExpandBox_searchVal']/text()") # //div[@id='paywall_mask']//tbody//td//span[@class='u-label u-label--xs u-label--info rounded text-dark text-center']/text() method_list = tree.xpath( "//div[@id='paywall_mask']//tbody//td//span[@class='u-label u-label--xs u-label--info rounded text-dark text-center']/text()") # //div[@id='paywall_mask']//tbody//td[@class='d-none d-sm-table-cell']//text() block_list = tree.xpath("//div[@id='paywall_mask']//tbody//td[@class='d-none d-sm-table-cell']//text()") # //div[@id='paywall_mask']//tbody//td[@class='showAge ']/span/@title age_list = tree.xpath("//div[@id='paywall_mask']//tbody//td[@class='showAge ']/span/@title") # //div[@id='paywall_mask']//tbody//td/span[@class='hash-tag text-truncate']/@title from_list = tree.xpath( "//div[@id='paywall_mask']//tbody//td/span[@class='hash-tag text-truncate']/@title") # //div[@id='paywall_mask']//tbody//td[@class='text-center']/span/text() transfer_type_list = tree.xpath("//div[@id='paywall_mask']//tbody//td[@class='text-center']/span/text()") # //div[@id='paywall_mask']//tbody//td/span/span[@class='hash-tag text-truncate']//text() to_list = tree.xpath("//div[@id='paywall_mask']//tbody//td/span/span[@class='hash-tag text-truncate']//text()") # //div[@id='paywall_mask']//tbody//td/span[@class='small text-secondary']/text()[2] transfer_free_list = tree.xpath( "//div[@id='paywall_mask']//tbody//td/span[@class='small text-secondary']/text()[2]")
然後就是利用redis,對txn_hash去重,去重的原因是防止一條數據被爬到了多次
def add_txn_hash_to_redis(txn_hash): red = redis.Redis(host='根據你自己的配置', port=6379, db=0) res = red.sadd('txn_hash:txn_set', get_md5(txn_hash)) # 如果返回0,這說明插入不成功,表示有重復 if res == 0: return False else: return True # 將mmsi進行哈希,用哈希去重更快 def get_md5(txn_hash): md5 = hashlib.md5() md5.update(txn_hash.encode('utf-8')) return md5.hexdigest()
最後一個需要考慮的問題:交易是在增量了,也就是說,當前第二頁的數據,很可能過會就到第三頁去了。對此我的策略是不管頁數的變動。一直往下爬。全量爬完了,再從第一頁爬新增加的交易。直到遇到第一次全量爬取的txn_hash
最後就是存入到數據庫了。這個沒啥好說的。
以上就可以拿到轉账列表中的txn_hash,後面還要寫一個爬蟲深入列表裏面,通過txn_hash去爬取詳情頁面的信息。這個就下個文章再說,代碼還沒寫完。
今天就寫到這裏。拜拜ヾ(•ω•`)o
來源:Bress
作者:撒酒狂歌
標題:python爬取區塊鏈瀏覽器上的交易列表數據
地址:https://www.coinsdeep.com/article/3377.html
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。