chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

網頁爬蟲及其用到的算法和數(shù)據(jù)結構

算法與數(shù)據(jù)結構 ? 來源:快課網 ? 作者:Jay13 ? 2022-12-02 11:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

網絡爬蟲,是一種按照一定的規(guī)則,自動的抓取萬維網信息的程序或者腳本。網絡爬蟲是搜索引擎系統(tǒng)中十分重要的組成部分,它負責從互 聯(lián)網中搜集網頁,采集信息,這些網頁信息用于建立索引從而為搜索 引擎提供支持,它決定著整個引擎系統(tǒng)的內容是否豐富,信息是否即 時,因此其性能的優(yōu)劣直接影響著搜索引擎的效果。

網絡爬蟲程序的優(yōu)劣,很大程度上反映了一個搜索引擎的好差。不信,你可以隨便拿一個網站去查詢一下各家搜索對它的網頁收錄情況,爬蟲強大程度跟搜索引擎好壞基本成正比。

1.世界上最簡單的爬蟲——三行情詩

我們先來看一個最簡單的最簡單的爬蟲,用python寫成,只需要三行。

import requests
url="http://www.cricode.com"
r=requests.get(url)

上面這三行爬蟲程序,就如下面這三行情詩一般,很干脆利落。

是好男人,

就應該在和女友吵架時,

抱著必輸?shù)男膽B(tài)。

2.一個正常的爬蟲程序

上面那個最簡單的爬蟲,是一個不完整的殘疾的爬蟲。因為爬蟲程序通常需要做的事情如下

1)給定的種子URLs,爬蟲程序將所有種子URL頁面爬取下來

2)爬蟲程序解析爬取到的URL頁面中的鏈接,將這些鏈接放入待爬取URL集合中

3)重復1、2步,直到達到指定條件才結束爬取

因此,一個完整的爬蟲大概是這樣子的:

import requests                       #用來爬取網頁
from bs4 import BeautifulSoup         #用來解析網頁
seds = ["http://www.hao123.com",      #我們的種子
              "http://www.csdn.net",
              "http://www.cricode.com"]
sum = 0                               #我們設定終止條件為:爬取到100000個頁面時,就不玩了
 
while sum < 10000 :
    if sum < len(seds):
         r = requests.get(seds[sum])
         sum = sum + 1
         do_save_action(r)
         soup = BeautifulSoup(r.content)               
         urls = soup.find_all("href",.....)                     //解析網頁
         for url in urls:
              seds.append(url)
 
    else:
         break

3.現(xiàn)在來找茬

上面那個完整的爬蟲,不足20行代碼,相信你能找出20個茬來。因為它的缺點實在是太多。下面一一列舉它的N宗罪:

1)我們的任務是爬取1萬個網頁,按上面這個程序,一個人在默默的爬取,假設爬起一個網頁3秒鐘,那么,爬一萬個網頁需要3萬秒鐘。MGD,我們應當考慮開啟多個線程(池)去一起爬取,或者用分布式架構去并發(fā)的爬取網頁。

2)種子URL和后續(xù)解析到的URL都放在一個列表里,我們應該設計一個更合理的數(shù)據(jù)結構來存放這些待爬取的URL才是,比如隊列或者優(yōu)先隊列。

3)對各個網站的url,我們一視同仁,事實上,我們應當區(qū)別對待。大站好站優(yōu)先原則應當予以考慮。

4)每次發(fā)起請求,我們都是根據(jù)url發(fā)起請求,而這個過程中會牽涉到DNS解析,將url轉換成ip地址。一個網站通常由成千上萬的URL,因此,我們可以考慮將這些網站域名的IP地址進行緩存,避免每次都發(fā)起DNS請求,費時費力。

5)解析到網頁中的urls后,我們沒有做任何去重處理,全部放入待爬取的列表中。事實上,可能有很多鏈接是重復的,我們做了很多重復勞動。

6)…..

4.找了這么多茬后,很有成就感,真正的問題來了,學挖掘機到底哪家強?

現(xiàn)在我們就來一一討論上面找茬找出的若干問題的解決方案。

1)并行爬起問題

我們可以有多重方法去實現(xiàn)并行。

多線程或者線程池方式,一個爬蟲程序內部開啟多個線程。同一臺機器開啟多個爬蟲程序,如此,我們就有N多爬取線程在同時工作。能大大減少時間。

此外,當我們要爬取的任務特別多時,一臺機器、一個網點肯定是不夠的,我們必須考慮分布式爬蟲。常見的分布式架構有:主從(Master——Slave)架構、點對點(Peer to Peer)架構,混合架構等。

說道分布式架構,那我們需要考慮的問題就有很多,我們需要分派任務,各個爬蟲之間需要通信合作,共同完成任務,不要重復爬取相同的網頁。分派任務我們要做到公平公正,就需要考慮如何進行負載均衡。負載均衡,我們第一個想到的就是Hash,比如根據(jù)網站域名進行hash。

負載均衡分派完任務之后,千萬不要以為萬事大吉了,萬一哪臺機器掛了呢?原先指派給掛掉的哪臺機器的任務指派給誰?又或者哪天要增加幾臺機器,任務有該如何進行重新分配呢?

一個比較好的解決方案是用一致性Hash算法

2)待爬取網頁隊列

如何對待待抓取隊列,跟操作系統(tǒng)如何調度進程是類似的場景。

不同網站,重要程度不同,因此,可以設計一個優(yōu)先級隊列來存放待爬起的網頁鏈接。如此一來,每次抓取時,我們都優(yōu)先爬取重要的網頁。

當然,你也可以效仿操作系統(tǒng)的進程調度策略之多級反饋隊列調度算法。

3)DNS緩存

為了避免每次都發(fā)起DNS查詢,我們可以將DNS進行緩存。DNS緩存當然是設計一個hash表來存儲已有的域名及其IP。

4)網頁去重

說到網頁去重,第一個想到的是垃圾郵件過濾。垃圾郵件過濾一個經典的解決方案是Bloom Filter(布隆過濾器)。布隆過濾器原理簡單來說就是:建立一個大的位數(shù)組,然后用多個Hash函數(shù)對同一個url進行hash得到多個數(shù)字,然后將位數(shù)組中這些數(shù)字對應的位置為1。下次再來一個url時,同樣是用多個Hash函數(shù)進行hash,得到多個數(shù)字,我們只需要判斷位數(shù)組中這些數(shù)字對應的為是全為1,如果全為1,那么說明這個url已經出現(xiàn)過。如此,便完成了url去重的問題。當然,這種方法會有誤差,只要誤差在我們的容忍范圍之類,比如1萬個網頁,我只爬取到了9999個,剩下那一個網頁,who cares!

5)數(shù)據(jù)存儲的問題

數(shù)據(jù)存儲同樣是個很有技術含量的問題。用關系數(shù)據(jù)庫存取還是用NoSQL,抑或是自己設計特定的文件格式進行存儲,都大有文章可做。

6)進程間通信

分布式爬蟲,就必然離不開進程間的通信。我們可以以規(guī)定的數(shù)據(jù)格式進行數(shù)據(jù)交互,完成進程間通信。

7)……

廢話說了那么多,真正的問題來了,問題不是學挖掘機到底哪家強?而是如何實現(xiàn)上面這些東西?。海?/p>

實現(xiàn)的過程中,你會發(fā)現(xiàn),我們要考慮的問題遠遠不止上面這些。紙上得來終覺淺,覺知此事要躬行!

審核編輯 :李倩
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4738

    瀏覽量

    96713
  • 數(shù)據(jù)結構

    關注

    3

    文章

    573

    瀏覽量

    41148
  • 爬蟲
    +關注

    關注

    0

    文章

    85

    瀏覽量

    7808

原文標題:網頁爬蟲及其用到的算法和數(shù)據(jù)結構

文章出處:【微信號:TheAlgorithm,微信公眾號:算法與數(shù)據(jù)結構】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    從 0 到 1:用 PHP 爬蟲優(yōu)雅地拿下京東商品詳情

    在電商數(shù)據(jù)驅動的時代, 商品詳情數(shù)據(jù) 成為市場分析、價格監(jiān)控、競品調研的核心燃料。京東作為國內頭部電商平臺,其商品信息豐富、更新頻繁,是數(shù)據(jù)開發(fā)者眼中的“香餑餑”。 本文將帶你 從 0 到 1 ,用
    的頭像 發(fā)表于 09-23 16:42 ?375次閱讀
    從 0 到 1:用 PHP <b class='flag-5'>爬蟲</b>優(yōu)雅地拿下京東商品詳情

    Nginx限流與防爬蟲配置方案

    在互聯(lián)網業(yè)務快速發(fā)展的今天,網站面臨著各種流量沖擊和惡意爬蟲的威脅。作為運維工程師,我們需要在保證正常用戶訪問的同時,有效防范惡意流量和爬蟲攻擊。本文將深入探討基于Nginx的限流與防爬蟲解決方案,從原理到實踐,為大家提供一套完
    的頭像 發(fā)表于 09-09 15:52 ?467次閱讀

    【HZ-T536開發(fā)板免費體驗】6、使用protoc-gen-gorm生成標準化的數(shù)據(jù)結構

    在設計espnow協(xié)議的時候,考慮到我需要在esp32,Linux設備,web上使用相同的數(shù)據(jù)結構,那就需要考慮一下,是否使用一個通用的跨平臺序列化數(shù)據(jù)結構。這時候我想起了protobuf,這個就是
    發(fā)表于 08-26 00:32

    盤點嵌入式就業(yè)所需要的技能有哪些?

    語言,如C/C++、Java等。 - 掌握操作系統(tǒng)原理,了解Linux/Android等操作系統(tǒng)的內核架構和驅動開發(fā)。 - 具備良好的數(shù)據(jù)結構算法基礎,能夠進行高性能計算和數(shù)據(jù)處理。 - 了解智能手機
    發(fā)表于 08-11 15:43

    ESP32-運行網頁服務器(Web Server)-實用篇

    在前一篇文章《ESP32-運行網頁服務器(WebServer)-入門篇》,我們介紹了ESP32運行網頁服務器(WebServer)的原理,然后我們基于ESP32實現(xiàn)了一個demo代碼;看到很多同學都留言發(fā)表了自己的看法,有很多同學都基于這個原理實現(xiàn)了很多有意思的應用;這里
    的頭像 發(fā)表于 07-28 18:05 ?1907次閱讀
    ESP32-運行<b class='flag-5'>網頁</b>服務器(Web Server)-實用篇

    程序設計與數(shù)據(jù)結構

    的地址)出發(fā),采用推導的方式,深入淺出的分析了廣大C程序員學習和開發(fā)中遇到的難點。 2. 從方法論的高度對C語言在數(shù)據(jù)結構算法方面的應用進行了深入講解和闡述。 3. 講解了絕大多數(shù)C程序員開發(fā)
    發(fā)表于 05-13 16:45

    如何用Brower Use WebUI實現(xiàn)網頁數(shù)據(jù)智能抓取與分析?

    ? 作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 Browser-use是一款能讓AI智能體像人類一樣操作網頁的創(chuàng)新工具,與傳統(tǒng)網絡爬蟲技術相比,Browser-use能模擬人瀏覽并操作網頁,在采集網站
    的頭像 發(fā)表于 04-17 17:48 ?683次閱讀
    如何用Brower Use WebUI實現(xiàn)<b class='flag-5'>網頁數(shù)據(jù)</b>智能抓取與分析?

    爬蟲數(shù)據(jù)獲取實戰(zhàn)指南:從入門到高效采集

    爬蟲數(shù)據(jù)獲取實戰(zhàn)指南:從入門到高效采集 ? ? 在數(shù)字化浪潮中,數(shù)據(jù)已成為驅動商業(yè)增長的核心引擎。無論是市場趨勢洞察、競品動態(tài)追蹤,還是用戶行為分析,爬蟲技術都能助你快速捕獲目標信息。
    的頭像 發(fā)表于 03-24 14:08 ?1007次閱讀

    沖壓成形的基本工序_沖壓模具及其結構設計

    什么是沖壓?沖壓的特點?沖壓成形的基本工序有哪些?沖壓模具及其結構如何設計?帶著這些問題,今天小編跟大家一起學習一下。 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
    的頭像 發(fā)表于 02-07 09:13 ?887次閱讀
    沖壓成形的基本工序_沖壓模具<b class='flag-5'>及其</b><b class='flag-5'>結構</b>設計

    IP地址數(shù)據(jù)信息和爬蟲攔截的關聯(lián)

    IP地址數(shù)據(jù)信息和爬蟲攔截的關聯(lián)主要涉及到兩方面的內容,也就是數(shù)據(jù)信息和爬蟲。IP 地址數(shù)據(jù)信息的內容豐富,包括所屬地域、所屬網絡運營商、訪
    的頭像 發(fā)表于 12-23 10:13 ?554次閱讀

    康謀方案 | 多源相機數(shù)據(jù)采集與算法集成測試方案

    如何滿足不同應用場景下對圖像采集和算法測試的多樣化需求?本文為您帶來多源相機數(shù)據(jù)采集與算法集成測試方案,通過BRICKplus/BRICK2與ADTF的結合,輕松實現(xiàn)多源相機快速集成和數(shù)據(jù)
    的頭像 發(fā)表于 12-11 09:59 ?3803次閱讀
    康謀方案 | 多源相機<b class='flag-5'>數(shù)據(jù)</b>采集與<b class='flag-5'>算法</b>集成測試方案

    【「從算法到電路—數(shù)字芯片算法的電路實現(xiàn)」閱讀體驗】+內容簡介

    內容簡介這是一本深入解讀基礎算法及其電路設計,以打通算法研發(fā)到數(shù)字IC設計的實現(xiàn)屏障,以及指導芯片設計工程師從底層掌握復雜電路設計與優(yōu)化方法為目標的專業(yè)技術書。任何芯片(如WiFi芯片、5G芯片
    發(fā)表于 11-21 17:14

    DDC264配置寄存器數(shù)據(jù)寫入和320 DCLK時鐘脈沖后的回讀數(shù)據(jù)結構是什么?

    配置寄存器數(shù)據(jù)寫入和320 DCLK時鐘脈沖后的回讀數(shù)據(jù)結構是什么? 根據(jù)注和表9,16位配置寄存器數(shù)據(jù),4位修訂ID, 300位校驗模式,怎么可能有1024 TOTAL READBACK BITS, format = 0
    發(fā)表于 11-19 07:58

    視覺軟件HALCON的數(shù)據(jù)結構

    在研究機器視覺算法之前,我們需要先了解機器視覺應用中涉及的基本數(shù)據(jù)結構。Halcon數(shù)據(jù)結構主要有圖像參數(shù)和控制參數(shù)兩類參數(shù)。圖像參數(shù)包括:image、region、XLD,控制參數(shù)包括:string、integer、real、
    的頭像 發(fā)表于 11-14 10:20 ?1744次閱讀
    視覺軟件HALCON的<b class='flag-5'>數(shù)據(jù)結構</b>

    AIGC算法解析及其發(fā)展趨勢

    、AIGC算法解析 核心基礎 人工智能算法 :AIGC技術的基礎和靈魂,如深度學習、機器學習等算法,使機器能夠模擬人類的思考和行為過程,從而自主地完成各種任務。這些算法通過不斷地學習和
    的頭像 發(fā)表于 10-25 15:35 ?2260次閱讀