![《數(shù)據(jù)采集技術(shù)》課件-Spiders_第1頁](http://file4.renrendoc.com/view11/M01/19/10/wKhkGWdtJL2AAY_fAADwssYq5Zs836.jpg)
![《數(shù)據(jù)采集技術(shù)》課件-Spiders_第2頁](http://file4.renrendoc.com/view11/M01/19/10/wKhkGWdtJL2AAY_fAADwssYq5Zs8362.jpg)
![《數(shù)據(jù)采集技術(shù)》課件-Spiders_第3頁](http://file4.renrendoc.com/view11/M01/19/10/wKhkGWdtJL2AAY_fAADwssYq5Zs8363.jpg)
![《數(shù)據(jù)采集技術(shù)》課件-Spiders_第4頁](http://file4.renrendoc.com/view11/M01/19/10/wKhkGWdtJL2AAY_fAADwssYq5Zs8364.jpg)
![《數(shù)據(jù)采集技術(shù)》課件-Spiders_第5頁](http://file4.renrendoc.com/view11/M01/19/10/wKhkGWdtJL2AAY_fAADwssYq5Zs8365.jpg)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
SpidersSpidersScrapy框架提供了scrapy.Spider做為爬蟲的基類,所有自定義的爬蟲必須從它那里繼承SpidersSpiders負(fù)責(zé)定義如何爬取及解析數(shù)據(jù)Spidersscrapy.Spider類的字段:主要字段描述name定義爬蟲名稱的字符串a(chǎn)llowed_domains包含了允許爬取的域名列表start_urls表示初始URL列表custom_settings定義該spider配置的字典拓展關(guān)于設(shè)置settings中的值的幾種方法,優(yōu)先級從高到低如下命令行選項(xiàng)1custom_settings2拓展關(guān)于設(shè)置settings中的值的幾種方法,優(yōu)先級從高到低如下命令行選項(xiàng)1custom_settings2settings.py文件3命令行的默認(rèn)設(shè)置,每一個(gè)命令行都有它自己的默認(rèn)設(shè)置4默認(rèn)的全局設(shè)置,被定義在scrapy.settings.default_settings中5Spidersscrapy.Spider類的字段:主要字段描述name定義爬蟲名稱的字符串a(chǎn)llowed_domains包含了允許爬取的域名列表start_urls表示初始URL列表custom_settings定義該spider配置的字典crawler定義spider實(shí)例綁定的crawler對象Spidersscrapy.Spider類的字段:主要字段描述settings運(yùn)行spider的配置logger用spider名字創(chuàng)建的Python日志記錄器from_crawler(crawler,*args,**kwargs)scrapy用于創(chuàng)建spiders的類方法start_requests()開始爬蟲URL的函數(shù)parse(response)Scrapy默認(rèn)的回調(diào)用來處理下載的responselog(message[,level,component])日志處理closed(reason)在Spider關(guān)閉時(shí)被調(diào)用Spidersscrapy.Spider類的字段:主要字段描述settings運(yùn)行spider的配置logger用spider名字創(chuàng)建的Python日志記錄器from_crawler(crawler,*args,**kwargs)scrapy用于創(chuàng)建spiders的類方法。start_requests()開始爬蟲URL的函數(shù)parse(response)Scrapy默認(rèn)的回調(diào)用來處理下載的responselog(message[,level,component])日志處理closed(reason)在Spider關(guān)閉時(shí)被調(diào)用Spidersscrapy.Spider類的字段:主要字段描述settings運(yùn)行spider的配置logger用spider名字創(chuàng)建的Python日志記錄器from_crawler(crawler,*args,**kwargs)scrapy用于創(chuàng)建spiders的類方法。start_requests()開始爬蟲URL的函數(shù)parse(response)Scrapy默認(rèn)的回調(diào)用來處理下載的responselog(message[,level,component])日志處理closed(reason)在Spider關(guān)閉時(shí)被調(diào)用Spidersscrapy.Spider類的字段:主要字段描述settings運(yùn)行spider的配置logger用spider名字創(chuàng)建的Python日志記錄器from_crawler(crawler,*args,**kwargs)scrapy用于創(chuàng)建spiders的類方法。start_requests()開始爬蟲URL的函數(shù)parse(response)Scrapy默認(rèn)的回調(diào)用來處理下載的responselog(message[,level,component])日志處理closed(reason)在Spider關(guān)閉時(shí)被調(diào)用Spidersscrapy.Spider類的字段:主要字段描述settings運(yùn)行spider的配置logger用spider名字創(chuàng)建的Python日志記錄器from_crawler(crawler,*args,**kwargs)scrapy用于創(chuàng)建spiders的類方法。start_requests()開始爬蟲URL的函數(shù)parse(response)Scrapy默認(rèn)的回調(diào)用來處理下載的responselog(message[,level,component])日志處理closed(reason)在Spider關(guān)閉時(shí)被調(diào)用Spider參數(shù)使用帶-a選項(xiàng)的爬行命令傳遞,如下所示:scrapycrawlfirst_scrapy-agroup=accessoriesSpider參數(shù)用于指定起始URLSpider參數(shù)使用帶-a選項(xiàng)的爬行命令傳遞,如下所示:scrapycrawlfirst_scrapy-agroup=accessoriesSpider參數(shù)用于指定起始URLSpider參數(shù)演示一個(gè)Spider如何接收參數(shù):importscrapyclassFirstSpider(scrapy.Spider):name="first"def__init__(self,group=None,*args,**kwargs):super(FirstSpider,self).__init__(*args,**kwargs)self.start_urls=["/group/%s"%group]通用SpidersCrawlSpider自定義規(guī)則來爬取所有返回頁面中的鏈接XMLFeedSpider用來爬取XMLCSVFeedSpider用來爬取csvSitemapSpider通過Sitemap來發(fā)現(xiàn)爬取的URL通用SpidersCrawlSpider自定義規(guī)則來爬取所有返回頁面中的鏈接XMLFeedSpider用來爬取XMLCSVFeedSpider用來爬取csvSitemapSpider通過Sitemap來發(fā)現(xiàn)爬取的URLCrawlSpiderCrawlSpiderCrawlSpider繼承于Spiders類,有以下類:classscrapy.spiders.CrawlSpider在scrapy的源碼中的位置在scrapy->spiders->crawl.py中Rule規(guī)則是一個(gè)規(guī)則對象的列表,定義了爬蟲如何跟蹤鏈接classscrapy.spiders.Rule(link_extractor,callback=None,cb_kwargs=None,follow=None,process_links=None,process_request=None)Rule類跟CrawlSpider在同一文件中:參數(shù)說明LinkExtractor規(guī)定了Spider如何跟蹤鏈接并提取數(shù)據(jù)callback在每個(gè)頁面被爬取后被調(diào)用cb_kwargs傳遞參數(shù)給回調(diào)函數(shù)的字典類型follow指定是否繼續(xù)跟蹤鏈接process_links回調(diào)函數(shù)process_request回調(diào)函數(shù)parse_start_url(response)start_urls默認(rèn)回調(diào)方法,通過允許解析初始響應(yīng)來返回項(xiàng)目或請求對象注意:在編寫規(guī)則時(shí),請確保重命名parse函數(shù),因?yàn)閜arse函數(shù)被CrawlSpider用來實(shí)現(xiàn)其邏輯fromscrapy.spidersimportCrawlSpider,Rulefromscrapy.linkextractorsimportLinkExtractorclassTestSpider(CrawlSpider):name='test'start_urls=['/',]rules=(Rule(link_extractor=LinkExtractor(deny=('page/2')),callback='parse_item_first',follow=True),Rule(link_extractor=LinkExtractor(allow=('page/3')),callback='parse_item_second'))defparse_item_first(self,response):print('parse_item_first:',response.url)defparse_item_second(self,response):print('
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 淺談水利工程的安全運(yùn)行與管理
- 2025年鐵罐蠟行業(yè)深度研究分析報(bào)告
- 耐熱布行業(yè)市場發(fā)展及發(fā)展趨勢與投資戰(zhàn)略研究報(bào)告
- 假發(fā)產(chǎn)品采購合同范例
- 個(gè)人裝飾合同范本
- 修路材料購買合同范本
- 2025年度鍋爐設(shè)備環(huán)保排放達(dá)標(biāo)技術(shù)服務(wù)合同范本
- 劇院管理務(wù)實(shí)項(xiàng)目管理制度
- 農(nóng)村代理記賬合同范本
- 個(gè)人房屋修建合同范本
- 2025年大慶職業(yè)學(xué)院高職單招語文2018-2024歷年參考題庫頻考點(diǎn)含答案解析
- 山東省濟(jì)南市2024-2024學(xué)年高三上學(xué)期1月期末考試 地理 含答案
- 【課件】液體的壓強(qiáng)(課件)-2024-2025學(xué)年人教版物理八年級下冊
- 實(shí)施彈性退休制度暫行辦法解讀課件
- 冷凍食品配送售后服務(wù)體系方案
- 2024-2030年中國自動(dòng)光學(xué)檢測儀(AOI)市場競爭格局與前景發(fā)展策略分析報(bào)告
- 2024-2025學(xué)年人教版數(shù)學(xué)八年級上冊期末模擬試卷
- 銷售培訓(xùn)合同范例
- 財(cái)務(wù)工作總結(jié)與計(jì)劃-財(cái)務(wù)經(jīng)理總結(jié)與計(jì)劃
- 發(fā)酵饅頭課件教學(xué)課件
- 中華護(hù)理學(xué)會(huì)團(tuán)體標(biāo)準(zhǔn)-氣管切開非機(jī)械通氣患者氣道護(hù)理
評論
0/150
提交評論