《大數(shù)據(jù)導論》課件-3.5.3Scrapy項目搭建_第1頁
《大數(shù)據(jù)導論》課件-3.5.3Scrapy項目搭建_第2頁
《大數(shù)據(jù)導論》課件-3.5.3Scrapy項目搭建_第3頁
《大數(shù)據(jù)導論》課件-3.5.3Scrapy項目搭建_第4頁
《大數(shù)據(jù)導論》課件-3.5.3Scrapy項目搭建_第5頁
已閱讀5頁,還剩9頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

大數(shù)據(jù)導論Scrapy項目搭建————數(shù)據(jù)采集需求說明Scrapy項目開發(fā)可以有多種方式,可以使用Python自帶的可視化開發(fā)工具

IDLE,也可以使用其它支持Python開發(fā)的開發(fā)工具。

本課將基于IDEA集成開發(fā)環(huán)境講解搭建一個爬取新浪網(wǎng)的新聞模塊的Scrapy項目。

需求說明爬取字段:標題數(shù)據(jù)目標HTML區(qū)域:<divid="xy-impcon"></div>創(chuàng)建項目

1、打開IDEA,“新建項目”2、項目類別選擇“Python”3、ProjectSDK選擇本機安裝的python版本,點擊“下一步”創(chuàng)建項目

4、設置項目名:SinaProject5、設置項目位置,本課項目位置是E:\TeachProjects\PythonProjects\SinaProject6、點擊完成創(chuàng)建項目

此時,SinaProject項目還僅僅是普通的python項目。7、點擊IDEA的左下角的“Terminal”8、輸入創(chuàng)建Scrapy項目的命令,項目名為GetNews。

scrapystartprojectGetNews可以看到工程列表中已新增了一個GetNews的文件夾Scrapy常用命令創(chuàng)建項目:scrapystartprojectxxx進入項目:cd

xxx

#進入某個文件夾下創(chuàng)建爬蟲:scrapygenspiderxxx(爬蟲名)(網(wǎng)站域名)生成文件:scrapycrawlxxx-oxxx.json(生成某種類型的文件)運行爬蟲:scrapycrawlXXX列出所有爬蟲:scrapylist獲得配置信息:scrapysettings[options]新增item模型

Item用來定義結構化數(shù)據(jù)字段,用來保存爬取到的數(shù)據(jù)。

可以通過創(chuàng)建一個scrapy.Item類,并且定義類型為scrapy.Field的類屬性來定義一個Item(可以理解成類似于ORM的映射關系)

在Items.py文件中,創(chuàng)建一個NewsItem類,和構建item模型(model),添加news_title屬性,如圖。編寫爬蟲1、點擊IDEA的左下角的“Terminal”2、切換到GetNews項目:cdGetNews3、輸入創(chuàng)建爬蟲的命令:

scrapygenspidernews""

此時,在項目下的spider目錄下,已新增了一個news.py的爬蟲文件編寫爬蟲打開spider目錄下的news.py爬蟲文件,做如圖修改。由于需要在IDEA中執(zhí)行,確保name值與爬蟲類名一致。編寫爬蟲

修改爬蟲的parse方法,對response對象解析提取數(shù)據(jù)。

這里使用了Xpath對爬取的內容進行解析。

本課中,僅打印出爬取的標題,不做存儲。運行爬蟲打開setting.py文件,設置忽略robots.txt規(guī)則,修改。

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論