摘要:,實(shí)驗(yàn)用的文件我們使用爬蟲實(shí)戰(zhàn)爬取京東商品列表一文的結(jié)果文件,爬蟲爬取的結(jié)果保存在京東手機(jī)列表文件中。,相關(guān)文檔,即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目?jī)?nèi)容提取器的定義,爬蟲實(shí)戰(zhàn)爬取京東商品列表,集搜客開源代碼下載源,開源網(wǎng)絡(luò)爬蟲源,文檔修改歷史,首次發(fā)布
1,引言
GooSeeker早在9年前就開始了Semantic Web領(lǐng)域的產(chǎn)品化,MS謀數(shù)臺(tái)和DS打數(shù)機(jī)是其中兩個(gè)產(chǎn)品。對(duì)web內(nèi)容做結(jié)構(gòu)化轉(zhuǎn)換和語(yǔ)義處理的主要路線是 XML -> RDF -> Ontology Engineering。所以這兩款產(chǎn)品的輸出信息是XML格式的,實(shí)現(xiàn)第一步:結(jié)構(gòu)化轉(zhuǎn)換。單純作為一個(gè)網(wǎng)頁(yè)采集器來(lái)說(shuō),輸出XML格式也有好處,這是一種標(biāo)準(zhǔn)格式,后續(xù)的數(shù)據(jù)處理可以很容易地接入,任意發(fā)揮。
在web集成和網(wǎng)站前端領(lǐng)域,json越來(lái)越普遍,在Scrapy架構(gòu)中,Scrapy dict數(shù)據(jù)結(jié)構(gòu)本質(zhì)上就是json,所以,由XML格式轉(zhuǎn)換成JSON格式很有必要。
無(wú)論哪種編程語(yǔ)言,XML轉(zhuǎn)Json都有很多現(xiàn)成的程序包,但是,就像前面說(shuō)的,GooSeeker定義的XML格式主要用來(lái)做實(shí)體建模,有自己規(guī)定的一套語(yǔ)義結(jié)構(gòu)描述標(biāo)準(zhǔn)。所以,不能直接使用現(xiàn)成的轉(zhuǎn)換程序,或者需要在現(xiàn)成的轉(zhuǎn)換程序上做些修改。
本文是一個(gè)實(shí)驗(yàn)過(guò)程,并沒有考慮GooSeeker要求的語(yǔ)義結(jié)構(gòu),只是驗(yàn)證一下XML到Json的轉(zhuǎn)換。
2,實(shí)驗(yàn)用的XML文件我們使用《python爬蟲實(shí)戰(zhàn)(2):爬取京東商品列表》一文的結(jié)果文件,python爬蟲爬取的結(jié)果保存在 京東手機(jī)列表_1.xml 文件中。內(nèi)容如下圖所示
下面針對(duì)這個(gè)結(jié)果文件先做個(gè)xml轉(zhuǎn)json的測(cè)試,為提取器gsExtractor添加輸出Json文件的功能做技術(shù)準(zhǔn)備。
測(cè)試使用的模塊:xml.parsers.expat, json
測(cè)試輸入: 以python爬蟲實(shí)戰(zhàn)(2):爬取京東商品列表一文的xml結(jié)果文件 京東手機(jī)列表_1.xml 作為輸入
代碼如下:
#! /usr/bin/env python # -*- coding:utf-8 -*- # xml 轉(zhuǎn) json # xml2json.py # Version 1.0 from xml.parsers.expat import ParserCreate import json class Xml2Json: LIST_TAGS = ["COMMANDS"] def __init__(self, data = None): self._parser = ParserCreate() self._parser.StartElementHandler = self.start self._parser.EndElementHandler = self.end self._parser.CharacterDataHandler = self.data self.result = None if data: self.feed(data) self.close() def feed(self, data): self._stack = [] self._data = "" self._parser.Parse(data, 0) def close(self): self._parser.Parse("", 1) del self._parser def start(self, tag, attrs): assert attrs == {} assert self._data.strip() == "" self._stack.append([tag]) self._data = "" def end(self, tag): last_tag = self._stack.pop() assert last_tag[0] == tag if len(last_tag) == 1: #leaf data = self._data else: if tag not in Xml2Json.LIST_TAGS: # build a dict, repeating pairs get pushed into lists data = {} for k, v in last_tag[1:]: if k not in data: data[k] = v else: el = data[k] if type(el) is not list: data[k] = [el, v] else: el.append(v) else: #force into a list data = [{k:v} for k, v in last_tag[1:]] if self._stack: self._stack[-1].append((tag, data)) else: self.result = {tag:data} self._data = "" def data(self, data): self._data = data if __name__ == "__main__": xml = open("京東手機(jī)列表_1.xml", "r", encoding="UTF-8").read() result = Xml2Json(xml).result; outputfile = open("京東手機(jī)列表_1.json", "w", encoding="UTF-8") outputfile.write(str(result)) outputfile.close()
在控制臺(tái)運(yùn)行: $ python xml2json.py
測(cè)試輸出:京東手機(jī)列表_1.json。運(yùn)行后在當(dāng)前文件夾下可以看到新生成的json文件
4,接下來(lái)的工作升級(jí)gsExtractor提取器類,加入新的方法,支持把提取結(jié)果從xml轉(zhuǎn)換為json格式。
轉(zhuǎn)換成的json結(jié)構(gòu)必須符合GooSeeker要求的語(yǔ)義描述結(jié)構(gòu),為直接存入MongoDB做準(zhǔn)備。
5,相關(guān)文檔1,Python即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目: 內(nèi)容提取器的定義
2,Python爬蟲實(shí)戰(zhàn)(2):爬取京東商品列表
1, GooSeeker開源Python網(wǎng)絡(luò)爬蟲GitHub源
7,文檔修改歷史2016-06-17:V1.0,首次發(fā)布
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://specialneedsforspecialkids.com/yun/38021.html
摘要:,實(shí)驗(yàn)用的文件我們使用爬蟲實(shí)戰(zhàn)爬取京東商品列表一文的結(jié)果文件,爬蟲爬取的結(jié)果保存在京東手機(jī)列表文件中。,相關(guān)文檔,即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目?jī)?nèi)容提取器的定義,爬蟲實(shí)戰(zhàn)爬取京東商品列表,集搜客開源代碼下載源,開源網(wǎng)絡(luò)爬蟲源,文檔修改歷史,首次發(fā)布 showImg(https://segmentfault.com/img/bVyf6R); 1,引言 GooSeeker早在9年前就開始了Semanti...
摘要:轉(zhuǎn)數(shù)據(jù)類型可以將轉(zhuǎn)成數(shù)據(jù)類型,比如下面這么一個(gè)文件轉(zhuǎn)換代碼的示例例子中的數(shù)據(jù)結(jié)構(gòu)如下通過(guò)遍歷和就可以獲取到中每個(gè)節(jié)點(diǎn)的數(shù)據(jù)。 前言 最近升級(jí)了一下xmind2testlink,順帶產(chǎn)生了一個(gè)中間輪子:xmindparser。 xmind是知名的思維導(dǎo)圖軟件,可以用來(lái)整理思路,設(shè)計(jì)測(cè)試案例等等。一旦完稿后軟件本身支持導(dǎo)出為圖片,PDF,Excel等等文件格式。免費(fèi)版相對(duì)于Pro版能導(dǎo)出的...
摘要:有什么作用通過(guò)有效的爬蟲手段批量采集數(shù)據(jù),可以降低人工成本,提高有效數(shù)據(jù)量,給予運(yùn)營(yíng)銷售的數(shù)據(jù)支撐,加快產(chǎn)品發(fā)展。因?yàn)樾畔⑹峭耆_的,所以是合法的。 showImg(https://segmentfault.com/img/remote/1460000011359885?w=566&h=316); 什么是爬蟲? 網(wǎng)絡(luò)爬蟲也叫網(wǎng)絡(luò)蜘蛛,如果把互聯(lián)網(wǎng)比喻成一個(gè)蜘蛛網(wǎng),那么蜘蛛就是在...
摘要:下載數(shù)據(jù)方法使用官方的數(shù)據(jù)最新打包的中文文檔下載地址是。中文維基數(shù)據(jù)繁簡(jiǎn)混雜大家都說(shuō)存在這個(gè)問(wèn)題,但的網(wǎng)站是將繁體中文和簡(jiǎn)體中文分開處理的,所以一直覺得從數(shù)據(jù)庫(kù)到結(jié)構(gòu)都應(yīng)有方法將兩者區(qū)分開,暫罷,待有空研究其數(shù)據(jù)時(shí)再議。 照例,先講下環(huán)境,Mac OSX 10.11.2 ,Python 3.4.3。 下載數(shù)據(jù) 方法1:使用官方dump的xml數(shù)據(jù) 最新打包的中文文檔下載地址是:http...
摘要:在中,可以通過(guò)轉(zhuǎn)碼之類得知是啥姓名但是如果接口使用方是其他的語(yǔ)言,那就歇菜了。那么這個(gè)時(shí)候需要在是做下設(shè)置,加上和官網(wǎng)文檔中,列出了可用的參數(shù) Json是一種輕量級(jí)的數(shù)據(jù)交換格式, 在跨語(yǔ)言交互時(shí),是數(shù)據(jù)傳遞的一個(gè)比較好的選擇(當(dāng)然也可以選擇xml).python在構(gòu)造服務(wù)json返回值時(shí),如果碰到有中文的時(shí)候,使用json.dumps后,中文會(huì)變成另外的非人類格式,形如uu59d3u...
閱讀 1314·2021-09-27 13:56
閱讀 2345·2019-08-26 10:35
閱讀 3505·2019-08-23 15:53
閱讀 1855·2019-08-23 14:42
閱讀 1239·2019-08-23 14:33
閱讀 3572·2019-08-23 12:36
閱讀 1953·2019-08-22 18:46
閱讀 1006·2019-08-22 14:06