国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

Python: xml轉(zhuǎn)json

_Suqin / 3140人閱讀

摘要:,實(shí)驗(yàn)用的文件我們使用爬蟲實(shí)戰(zhàn)爬取京東商品列表一文的結(jié)果文件,爬蟲爬取的結(jié)果保存在京東手機(jī)列表文件中。,相關(guān)文檔,即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目?jī)?nèi)容提取器的定義,爬蟲實(shí)戰(zhàn)爬取京東商品列表,集搜客開源代碼下載源,開源網(wǎng)絡(luò)爬蟲源,文檔修改歷史,首次發(fā)布

1,引言

GooSeeker早在9年前就開始了Semantic Web領(lǐng)域的產(chǎn)品化,MS謀數(shù)臺(tái)和DS打數(shù)機(jī)是其中兩個(gè)產(chǎn)品。對(duì)web內(nèi)容做結(jié)構(gòu)化轉(zhuǎn)換和語(yǔ)義處理的主要路線是 XML -> RDF -> Ontology Engineering。所以這兩款產(chǎn)品的輸出信息是XML格式的,實(shí)現(xiàn)第一步:結(jié)構(gòu)化轉(zhuǎn)換。單純作為一個(gè)網(wǎng)頁(yè)采集器來(lái)說(shuō),輸出XML格式也有好處,這是一種標(biāo)準(zhǔn)格式,后續(xù)的數(shù)據(jù)處理可以很容易地接入,任意發(fā)揮。

在web集成和網(wǎng)站前端領(lǐng)域,json越來(lái)越普遍,在Scrapy架構(gòu)中,Scrapy dict數(shù)據(jù)結(jié)構(gòu)本質(zhì)上就是json,所以,由XML格式轉(zhuǎn)換成JSON格式很有必要。

無(wú)論哪種編程語(yǔ)言,XML轉(zhuǎn)Json都有很多現(xiàn)成的程序包,但是,就像前面說(shuō)的,GooSeeker定義的XML格式主要用來(lái)做實(shí)體建模,有自己規(guī)定的一套語(yǔ)義結(jié)構(gòu)描述標(biāo)準(zhǔn)。所以,不能直接使用現(xiàn)成的轉(zhuǎn)換程序,或者需要在現(xiàn)成的轉(zhuǎn)換程序上做些修改。

本文是一個(gè)實(shí)驗(yàn)過(guò)程,并沒有考慮GooSeeker要求的語(yǔ)義結(jié)構(gòu),只是驗(yàn)證一下XML到Json的轉(zhuǎn)換。

2,實(shí)驗(yàn)用的XML文件

我們使用《python爬蟲實(shí)戰(zhàn)(2):爬取京東商品列表》一文的結(jié)果文件,python爬蟲爬取的結(jié)果保存在 京東手機(jī)列表_1.xml 文件中。內(nèi)容如下圖所示

下面針對(duì)這個(gè)結(jié)果文件先做個(gè)xml轉(zhuǎn)json的測(cè)試,為提取器gsExtractor添加輸出Json文件的功能做技術(shù)準(zhǔn)備。

3,測(cè)試過(guò)程

測(cè)試使用的模塊:xml.parsers.expat, json
測(cè)試輸入: 以python爬蟲實(shí)戰(zhàn)(2):爬取京東商品列表一文的xml結(jié)果文件 京東手機(jī)列表_1.xml 作為輸入
代碼如下:

#! /usr/bin/env python
# -*- coding:utf-8 -*-
# xml 轉(zhuǎn) json
# xml2json.py
# Version 1.0

from xml.parsers.expat import ParserCreate
import json

class Xml2Json:
    LIST_TAGS = ["COMMANDS"]
    
    def __init__(self, data = None):
        self._parser = ParserCreate()
        self._parser.StartElementHandler = self.start
        self._parser.EndElementHandler = self.end
        self._parser.CharacterDataHandler = self.data
        self.result = None
        if data:
            self.feed(data)
            self.close()
        
    def feed(self, data):
        self._stack = []
        self._data = ""
        self._parser.Parse(data, 0)

    def close(self):
        self._parser.Parse("", 1)
        del self._parser

    def start(self, tag, attrs):
        assert attrs == {}
        assert self._data.strip() == ""
        self._stack.append([tag])
        self._data = ""

    def end(self, tag):
        last_tag = self._stack.pop()
        assert last_tag[0] == tag
        if len(last_tag) == 1: #leaf
            data = self._data
        else:
            if tag not in Xml2Json.LIST_TAGS:
                # build a dict, repeating pairs get pushed into lists
                data = {}
                for k, v in last_tag[1:]:
                    if k not in data:
                        data[k] = v
                    else:
                        el = data[k]
                        if type(el) is not list:
                            data[k] = [el, v]
                        else:
                            el.append(v)
            else: #force into a list
                data = [{k:v} for k, v in last_tag[1:]]
        if self._stack:
            self._stack[-1].append((tag, data))
        else:
            self.result = {tag:data}
        self._data = ""

    def data(self, data):
        self._data = data

if __name__ == "__main__":
    xml = open("京東手機(jī)列表_1.xml", "r", encoding="UTF-8").read()
    result = Xml2Json(xml).result;
    outputfile = open("京東手機(jī)列表_1.json", "w", encoding="UTF-8")
    outputfile.write(str(result))
    outputfile.close()        

在控制臺(tái)運(yùn)行: $ python xml2json.py

測(cè)試輸出:京東手機(jī)列表_1.json。運(yùn)行后在當(dāng)前文件夾下可以看到新生成的json文件

4,接下來(lái)的工作

升級(jí)gsExtractor提取器類,加入新的方法,支持把提取結(jié)果從xml轉(zhuǎn)換為json格式。

轉(zhuǎn)換成的json結(jié)構(gòu)必須符合GooSeeker要求的語(yǔ)義描述結(jié)構(gòu),為直接存入MongoDB做準(zhǔn)備。

5,相關(guān)文檔

1,Python即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目: 內(nèi)容提取器的定義
2,Python爬蟲實(shí)戰(zhàn)(2):爬取京東商品列表

6,集搜客GooSeeker開源代碼下載源

1, GooSeeker開源Python網(wǎng)絡(luò)爬蟲GitHub源

7,文檔修改歷史

2016-06-17:V1.0,首次發(fā)布

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://specialneedsforspecialkids.com/yun/38021.html

相關(guān)文章

  • Python: xml轉(zhuǎn)json

    摘要:,實(shí)驗(yàn)用的文件我們使用爬蟲實(shí)戰(zhàn)爬取京東商品列表一文的結(jié)果文件,爬蟲爬取的結(jié)果保存在京東手機(jī)列表文件中。,相關(guān)文檔,即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目?jī)?nèi)容提取器的定義,爬蟲實(shí)戰(zhàn)爬取京東商品列表,集搜客開源代碼下載源,開源網(wǎng)絡(luò)爬蟲源,文檔修改歷史,首次發(fā)布 showImg(https://segmentfault.com/img/bVyf6R); 1,引言 GooSeeker早在9年前就開始了Semanti...

    sourcenode 評(píng)論0 收藏0
  • 將xmind文件轉(zhuǎn)成可編程數(shù)據(jù)類型

    摘要:轉(zhuǎn)數(shù)據(jù)類型可以將轉(zhuǎn)成數(shù)據(jù)類型,比如下面這么一個(gè)文件轉(zhuǎn)換代碼的示例例子中的數(shù)據(jù)結(jié)構(gòu)如下通過(guò)遍歷和就可以獲取到中每個(gè)節(jié)點(diǎn)的數(shù)據(jù)。 前言 最近升級(jí)了一下xmind2testlink,順帶產(chǎn)生了一個(gè)中間輪子:xmindparser。 xmind是知名的思維導(dǎo)圖軟件,可以用來(lái)整理思路,設(shè)計(jì)測(cè)試案例等等。一旦完稿后軟件本身支持導(dǎo)出為圖片,PDF,Excel等等文件格式。免費(fèi)版相對(duì)于Pro版能導(dǎo)出的...

    jackwang 評(píng)論0 收藏0
  • 大話爬蟲的基本套路

    摘要:有什么作用通過(guò)有效的爬蟲手段批量采集數(shù)據(jù),可以降低人工成本,提高有效數(shù)據(jù)量,給予運(yùn)營(yíng)銷售的數(shù)據(jù)支撐,加快產(chǎn)品發(fā)展。因?yàn)樾畔⑹峭耆_的,所以是合法的。 showImg(https://segmentfault.com/img/remote/1460000011359885?w=566&h=316);   什么是爬蟲? 網(wǎng)絡(luò)爬蟲也叫網(wǎng)絡(luò)蜘蛛,如果把互聯(lián)網(wǎng)比喻成一個(gè)蜘蛛網(wǎng),那么蜘蛛就是在...

    Towers 評(píng)論0 收藏0
  • 中文維基百科文本數(shù)據(jù)獲取與預(yù)處理

    摘要:下載數(shù)據(jù)方法使用官方的數(shù)據(jù)最新打包的中文文檔下載地址是。中文維基數(shù)據(jù)繁簡(jiǎn)混雜大家都說(shuō)存在這個(gè)問(wèn)題,但的網(wǎng)站是將繁體中文和簡(jiǎn)體中文分開處理的,所以一直覺得從數(shù)據(jù)庫(kù)到結(jié)構(gòu)都應(yīng)有方法將兩者區(qū)分開,暫罷,待有空研究其數(shù)據(jù)時(shí)再議。 照例,先講下環(huán)境,Mac OSX 10.11.2 ,Python 3.4.3。 下載數(shù)據(jù) 方法1:使用官方dump的xml數(shù)據(jù) 最新打包的中文文檔下載地址是:http...

    loostudy 評(píng)論0 收藏0
  • pythonJson的注意事項(xiàng)

    摘要:在中,可以通過(guò)轉(zhuǎn)碼之類得知是啥姓名但是如果接口使用方是其他的語(yǔ)言,那就歇菜了。那么這個(gè)時(shí)候需要在是做下設(shè)置,加上和官網(wǎng)文檔中,列出了可用的參數(shù) Json是一種輕量級(jí)的數(shù)據(jù)交換格式, 在跨語(yǔ)言交互時(shí),是數(shù)據(jù)傳遞的一個(gè)比較好的選擇(當(dāng)然也可以選擇xml).python在構(gòu)造服務(wù)json返回值時(shí),如果碰到有中文的時(shí)候,使用json.dumps后,中文會(huì)變成另外的非人類格式,形如uu59d3u...

    baiy 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<