国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

基于python的百度云網盤資源搜索引擎設計架構

williamwen1986 / 2970人閱讀

摘要:大家都知道百度云網盤上有很多分享的資源,包括軟件各類視頻自學教程電子書甚至各種電影種子應有盡有,但百度云卻沒有提供相應的搜索功能。于是就嘗試開發一個百度云資源的搜索系統。

大家都知道百度云網盤上有很多分享的資源,包括軟件、各類視頻自學教程、電子書、甚至各種電影、BT種子應有盡有,但百度云卻沒有提供相應的搜索功能。個人平時要找一些軟件、美劇覺得非常蛋疼。于是就嘗試開發一個百度云資源的搜索系統。

資源爬蟲思路:
搜索引擎么最重要的就是有海量的資源了,有了資源,只要再基于資源實現全文檢索功能就是一個簡單的搜索引擎了。首先我需要爬取百度云的分享資源,爬取思路,打開任意一個百度云分享者的主頁yun.baidu.com/share/home?uk=xxxxxx&view=share#category/type=0,你可以發現分享者有訂閱者和粉絲,你可以遞歸遍歷訂閱者和粉絲,從而獲得大量分享者uk,進而獲得大量的分享資源。

系統實現環境

語言:python

操作系統:Linux

其他中間件:nginx、mysql、sphinx

系統包括幾個獨立的部分

基于requests實現的獨立資源爬蟲

基于開源全文檢索引擎sphinx實現的資源索引程序

基于Django+bootstrap3開發的簡易網站,網站搭建采用nginx1.8+fastCGI(flup)+python。 演示網站http://www.itjujiao.com

后續優化

分詞處理,目前分詞搜索結果不是很理想,有大神可以指點下思路。比如我檢索“功夫熊貓之卷軸的秘密”,一個結果都沒有。而檢索“功夫熊貓“有結果集(功丶夫熊貓⒊英語中英字幕.mp4,功丶夫熊貓2.Kung.Fu.Panda.2.2011.BDrip.720P.國粵英臺四語.特效中英字幕.mp4,功丶夫熊貓3(韓版)2016.高清中字.mkv等)或搜索”卷軸的秘密“有結果集([美國]功夫潘達之卷軸的秘密.2016.1080p.mp4, g夫熊貓之卷軸的秘密.HD1280超清中英雙字.mp4等)

數據去重,目前發現抓取的數據很多是共享資源,后續考慮基于MD5去重

PS:

目前爬蟲爬取了4000W左右的數據,sphinx對內存的要求實在太大了,巨坑。
百度會對爬蟲做ip限制,寫了個簡單的xicidaili代理采集程序,requests可以配置http代理。

分詞是sphinx自帶的實現,支持中文分詞,中文基于一元分詞,有點過度分詞,分詞效果不是特別理想,比如我搜關鍵詞“葉問3”出現的結果中會有“葉子的問題第3版”,不符合預期。英文分詞有很多可以改善的地方,比如我搜xart不會出現x-art的結果,而實際上x-art卻也是我想要的結果集(你們懂的)。

數據庫是mysql,資源表,考慮單表記錄上限,分了10個表。第一次爬完sphinx做全量索引,后續做增量索引。

爬蟲部分實現代碼(只是思路代碼有點亂):

    #coding: utf8
    
    import re
    import urllib2
    import time
    from Queue import Queue
    import threading, errno, datetime
    import json
    import requests
    import MySQLdb as mdb
    
    DB_HOST = "127.0.0.1"
    DB_USER = "root"
    DB_PASS = ""
    
    
    re_start = re.compile(r"start=(d+)")
    re_uid = re.compile(r"query_uk=(d+)")
    re_pptt = re.compile(r"&pptt=(d+)")
    re_urlid = re.compile(r"&urlid=(d+)")
    
    ONEPAGE = 20
    ONESHAREPAGE = 20
    
    URL_SHARE = "http://yun.baidu.com/pcloud/feed/getsharelist?auth_type=1&start={start}&limit=20&query_uk={uk}&urlid={id}"
    URL_FOLLOW = "http://yun.baidu.com/pcloud/friend/getfollowlist?query_uk={uk}&limit=20&start={start}&urlid={id}"
    URL_FANS = "http://yun.baidu.com/pcloud/friend/getfanslist?query_uk={uk}&limit=20&start={start}&urlid={id}"
    
    QNUM = 1000
    hc_q = Queue(20)
    hc_r = Queue(QNUM)
    
    success = 0
    failed = 0
    
    PROXY_LIST = [[0, 10, "42.121.33.160", 809, "", "", 0],
                    [5, 0, "218.97.195.38", 81, "", "", 0],
                    ]
    
    def req_worker(inx):
        s = requests.Session()
        while True:
            req_item = hc_q.get()
            
            req_type = req_item[0]
            url = req_item[1]
            r = s.get(url)
            hc_r.put((r.text, url))
            print "req_worker#", inx, url
            
    def response_worker():
        dbconn = mdb.connect(DB_HOST, DB_USER, DB_PASS, "baiduyun", charset="utf8")
        dbcurr = dbconn.cursor()
        dbcurr.execute("SET NAMES utf8")
        dbcurr.execute("set global wait_timeout=60000")
        while True:
            
            metadata, effective_url = hc_r.get()
            #print "response_worker:", effective_url
            try:
                tnow = int(time.time())
                id = re_urlid.findall(effective_url)[0]
                start = re_start.findall(effective_url)[0]
                if True:
                    if "getfollowlist" in effective_url: #type = 1
                        follows = json.loads(metadata)
                        uid = re_uid.findall(effective_url)[0]
                        if "total_count" in follows.keys() and follows["total_count"]>0 and str(start) == "0":
                            for i in range((follows["total_count"]-1)/ONEPAGE):
                                try:
                                    dbcurr.execute("INSERT INTO urlids(uk, start, limited, type, status) VALUES(%s, %s, %s, 1, 0)" % (uid, str(ONEPAGE*(i+1)), str(ONEPAGE)))
                                except Exception as ex:
                                    print "E1", str(ex)
                                    pass
                        
                        if "follow_list" in follows.keys():
                            for item in follows["follow_list"]:
                                try:
                                    dbcurr.execute("INSERT INTO user(userid, username, files, status, downloaded, lastaccess) VALUES(%s, "%s", 0, 0, 0, %s)" % (item["follow_uk"], item["follow_uname"], str(tnow)))
                                except Exception as ex:
                                    print "E13", str(ex)
                                    pass
                        else:
                            print "delete 1", uid, start
                            dbcurr.execute("delete from urlids where uk=%s and type=1 and start>%s" % (uid, start))
                    elif "getfanslist" in effective_url: #type = 2
                        fans = json.loads(metadata)
                        uid = re_uid.findall(effective_url)[0]
                        if "total_count" in fans.keys() and fans["total_count"]>0 and str(start) == "0":
                            for i in range((fans["total_count"]-1)/ONEPAGE):
                                try:
                                    dbcurr.execute("INSERT INTO urlids(uk, start, limited, type, status) VALUES(%s, %s, %s, 2, 0)" % (uid, str(ONEPAGE*(i+1)), str(ONEPAGE)))
                                except Exception as ex:
                                    print "E2", str(ex)
                                    pass
                        
                        if "fans_list" in fans.keys():
                            for item in fans["fans_list"]:
                                try:
                                    dbcurr.execute("INSERT INTO user(userid, username, files, status, downloaded, lastaccess) VALUES(%s, "%s", 0, 0, 0, %s)" % (item["fans_uk"], item["fans_uname"], str(tnow)))
                                except Exception as ex:
                                    print "E23", str(ex)
                                    pass
                        else:
                            print "delete 2", uid, start
                            dbcurr.execute("delete from urlids where uk=%s and type=2 and start>%s" % (uid, start))
                    else:
                        shares = json.loads(metadata)
                        uid = re_uid.findall(effective_url)[0]
                        if "total_count" in shares.keys() and shares["total_count"]>0 and str(start) == "0":
                            for i in range((shares["total_count"]-1)/ONESHAREPAGE):
                                try:
                                    dbcurr.execute("INSERT INTO urlids(uk, start, limited, type, status) VALUES(%s, %s, %s, 0, 0)" % (uid, str(ONESHAREPAGE*(i+1)), str(ONESHAREPAGE)))
                                except Exception as ex:
                                    print "E3", str(ex)
                                    pass
                        if "records" in shares.keys():
                            for item in shares["records"]:
                                try:
                                    dbcurr.execute("INSERT INTO share(userid, filename, shareid, status) VALUES(%s, "%s", %s, 0)" % (uid, item["title"], item["shareid"]))
                                except Exception as ex:
                                    #print "E33", str(ex), item
                                    pass
                        else:
                            print "delete 0", uid, start
                            dbcurr.execute("delete from urlids where uk=%s and type=0 and start>%s" % (uid, str(start)))
                    dbcurr.execute("delete from urlids where id=%s" % (id, ))
                    dbconn.commit()
            except Exception as ex:
                print "E5", str(ex), id
    
            
            pid = re_pptt.findall(effective_url)
            
            if pid:
                print "pid>>>", pid
                ppid = int(pid[0])
                PROXY_LIST[ppid][6] -= 1
        dbcurr.close()
        dbconn.close()
        
    def worker():
        global success, failed
        dbconn = mdb.connect(DB_HOST, DB_USER, DB_PASS, "baiduyun", charset="utf8")
        dbcurr = dbconn.cursor()
        dbcurr.execute("SET NAMES utf8")
        dbcurr.execute("set global wait_timeout=60000")
        while True:
    
            #dbcurr.execute("select * from urlids where status=0 order by type limit 1")
            dbcurr.execute("select * from urlids where status=0 and type>0 limit 1")
            d = dbcurr.fetchall()
            #print d
            if d:
                id = d[0][0]
                uk = d[0][1]
                start = d[0][2]
                limit = d[0][3]
                type = d[0][4]
                dbcurr.execute("update urlids set status=1 where id=%s" % (str(id),))
                url = ""
                if type == 0:
                    url = URL_SHARE.format(uk=uk, start=start, id=id).encode("utf-8")
                elif  type == 1:
                    url = URL_FOLLOW.format(uk=uk, start=start, id=id).encode("utf-8")
                elif type == 2:
                    url = URL_FANS.format(uk=uk, start=start, id=id).encode("utf-8")
                if url:
                    hc_q.put((type, url))
                    
                #print "processed", url
            else:
                dbcurr.execute("select * from user where status=0 limit 1000")
                d = dbcurr.fetchall()
                if d:
                    for item in d:
                        try:
                            dbcurr.execute("insert into urlids(uk, start, limited, type, status) values("%s", 0, %s, 0, 0)" % (item[1], str(ONESHAREPAGE)))
                            dbcurr.execute("insert into urlids(uk, start, limited, type, status) values("%s", 0, %s, 1, 0)" % (item[1], str(ONEPAGE)))
                            dbcurr.execute("insert into urlids(uk, start, limited, type, status) values("%s", 0, %s, 2, 0)" % (item[1], str(ONEPAGE)))
                            dbcurr.execute("update user set status=1 where userid=%s" % (item[1],))
                        except Exception as ex:
                            print "E6", str(ex)
                else:
                    time.sleep(1)
                    
            dbconn.commit()
        dbcurr.close()
        dbconn.close()
            
        
    for item in range(16):    
        t = threading.Thread(target = req_worker, args = (item,))
        t.setDaemon(True)
        t.start()
    
    s = threading.Thread(target = worker, args = ())
    s.setDaemon(True)
    s.start()
    
    response_worker()

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/37931.html

相關文章

  • 亦真亦幻 彈性云網

    摘要:運營商網絡大致可劃分為四朵云公有云平臺云云網絡云。網絡即云,云網一體化將成為未來運營商網絡的最顯著特征。 5月25日消息互聯網+是要讓信息技術、網絡技術深度融合于經濟社會各領域之中,使互聯網下沉為各行各業都能調用的基礎設施資源。預計到2025年,全球將有65億互聯網用戶,使用80億個智能手機,創建1000億個連接,產生176ZB的數據流量,全面實現泛在的連接。在未來,網絡需要滿足海量終端的接...

    Jiavan 評論0 收藏0
  • 實用開源百度云分享爬蟲項目yunshare - 安裝篇

    摘要:今天開源了一個百度云網盤爬蟲項目,地址是。推薦使用命令安裝依賴,最簡單的安裝方式更多安裝的命令可以去上面找。啟動項目使用進行進程管理,運行啟動所有的后臺任務,檢查任務是否正常運行可以用命令,正常運行的應該有個任務。 今天開源了一個百度云網盤爬蟲項目,地址是https://github.com/callmelanmao/yunshare。 百度云分享爬蟲項目 github上有好幾個這樣的...

    lei___ 評論0 收藏0
  • mineserver:一家騙子IDC,垃圾服務商家,國人以英文站放海外運營!

    摘要:怎么樣繼一家引力主機企鵝小屋之后,又一家不良垃圾服務商,客戶工單全部不會回復,極有可能會成為又一家跑路商家。果然,證明這是一家無良的了官網目前已經失聯,客戶服務器出問題只能提交工單處理。mineserver怎么樣?mineserver繼一家inlicloud引力主機、企鵝小屋之后,又一家不良垃圾服務商,客戶工單全部不會回復,極有可能會成為又一家跑路IDC商家。果然,mineserver證明這...

    terro 評論0 收藏0
  • 用做WPS思路重寫了一套私有云系統

    摘要:年初,金山啟動私有云項目,該項目旨在為向金山提出了私有云網盤存儲需求的政府大型企業以及中型企業提供服務,項目組由金山云楊鋼牽頭組建。中文站對楊鋼進行了專訪,了解其私有云服務的技術組成和業務狀態。 2013年初,金山啟動私有云項目,該項目旨在為向金山提出了私有云網盤/存儲需求的政府、大型企業以及中型企業提供服務,項目組由金山云CTO楊鋼牽頭組建。InfoQ中文站對楊鋼進行了專訪,了解其私有云服...

    Achilles 評論0 收藏0
  • 云網融合,擴展運營商B2B商業邊界

    摘要:華為云網融合解決方案使能運營商增長運營商基礎網絡設施優勢明顯,網絡覆蓋廣接入媒介全機房光纜豐富。目前,在中國歐洲及東南亞等全球多個國家與地區,華為已與多家運營商在云網融合領域開展商業合作,支撐運營商產品升級,提升運營商競爭力。企業ICT需求4大變化Gartner調研顯示,企業上云不是一蹴而就,而是根據應用復雜性和上云后的業務風險,由低至高逐步將企業應用遷移至云上。隨著企業上云的不斷深入,業務...

    Lemon_95 評論0 收藏0

發表評論

0條評論

williamwen1986

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<