摘要:也瀏覽過家具城的官網,本著在一定的預算范圍之類挑選最合適的,作為一個程序猿,一顆不安分的心,決定自己爬蟲下網站,列出個表格,也方便給父母輩們查看,順帶再練習下爬蟲的。根據行列坐標將數據寫入單元格。設置列寬,指定開始列位置,指定結束列位置。
原文鏈接:https://mp.weixin.qq.com/s/tQ...
家中想置辦些家具,聽朋友介紹說蘇州蠡(li第二聲)口的家具比較出名,因為工作在蘇州,也去那邊看過,簡直...,走斷雙腿都逛不完,更何況還疲于逛街的。
也瀏覽過家具城的官網,本著在一定的預算范圍之類挑選最合適的,作為一個程序猿,一顆不安分的心,決定自己爬蟲下網站,列出個excel表格,也方便給父母輩們查看,順帶再練習下爬蟲的。
同樣后期實地再去購買時,也可以帶上這份表格進行參考。
關于爬蟲的文章還有另外兩篇實戰(zhàn)的:
python itchat 爬取微信好友信息
python爬蟲學習:爬蟲QQ說說并生成詞云圖,回憶滿滿
excel表格:
詞頻統(tǒng)計:
爬蟲分析打開官網 http://www.likoujiaju.com/ ,可以看到分類,這里以「沙發(fā)」來舉例。
總共8頁的數據,第一頁的網址里 sell/list-66.html,第二頁的sell/list-66-2.html,所以sell/list-66-1.html也就是第一頁數據了,這樣就更方便遍歷網址來獲取數據了。
同時這里使用BeautifulSoup解析數據,F12查找標題、價格、圖片對應的標簽。
def get_data(): # 定義一個列表存儲數據 furniture = [] # 用于存放家具名,后續(xù)用于生成詞頻 title_all = "" # 分頁數據獲取 for num in range(1, 9): url = "http://www.likoujiaju.com/sell/list-66-%d.html" % num response = requests.get(url) content = BeautifulSoup(response.content, "lxml") # 找到數據所在的div塊 sm_offer = content.find("div", class_="sm-offer") lis = sm_offer.ul.find_all("li") # 遍歷每一條數據 for li in lis: # 價格 price_span = li.find("span", class_="sm-offer-priceNum") price = price_span.get_text() # 名稱 title_div = li.find("div", class_="sm-offer-title") title = title_div.a.get_text() title_all = title_all + title + " " # 圖片 photo_div = li.find("div", class_="sm-offer-photo") photo = photo_div.a.img.get("src") # 詳情鏈接 href = photo_div.a.get("href") # 數組里每一項是元祖 furniture.append((price, title, photo, href)) # 排序 furniture.sort(key=take_price, reverse=True) # 生成excel create_excel(furniture, title_all)
爬取到的價格是string類型的,且有些價格并不明確的,所以這里需要對價格進行處理并排序,用到的list的sort(key=take_price)方法,其中key=take_price指定的方法,使用指定的方法去進行比較排序。
# 傳參是列表的每一個元素,這里即元祖 def take_price(enum): # 取元祖的第一個參數--價格,處理價格得到數值類型進行比較 price = enum[0] if "面議" in price: # 面議的話就設為0 return 0 start = price.index("¥") end = price.index("/") new_price = price[start + 1:end] return float(new_price)
再對列表進行排序操作,reverse=True降序排列
furniture.sort(key=take_price, reverse=True)生成表格
這里采用的xlsxwriter庫,便于圖片的插入,安裝pip install xlsxwriter
主要用到的方法:
xlsxwriter.Workbook("")創(chuàng)建excel表格。
add_worksheet("")創(chuàng)建工作表。
write(row, col, *args) 根據行、列坐標將數據寫入單元格。
set_row(row, height) 設置行高。
set_column(first_col, last_col, width) 設置列寬,first_col 指定開始列位置,last_col 指定結束列位置。
insert_image(row, col, image[, options]) 用于插入圖片到指定的單元格
創(chuàng)建兩個表,一個用于存放爬取的數據,一個用于存放詞頻。
# 創(chuàng)建excel def create_excel(furniture, title_all): # 創(chuàng)建excel表格 file = xlsxwriter.Workbook("furniture.xlsx") # 創(chuàng)建工作表1 sheet1 = file.add_worksheet("sheet1") # 定義表頭 headers = ["價格", "標題", "圖片", "詳情鏈接"] # 寫表頭 for i, header in enumerate(headers): # 第一行為表頭 sheet1.write(0, i, header) # 設置列寬 sheet1.set_column(0, 0, 24) sheet1.set_column(1, 1, 54) sheet1.set_column(2, 2, 34) sheet1.set_column(3, 3, 40) for row in range(len(furniture)): # 行 # 設置行高 sheet1.set_row(row + 1, 180) for col in range(len(headers)): # 列 # col=2是當前列為圖片,通過url去讀取圖片展示 if col == 2: url = furniture[row][col] image_data = BytesIO(urlopen(url).read()) sheet1.insert_image(row + 1, 2, url, {"image_data": image_data}) else: sheet1.write(row + 1, col, furniture[row][col]) # 創(chuàng)建工作表2,用于存放詞頻 sheet2 = file.add_worksheet("sheet2") # 生成詞頻 word_count(title_all, sheet2) # 關閉表格 file.close()
目錄下會生成 furniture.xlsx 表格
生成詞頻利用jieba分詞對家具名進行分詞處理,用字典保存各個名詞的數量,寫入到excel。
# 生成詞頻 def word_count(title_all, sheet): word_dict = {} # 結巴分詞 word = jieba.cut(title_all) word_str = ",".join(word) # 處理掉特殊的字符 new_word = re.sub("[ 【】-]", "", word_str) # 對字符串進行分割出列表 word_list = new_word.split(",") for item in word_list: if item not in word_dict: word_dict[item] = 1 else: word_dict[item] += 1 # 對字典進行排序,按照數目排序 val = sorted(word_dict.items(), key=lambda x: x[1], reverse=True) # 寫入excel for row in range(len(val)): for col in range(0, 2): sheet.write(row, col, val[row][col])
詞頻統(tǒng)計,實地去購買的時候,也可以根據相應的詞匯去咨詢賣家~
這篇文章用到的爬蟲方面的知識還是比較基礎的,excel表格的生成也是xlsxwriter庫的使用,制作成表格也方便父母輩查看。當然,爬蟲的數據還可以用在許多地方。
詳細代碼見
github地址:https://github.com/taixiang/furniture
歡迎關注我的博客:https://blog.manjiexiang.cn/
更多精彩歡迎關注微信號:春風十里不如認識你
有個「佛系碼農圈」,歡迎大家加入暢聊,開心就好!
過期了,可加我微信 tx467220125 拉你入群。
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/41996.html
摘要:在談中框架和框架的區(qū)別之前,我們需要先探討如下幾個問題。通過大數據統(tǒng)計分析全球著名的網站對和這兩個框架的調查分析。從全球著名的代碼托管平臺上的和數量上分別為,分別為。 在談Python中Django框架和Flask框架的區(qū)別之前,我們需要先探討如下幾個問題。 一、為什么要使用框架? showImg(https://segmentfault.com/img/remote/14600000...
摘要:你一定不想錯過這個全球較大的公開數據集。令人興奮的是,斯坦福普林斯頓等的研究人員聯(lián)手給大量的空間打了些標簽,并將標記數據以數據集的形式公開出來。這是目前世界上較大的公開數據集,其中的標注意義重大。 你一定不想錯過這個全球較大的公開3D數據集。本文作者為Matt Bell,是3D掃描解決方案提供商Matterport的聯(lián)合創(chuàng)始人、首席戰(zhàn)略官。在本文中,Bell親述Matterport公開的這個...
摘要:本文將模擬一個歐派,讓大家足不出戶在家里就能更加直觀立體的挑選家具。創(chuàng)建廣告牌寬度高度深度寬度上的節(jié)數高度上的節(jié)數深度上的節(jié)數中心點家具展銷歐派這里給我們給整個場景用抽象物體圍起來了,以免第一人稱控件開啟時會造成無碰撞體系墜落出場景。 本文將模擬一個歐派,讓大家足不出戶在家里就能更加直觀立體的挑選家具。 第一步,利用CampusBuilder搭建模擬場景。CampusBuilder的模...
摘要:當前,很多學者和研究機構都嘗試基于深度學習進行服裝檢索技術的探究與創(chuàng)新。下文將回顧三篇基于深度學習來解決跨域服裝檢索問題的文章。總的來說,以上深度學習方法的探索與創(chuàng)新都將為商品檢索技術趨 摘要商品檢索是一門綜合了物體檢測、 圖像分類以及特征學習的技術。 近期, 很多研究者成功地將深度學習方法應用到這個領域。 本文對這些方法進行了總結, 然后概括地提出了商品特征學習框架以及垂類數據挖掘方式, ...
摘要:操作數據庫要對數據庫進行操作,需要先連接它。執(zhí)行后返回值為受影響的行數。執(zhí)行單條語句但是重復執(zhí)行參數列表里的參數返回值為受影響的行數例如,要在數據表中插入一條記錄,使得,這樣做沒有報錯,并且返回一個結果,說明有一行記錄操作成功。 在上一講中已經連接了數據庫。就數據庫而言,連接之后就要對其操作。但是,目前那個名字叫做qiwsirtest的數據僅僅是空架子,沒有什么可操作的,要操作它,就必...
閱讀 1225·2023-04-25 15:53
閱讀 2100·2021-11-19 09:40
閱讀 3487·2021-10-11 10:59
閱讀 2065·2019-08-30 15:55
閱讀 1954·2019-08-30 15:54
閱讀 2293·2019-08-29 13:03
閱讀 2753·2019-08-28 18:17
閱讀 1508·2019-08-27 10:51