国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

php爬蟲:知乎用戶數據爬取和分析

saucxs / 2933人閱讀

摘要:背景說明小拽利用的寫的爬蟲,實驗性的爬取了知乎用戶的基本信息同時,針對爬取的數據,進行了簡單的分析呈現。本程序抓取的是知乎對外提供用戶訪問的個人信息頁面抓取過程需要攜帶用戶才能獲取頁面。

背景說明:小拽利用php的curl寫的爬蟲,實驗性的爬取了知乎5w用戶的基本信息;同時,針對爬取的數據,進行了簡單的分析呈現。demo 地址

php的spider代碼和用戶dashboard的展現代碼,整理后上傳github,在個人博客和公眾號更新代碼庫,程序僅供娛樂和學習交流;如果有侵犯知乎相關權益,請盡快聯系本人刪除。

無圖無真相

移動端分析數據截圖

pc端分析數據截圖

整個爬取,分析,展現過程大概分如下幾步,小拽將分別介紹

curl爬取知乎網頁數據

正則分析知乎網頁數據

數據數據入庫和程序部署

數據分析和呈現

curl爬取網頁數據

PHP的curl擴展是PHP支持的,允許你與各種服務器使用各種類型的協議進行連接和通信的庫。是一個非常便捷的抓取網頁的工具,同時,支持多線程擴展。

本程序抓取的是知乎對外提供用戶訪問的個人信息頁面https://www.zhihu.com/people/xxx,抓取過程需要攜帶用戶cookie才能獲取頁面。直接上碼

獲取頁面cookie

// 登錄知乎,打開個人中心,打開控制臺,獲取cookie
document.cookie
"_za=67254197-3wwb8d-43f6-94f0-fb0e2d521c31; _ga=GA1.2.2142818188.1433767929; q_c1=78ee1604225d47d08cffffd8142a08288b23|1452172601000|1452172601000; _xsrf=15f0639cbe6fb607560c075269064393; cap_id="N2QwMTExNGQ0YTY2NGVddlMGIyNmQ4NjdjOTU0YTM5MmQ=|1453444256|49fdc6b43dc51f702b7d6575451e228f56cdaf5d"; __utmt=1; unlock_ticket="QUJDTWpmM0lsZdd2dYQUFBQVlRSlZUVTNVb1ZaNDVoQXJlblVmWGJ0WGwyaHlDdVdscXdZU1VRPT0=|1453444421|c47a2afde1ff334d416bafb1cc267b41014c9d5f"; __utma=51854390.21428dd18188.1433767929.1453187421.1453444257.3; __utmb=51854390.14.8.1453444425011; __utmc=51854390; __utmz=51854390.1452846679.1.dd1.utmcsr=google|utmccn=(organic)|utmcmd=organic|utmctr=(not%20provided); __utmv=51854390.100-1|2=registration_date=20150823=1^dd3=entry_date=20150823=1"

抓取個人中心頁面
通過curl,攜帶cookie,先抓取本人中心頁面

/**
 * 通過用戶名抓取個人中心頁面并存儲
 * 
 * @param $username str :用戶名 flag
 * @return boolean      :成功與否標志
 */
public function spiderUser($username)
{
    $cookie = "xxxx" ;
    $url_info = "http://www.zhihu.com/people/" . $username; //此處cui-xiao-zhuai代表用戶ID,可以直接看url獲取本人id
    $ch = curl_init($url_info); //初始化會話
    curl_setopt($ch, CURLOPT_HEADER, 0);
    curl_setopt($ch, CURLOPT_COOKIE, $cookie);  //設置請求COOKIE
    curl_setopt($ch, CURLOPT_USERAGENT, $_SERVER["HTTP_USER_AGENT"]);
    curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);  //將curl_exec()獲取的信息以文件流的形式返回,而不是直接輸出。
    curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1);
    $result = curl_exec($ch);

     file_put_contents("/home/work/zxdata_ch/php/zhihu_spider/file/".$username.".html",$result);
     return true;
 }

正則分析網頁數據 分析新鏈接,進一步爬取

對于抓取過來的網頁進行存儲,要想進行進一步的爬取,頁面必須包含有可用于進一步爬取用戶的鏈接。通過對知乎頁面分析發現:在個人中心頁面中有關注人和部分點贊人和被關注人。
如下所示

// 抓取的html頁面中發現了新的用戶,可用于爬蟲

ok,這樣子就可以通過自己-》關注人-》關注人的關注人-》。。。進行不斷爬取。接下來就是通過正則匹配提取該信息

// 匹配到抓取頁面的所有用戶
preg_match_all("http://people/([w-]+)"/i", $str, $match_arr);

// 去重合并入新的用戶數組,用戶進一步抓取
self::$newUserArr = array_unique(array_merge($match_arr[1], self::$newUserArr));

到此,整個爬蟲過程就可以順利進行了。
如果需要大量的抓取數據,可以研究下curl_multipcntl進行多線程的快速抓取,此處不做贅述。

分析用戶數據,提供分析

通過正則可以進一步匹配出更多的該用戶數據,直接上碼。

// 獲取用戶頭像
preg_match("/ 男  
// gender value1 ;結束 中文
preg_match("/
preg_match("//u", $str, $match_city);
$user_city = $match_city[1];

// 匹配工作
//人見人罵的公司
preg_match("//u", $str, $match_employment);
$user_employ = $match_employment[1];

// 匹配職位
// 程序猿
preg_match("//u", $str, $match_position);
$user_position = $match_position[1];

// 匹配學歷
// 研究僧
preg_match("//u", $str, $match_education);
$user_education = $match_education[1];

// 工作情況
// 挨踢
preg_match("/([x{4e00}-
x{9fa5}]+)41 個話題
preg_match("/class="?zg-link-litblue"?>(d+)s.+strong>/i", $str, $match_topic);
$user_topic = $match_topic[1];

// 關注人數
// 關注了
preg_match_all("/(d+)<.+
數據入庫和程序優化

在抓取的過程中,有條件的話,一定要通過redis入庫,確實能提升抓取和入庫效率。沒有條件的話只能通過sql優化。這里來幾發心德。

數據庫表設計索引一定要慎重。在spider爬取的過程中,建議出了用戶名,左右字段都不要索引,包括主鍵都不要,盡可能的提高入庫效率,試想5000w的數據,每次添加一個,建立索引需要多少消耗。等抓取完畢,需要分析數據時,批量建立索引。

數據入庫和更新操作,一定要批量。 mysql 官方給出的增刪改的建議和速度:http://dev.mysql.com/doc/refman/5.7/en/insert-speed.html

# 官方的最優批量插入
INSERT INTO yourtable VALUES (1,2), (5,5), ...;

部署操作。程序在抓取過程中,有可能會出現異常掛掉,為了保證高效穩定,盡可能的寫一個定時腳本。每隔一段時間干掉,重新跑,這樣即使異常掛掉也不會浪費太多寶貴時間,畢竟,time is money。

#!/bin/bash

# 干掉
ps aux |grep spider |awk "{print $2}"|xargs kill -9
sleep 5s

# 重新跑
nohup /home/cuixiaohuan/lamp/php5/bin/php /home/cuixiaohuan/php/zhihu_spider/spider_new.php &    

數據分析呈現

數據的呈現主要使用echarts 3.0,感覺對于移動端兼容還不錯。兼容移動端的頁面響應式布局主要通過幾個簡單的css控制,代碼如下

/*兼容性和響應式div設計*/
@media screen and (max-width: 480px) {
    body{
        padding: 0 ;
    }
    .adapt-div {
        width: 100% ;
        float: none ;
        margin: 20px 0;
    }

    .half-div {
        height: 350px ;
        margin-bottom: 10px;
    }

    .whole-div {
        height: 350px;
    }
}

.half-div {
    width: 48%;
    height: 430px;
    margin: 1%;
    float: left
}

.whole-div {
    width: 98%;
    height: 430px;
    margin: 1%;
    float: left
}
不足和待學習

整個過程中涉及php,shell,js,css,html,正則等語言和部署等基礎知識,但還有諸多需要改進完善,小拽特此記錄,后續補充例:

php 采用multicul進行多線程。

正則匹配進一步優化

部署和抓取過程采用redis提升存儲

移動端布局的兼容性提升

js的模塊化和sass書寫css。

【轉載請注明:php爬蟲:知乎用戶數據爬取和分析 | 靠譜崔小拽 】

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/111275.html

相關文章

  • php爬蟲知乎用戶數據取和分析

    摘要:背景說明小拽利用的寫的爬蟲,實驗性的爬取了知乎用戶的基本信息同時,針對爬取的數據,進行了簡單的分析呈現。本程序抓取的是知乎對外提供用戶訪問的個人信息頁面抓取過程需要攜帶用戶才能獲取頁面。 背景說明:小拽利用php的curl寫的爬蟲,實驗性的爬取了知乎5w用戶的基本信息;同時,針對爬取的數據,進行了簡單的分析呈現。demo 地址 php的spider代碼和用戶dashboard的展現代碼...

    Jioby 評論0 收藏0
  • php爬蟲知乎用戶數據取和分析

    摘要:背景說明小拽利用的寫的爬蟲,實驗性的爬取了知乎用戶的基本信息同時,針對爬取的數據,進行了簡單的分析呈現。本程序抓取的是知乎對外提供用戶訪問的個人信息頁面抓取過程需要攜帶用戶才能獲取頁面。 背景說明:小拽利用php的curl寫的爬蟲,實驗性的爬取了知乎5w用戶的基本信息;同時,針對爬取的數據,進行了簡單的分析呈現。demo 地址 php的spider代碼和用戶dashboard的展現代碼...

    honhon 評論0 收藏0
  • 爬蟲 - 收藏集 - 掘金

    摘要:使用的爬蟲知乎用戶數據爬取和分析閱讀掘金背景說明小拽利用的寫的爬蟲,實驗性的爬取了知乎用戶的基本信息同時,針對爬取的數據,進行了簡單的分析呈現。 Python 知乎爬蟲(最新) - 后端 - 掘金 環境:python3.x外部依賴包:requestsgithub項目地址 主要的問題:模擬登陸: 知乎現在改用https請求了,數據加密,但是問題不大,重要的是網頁數據改動了,而且在請求時后...

    zzbo 評論0 收藏0
  • Python 從零開始爬蟲(六)——動態爬取解決方案 之 手動分析

    摘要:之前提到動態加載就兩個解決方案手動分析和。背后有許多不為人知的交易進行著,動態爬取的任務就是攔截它們揭開它們的真面目。在爬蟲界有著霸王硬上弓的稱號,管它情不情愿,來了動態加載也只有屈服的份了。 之前提到動態加載就兩個解決方案——手動分析和selenium。接下來的文章我們會來深入探討它們,本文將首先,重點介紹前者——手動分析 手動分析是一個比較有難度,比較麻煩的解決方案,但優點也很明顯...

    rozbo 評論0 收藏0

發表評論

0條評論

saucxs

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<