摘要:天朝上網需要經常改文件的,你們都懂的。要在網上找啊,找到了還要復制粘貼,那叫一個麻煩啊。我是出了名的懶人嘛,寫個腳本干這事吧獲取網頁內容,網址是假的,我只是想說一下方法設置文件路徑備份文件讀取文件,準備添加開始添加寫入并關閉文件
天朝上網需要經常改hosts文件的,你們都懂的。要在網上找啊,找到了還要復制粘貼,那叫一個麻煩啊。
我是出了名的懶人嘛,寫個腳本干這事吧……
#!/usr/bin/env python import urllib import os import platform import shutil #獲取網頁內容,網址是假的,我只是想說一下方法 r = urllib.urlopen("http://www.baidu.com/hosts.html") for line in r: if line.find("NEW HOSTS") >= 0: url = line[line.find("http://"):][:line[line.find("http://"):].find(""")] #設置hosts文件路徑 if platform.system() == "Windows": sysdir = os.getenv("SystemDrive") hostspath = sysdir + "/windows/system32/drivers/etc/hosts" if platform.system() == "Linux": hostspath = "/etc/hosts" #備份hosts文件 if os.path.isfile(hostspath+"_bak") == False: shutil.copyfile(hostspath,hostspath+"_bak") shutil.copyfile(hostspath+"_bak",hostspath) #讀取文件,準備添加 host = open(hostspath,"r") content = host.read() host.close() r = urllib.urlopen(url) #開始添加 for line in r: line=line.strip(" ") content = content + line #寫入并關閉文件 host = open(hostspath,"w") host.write(content) host.close()
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/45416.html
摘要:時間永遠都過得那么快,一晃從年注冊,到現(xiàn)在已經過去了年那些被我藏在收藏夾吃灰的文章,已經太多了,是時候把他們整理一下了。那是因為收藏夾太亂,橡皮擦給設置私密了,不收拾不好看呀。 ...
摘要:用將倒放這次讓我們一個用做一個小工具將動態(tài)圖片倒序播放發(fā)現(xiàn)引力波的機構使用的包美國科學家日宣布,他們去年月首次探測到引力波。宣布這一發(fā)現(xiàn)的,是激光干涉引力波天文臺的負責人。這個機構誕生于上世紀年代,進行引力波觀測已經有近年。 那些年我們寫過的爬蟲 從寫 nodejs 的第一個爬蟲開始陸陸續(xù)續(xù)寫了好幾個爬蟲,從爬拉勾網上的職位信息到爬豆瓣上的租房帖子,再到去爬知乎上的妹子照片什么的,爬蟲...
摘要:用途廣泛,可以用于數(shù)據挖掘監(jiān)測和自動化測試。運行下,發(fā)現(xiàn)數(shù)據全部存到了數(shù)據庫中。提供了一些接口來查看項目爬蟲情況,以及執(zhí)行或者停止執(zhí)行爬蟲。完成小程序所需要的所有接口的開發(fā),以及使用定時任務執(zhí)行爬蟲腳本。 過完年回來,業(yè)余時間一直在獨立開發(fā)一個小程序。主要數(shù)據是8000+個視頻和10000+篇文章,并且數(shù)據會每天自動更新。 我會整理下整個開發(fā)過程中遇到的問題和一些細節(jié)問題,因為內容會比...
摘要:阿里云安裝腳本安裝腳本兩個腳本可以任選其一,速度都非常不錯。推薦的加速器有和阿里云。阿里云不同平臺的鏡像加速方法配置可以參考的官方文檔。以上便是的安裝方式說明。上一篇文章網絡爬蟲實戰(zhàn)爬蟲框架的安裝下一篇文章網絡爬蟲實戰(zhàn)部署相關庫 上一篇文章:Python3網絡爬蟲實戰(zhàn)---11、爬蟲框架的安裝:ScrapySplash、ScrapyRedis下一篇文章:Python3網絡爬蟲實戰(zhàn)---...
摘要:面試的心得體會簡歷制作我做了兩份簡歷,用兩個手機賬號,兩個簡歷名字,分別在各個招聘網站投了雙份簡歷,一個是數(shù)據分析的簡歷一個是全棧開發(fā)的簡歷,我真正接觸快年,不管是學習還是工作學到的東西,這兩年大概掌握了前端爬蟲數(shù)據分析機器學習技術, showImg(https://upload-images.jianshu.io/upload_images/13090773-b96aac7e974c...
閱讀 2289·2021-11-24 09:38
閱讀 1986·2021-11-22 14:44
閱讀 1150·2021-07-29 13:48
閱讀 2615·2019-08-29 13:20
閱讀 1115·2019-08-29 11:08
閱讀 2046·2019-08-26 10:58
閱讀 1264·2019-08-26 10:55
閱讀 3148·2019-08-26 10:39