摘要:在寫內容邏輯重復性的頁面時,用數據可以顯著提高編程效率,并且便于后期的數據維護。因此,在視頻專題頁面,需要展示多列視頻數據,我選擇了用。解決辦法是利用方法,格式化,然后再添加進即可,在中應該還要用轉回來。
在寫內容邏輯重復性的頁面時,用json數據可以顯著提高編程效率,并且便于后期的數據維護。因此,在視頻專題頁面,需要展示多列視頻數據,我選擇了用json。
HTML如下(只展示重點部分,需要引用JQ)
熱門視頻
JS如下
注釋部分可不看,不影響內容。
首先要新建json文件,json文件需注意的問題是:json對數據格式有要求,不識別url中的各類符號,因此會提示錯誤,如果不修復,則會阻斷JS進程,造成數據在頁面不顯示,這個問題我找了好久才發現,而且json問題在js中不會報錯。解決辦法是利用encode方法,格式化url,然后再添加進json即可,在html中應該還要用decode轉回來。
第二個坑是插入html到某個標簽中,有四個方法,用after就可以實現,不要用反了。
第三點是需要注意,不要在拼接字符串的時候忘掉加號,少一個就會出問題,一個小問題會找好久才發現,而且拼接錯誤JS不會報錯,很難發現。
效果如下:
以上就是幾個小問題明天繼續補充。
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/112787.html
摘要:在寫內容邏輯重復性的頁面時,用數據可以顯著提高編程效率,并且便于后期的數據維護。因此,在視頻專題頁面,需要展示多列視頻數據,我選擇了用。解決辦法是利用方法,格式化,然后再添加進即可,在中應該還要用轉回來。 在寫內容邏輯重復性的頁面時,用json數據可以顯著提高編程效率,并且便于后期的數據維護。因此,在視頻專題頁面,需要展示多列視頻數據,我選擇了用json。 HTML如下(只展示重點部分...
摘要:在寫內容邏輯重復性的頁面時,用數據可以顯著提高編程效率,并且便于后期的數據維護。因此,在視頻專題頁面,需要展示多列視頻數據,我選擇了用。解決辦法是利用方法,格式化,然后再添加進即可,在中應該還要用轉回來。 在寫內容邏輯重復性的頁面時,用json數據可以顯著提高編程效率,并且便于后期的數據維護。因此,在視頻專題頁面,需要展示多列視頻數據,我選擇了用json。 HTML如下(只展示重點部分...
摘要:如果該文件已存在,文件指針將會放在文件的結尾。運行結果以上是讀取文件的方法。為了輸出中文,我們還需要指定一個參數為,另外規定文件輸出的編碼。 上一篇文章:Python3網絡爬蟲實戰---30、解析庫的使用:PyQuery下一篇文章:Python3網絡爬蟲實戰---32、數據存儲:關系型數據庫存儲:MySQL 我們用解析器解析出數據之后,接下來的一步就是對數據進行存儲了,保存的形式可以...
摘要:后端知識點總結基礎不是是一種軟件開發平臺,它的競爭對象歷史第一次有一種語言可以通吃前后端網站阿里云鏡像版本年初年中年底最新版本功能強大可靠,適合大型企業級項目簡單易用適合互聯網項目易用適合平臺性能好適合服務器端密集型項目不適合密集型項目密集 后端知識點總結——NODE.JS基礎 1.Node.js Node.js不是JS,是一種軟件開發平臺,它的競爭對象JSP/PHP/ASP.NET...
摘要:本次使用天天基金網進行爬蟲,該網站具有反爬機制,同時數量足夠大,多線程效果較為明顯。技術路線代理池多線程爬蟲與反爬編寫思路首先,開始分析天天基金網的一些數據。一旦使用多線程,則需要考慮到數據的讀寫順序問題。 @[TOC] 簡介 提到爬蟲,大部分人都會想到使用Scrapy工具,但是僅僅停留在會使用的階段。為了增加對爬蟲機制的理解,我們可以手動實現多線程的爬蟲過程,同時,引入IP代理池進行...
閱讀 1123·2023-04-26 00:12
閱讀 3247·2021-11-17 09:33
閱讀 1059·2021-09-04 16:45
閱讀 1186·2021-09-02 15:40
閱讀 2144·2019-08-30 15:56
閱讀 2949·2019-08-30 15:53
閱讀 3547·2019-08-30 11:23
閱讀 1932·2019-08-29 13:54