摘要:實踐股票預測原始數據下載代碼單層數據預處理導入數據最高價按時間升序標準化生成訓練集時間步輸出維度每一批次訓練多少個樣例輸入維度輸出維度學習率訓練集構建圖變量模型保存模型訓練模型執行圖每步保存一次參數保存模型參考單層多層雙向參數
實踐 股票預測 原始數據
下載
# 數據預處理 ## 導入數據 df = pd.read_csv("/Users/Nick/Desktop/stock_dataset.csv") data = np.array(df["最高價"]) data = data[::-1] # 按時間升序 normalize_data=(data-np.mean(data))/np.std(data) #標準化 normalize_data=normalize_data[:,np.newaxis]# (6111, 1) ## 生成訓練集 time_step=20 #時間步 rnn_unit=10 #lstm輸出維度 batch_size=60 #每一批次訓練多少個樣例 input_size=1 #輸入維度 output_size=1 #輸出維度 lr=0.0006 #學習率 train_x,train_y=[],[] #訓練集 for i in range(len(normalize_data)-time_step-1): x=normalize_data[i:i+time_step] y=normalize_data[i+1:i+time_step+1] train_x.append(x.tolist()) # (6090, 20, 1) train_y.append(y.tolist()) # (6090, 20, 1) # 構建圖 tf.reset_default_graph() ## 變量 X = tf.placeholder(tf.float32, [batch_size, time_step, input_size]) Y = tf.placeholder(tf.float32, [batch_size, time_step, output_size]) ## 模型 cell = tf.nn.rnn_cell.LSTMCell(rnn_unit, num_proj=output_size) output_rnn, final_states = tf.nn.dynamic_rnn(cell, X,initial_state=init_state, dtype=tf.float32) pred = output_rnn loss=tf.reduce_mean(tf.square(tf.reshape(pred,[-1])-tf.reshape(Y, [-1]))) train_op=tf.train.AdamOptimizer(lr).minimize(loss) saver=tf.train.Saver(tf.global_variables()) # 保存模型 # 訓練模型(執行圖) with tf.Session() as sess: sess.run(tf.global_variables_initializer()) for i in range(100): step=0 start=0 end=start+batch_size while(end參考 單層/多層/雙向LSTM參數含義及實踐
LSTM中units參數的理解
理解LSTM網絡譯文
有趣的RNN實踐
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/43367.html
摘要:本文將詳細解析深度神經網絡識別圖形圖像的基本原理。卷積神經網絡與圖像理解卷積神經網絡通常被用來張量形式的輸入,例如一張彩色圖象對應三個二維矩陣,分別表示在三個顏色通道的像素強度。 本文將詳細解析深度神經網絡識別圖形圖像的基本原理。針對卷積神經網絡,本文將詳細探討網絡 中每一層在圖像識別中的原理和作用,例如卷積層(convolutional layer),采樣層(pooling layer),...
閱讀 695·2021-11-15 11:37
閱讀 3316·2021-10-27 14:14
閱讀 6039·2021-09-13 10:30
閱讀 2961·2021-09-04 16:48
閱讀 1926·2021-08-18 10:22
閱讀 2125·2019-08-30 14:19
閱讀 729·2019-08-30 10:54
閱讀 1745·2019-08-29 18:40