国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁(yè)技術(shù)文章
文章詳情頁(yè)

使用Python建立RNN實(shí)現(xiàn)二進(jìn)制加法的示例代碼

瀏覽:67日期:2022-06-26 09:14:00

只有一百行左右代碼,應(yīng)該還是比較好理解的。

首先看一下結(jié)果,

The end error is:[0.05344101]

發(fā)現(xiàn)還是不錯(cuò)的。如果不想看講解,就直接跳到文末,有所有的代碼,安裝numpy庫(kù)就能夠跑。

二進(jìn)制加法

這個(gè)沒(méi)啥好說(shuō)的,就是逢二進(jìn)一,不知道的就看看計(jì)算機(jī)組成原理的相關(guān)內(nèi)容吧。

RNN主要學(xué)兩件事,一個(gè)是前一位的進(jìn)位,一個(gè)是當(dāng)前位的加法操作。只告訴當(dāng)前階段和前一階段的計(jì)算結(jié)果,讓網(wǎng)絡(luò)自己學(xué)習(xí)加法和進(jìn)位操作。

具體代碼

既然是神經(jīng)網(wǎng)絡(luò),肯定就非線性的,首先是sigmoid函數(shù),這個(gè)要是不清楚,就看看相關(guān)博客了解一下。

反向傳播的時(shí)候需要sigmoid函數(shù)的導(dǎo)數(shù)值,所以把兩個(gè)函數(shù)就直接貼在下面了。

# 前向傳播def sigmoid(in_x): output = 1 / (1 + np.exp(-in_x)) return output# 反向傳播def sigmoid_output_to_derivative(output): return output * (1 - output)

定義一個(gè)字典,因?yàn)榇龝?huì)兒要進(jìn)行十進(jìn)制和二進(jìn)制之間的轉(zhuǎn)換,我們用字典進(jìn)行存儲(chǔ)他們之間的對(duì)應(yīng)關(guān)系。

(在這里我們只選用八位二進(jìn)制)

int2binary = {}binary_dim = 8largest_number = pow(2, binary_dim)binary = np.unpackbits( np.array([range(largest_number)], dtype=np.uint8).T, axis=1)for i in range(largest_number): int2binary[i] = binary[i]

再接著就是對(duì)我們的RNN進(jìn)行初始化操作。

alpha = 0.1input_dim = 2hidden_dim = 16output_dim = 1

接著是生成神經(jīng)網(wǎng)絡(luò)各層的權(quán)重值以及反向傳播時(shí)對(duì)權(quán)值矩陣進(jìn)行更新的存儲(chǔ)。

# 生成神經(jīng)網(wǎng)絡(luò)各層的權(quán)重值(在0,1之間)synapse_0 = 2 * np.random.random((input_dim, hidden_dim)) - 1synapse_1 = 2 * np.random.random((hidden_dim, output_dim)) - 1synapse_h = 2 * np.random.random((hidden_dim, hidden_dim)) - 1# 反向傳播對(duì)權(quán)重值的矩陣進(jìn)行更新synapse_0_update = np.zeros_like(synapse_0)synapse_1_update = np.zeros_like(synapse_1)synapse_h_update = np.zeros_like(synapse_h)RNN

我們進(jìn)行10萬(wàn)次的迭代訓(xùn)練。

我們進(jìn)行的是加法,所以需要將值找到。最大取八位,所以a, b, c都不能超過(guò),因?yàn)閍+b=c,所以a, b不能超過(guò)最大的一半。其中l(wèi)argest_number表示8位二進(jìn)制數(shù)對(duì)應(yīng)的最大的十進(jìn)制數(shù)值。

# 最大取八位,所以a, b, c都不能超過(guò),因?yàn)閍+b=c,所以a, b不能超過(guò)最大的一半a_int = np.random.randint(largest_number / 2)a = int2binary[a_int]b_int = np.random.randint(largest_number / 2) b = int2binary[b_int] c_int = a_int + b_intc = int2binary[c_int]

我們定義一個(gè)d來(lái)存儲(chǔ)我們的預(yù)測(cè)值與實(shí)際值c進(jìn)行比較,判斷網(wǎng)絡(luò)的能力。并且定義一個(gè)overallError來(lái)存儲(chǔ)error值,并將初值設(shè)為0。

d = np.zeros_like(c) overallError = 0

最后我們?cè)谶M(jìn)行反向傳播的時(shí)候,會(huì)計(jì)算一個(gè)loss值,在訓(xùn)練網(wǎng)絡(luò)的過(guò)程中,我們需要計(jì)算w1,w2分別對(duì)這個(gè)loss值的影響。

layer_2_deltas = list()layer_1_values = list()# 因?yàn)榈谝淮蔚鷷?huì)用到l1的值,所以我們需要將列表用0來(lái)填充layer_1_values.append(np.zeros(hidden_dim))future_layer_1_delta = np.zeros(hidden_dim)

我們需要先進(jìn)行前向傳播,再進(jìn)行反向傳播。

在進(jìn)行前向傳播的過(guò)程中,我們需要將兩個(gè)二進(jìn)制傳入,從最后一位開(kāi)始,一層一層地通過(guò)sigmoid函數(shù),得到預(yù)測(cè)值。然后通過(guò)預(yù)測(cè)值與準(zhǔn)確值之間的差值設(shè)為l2層的loss值。有了這個(gè)loss值,我們就可以算出剛剛定義的layer_2_deltas(l2 層的權(quán)重參數(shù))

for position in range(binary_dim): X = np.array([[a[binary_dim - position - 1], b[binary_dim - position - 1]]]) y = np.array([[c[binary_dim - position - 1]]]).T layer_1 = sigmoid(np.dot(X, synapse_0) + np.dot(layer_1_values[-1], synapse_h)) layer_2 = sigmoid(np.dot(layer_1, synapse_1)) layer_2_error = y - layer_2 layer_2_deltas.append((layer_2_error) * sigmoid_output_to_derivative(layer_2)) overallError += np.abs(layer_2_error[0]) d[binary_dim - position - 1] = np.round(layer_2[0][0]) layer_1_values.append(copy.deepcopy(layer_1))

然后進(jìn)行反向傳播,也就是從最高位往后走。(具體的解釋放在代碼的注釋中了)

for position in range(binary_dim): X = np.array([[a[position], b[position]]]) # 從參數(shù)列表中反向依次取值 layer_1 = layer_1_values[-position - 1] # 因?yàn)橐M(jìn)行反向傳播,所以還需要取到l1層的前一位的value prev_layer_1 = layer_1_values[-position - 2] # l2也是如此,delta列表中反向依次取值 layer_2_delta = layer_2_deltas[-position - 1] # 通過(guò)公式進(jìn)行計(jì)算l1的delta值 layer_1_delta = (future_layer_1_delta.dot(synapse_h.T) + layer_2_delta.dot(synapse_1.T)) * sigmoid_output_to_derivative(layer_1) # 然后分別對(duì)w0, w1和wh進(jìn)行更新 synapse_1_update += np.atleast_2d(layer_1).T.dot(layer_2_delta) synapse_h_update += np.atleast_2d(prev_layer_1).T.dot(layer_1_delta) synapse_0_update += X.T.dot(layer_1_delta) future_layer_1_delta = layer_1_delta

然后再前向傳播和反向傳播結(jié)束之后,引入α alphaα值進(jìn)行參數(shù)的更新,并將updata重新置為0,以方便下一次循環(huán)使用。

synapse_0 += synapse_0_update * alphasynapse_1 += synapse_1_update * alphasynapse_h += synapse_h_update * alphasynapse_0_update *= 0synapse_1_update *= 0synapse_h_update *= 0

最后就是打印訓(xùn)練結(jié)果了,因?yàn)橛?xùn)練次數(shù)過(guò)多,所以這邊設(shè)計(jì)每訓(xùn)練1萬(wàn)次打印一次結(jié)果。

if j % 10000 == 0: print(str(j) + '/100000 :The error is:' + str(overallError))

運(yùn)行結(jié)果0/100000 :The error is:[3.45638663]10000/100000 :The error is:[0.3231264]20000/100000 :The error is:[0.27153112]30000/100000 :The error is:[0.1603061]40000/100000 :The error is:[0.10004929]50000/100000 :The error is:[0.11245508]60000/100000 :The error is:[0.11951541]70000/100000 :The error is:[0.07859761]80000/100000 :The error is:[0.06742156]90000/100000 :The error is:[0.08218885]The end error is:[0.05344101]

最終代碼

import copyimport numpy as npnp.random.seed(0)def sigmoid(in_x): output = 1 / (1 + np.exp(-in_x)) return outputdef sigmoid_output_to_derivative(output): return output * (1 - output)int2binary = {}binary_dim = 8largest_number = pow(2, binary_dim)binary = np.unpackbits( np.array([range(largest_number)], dtype=np.uint8).T, axis=1)for i in range(largest_number): int2binary[i] = binary[i]alpha = 0.1input_dim = 2hidden_dim = 16output_dim = 1# 生成神經(jīng)網(wǎng)絡(luò)各層的權(quán)重值(在0,1之間)synapse_0 = 2 * np.random.random((input_dim, hidden_dim)) - 1synapse_1 = 2 * np.random.random((hidden_dim, output_dim)) - 1synapse_h = 2 * np.random.random((hidden_dim, hidden_dim)) - 1# 反向傳播對(duì)權(quán)重值的矩陣進(jìn)行更新synapse_0_update = np.zeros_like(synapse_0)synapse_1_update = np.zeros_like(synapse_1)synapse_h_update = np.zeros_like(synapse_h)for j in range(100000): # 最大取八位,所以a, b, c都不能超過(guò),因?yàn)閍+b=c,所以a, b不能超過(guò)最大的一半 a_int = np.random.randint(largest_number / 2) a = int2binary[a_int] b_int = np.random.randint(largest_number / 2) b = int2binary[b_int] c_int = a_int + b_int c = int2binary[c_int] d = np.zeros_like(c) overallError = 0 layer_2_deltas = list() layer_1_values = list() # 因?yàn)榈谝淮蔚鷷?huì)用到l1的值,所以我們需要將列表用0來(lái)填充 layer_1_values.append(np.zeros(hidden_dim)) future_layer_1_delta = np.zeros(hidden_dim) for position in range(binary_dim): X = np.array([[a[binary_dim - position - 1], b[binary_dim - position - 1]]]) y = np.array([[c[binary_dim - position - 1]]]).T layer_1 = sigmoid(np.dot(X, synapse_0) + np.dot(layer_1_values[-1], synapse_h)) layer_2 = sigmoid(np.dot(layer_1, synapse_1)) layer_2_error = y - layer_2 layer_2_deltas.append((layer_2_error) * sigmoid_output_to_derivative(layer_2)) overallError += np.abs(layer_2_error[0]) d[binary_dim - position - 1] = np.round(layer_2[0][0]) layer_1_values.append(copy.deepcopy(layer_1)) for position in range(binary_dim): X = np.array([[a[position], b[position]]]) layer_1 = layer_1_values[-position - 1] prev_layer_1 = layer_1_values[-position - 2] layer_2_delta = layer_2_deltas[-position - 1]layer_1_delta = (future_layer_1_delta.dot(synapse_h.T) + layer_2_delta.dot( synapse_1.T)) * sigmoid_output_to_derivative(layer_1) synapse_1_update += np.atleast_2d(layer_1).T.dot(layer_2_delta) synapse_h_update += np.atleast_2d(prev_layer_1).T.dot(layer_1_delta) synapse_0_update += X.T.dot(layer_1_delta) future_layer_1_delta = layer_1_delta synapse_0 += synapse_0_update * alpha synapse_1 += synapse_1_update * alpha synapse_h += synapse_h_update * alpha synapse_0_update *= 0 synapse_1_update *= 0 synapse_h_update *= 0 if j % 10000 == 0: print(str(j) + '/100000 :The error is:' + str(overallError))print('The end error is:' + str(overallError))

到此這篇關(guān)于使用Python建立RNN實(shí)現(xiàn)二進(jìn)制加法的示例代碼的文章就介紹到這了,更多相關(guān)Python RNN二進(jìn)制加法內(nèi)容請(qǐng)搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持好吧啦網(wǎng)!

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 一级片在线免费看 | 亚洲久草视频 | 国产精品欧美一区二区 | 国产在线精品一区二区三区 | 久草久草视频 | 欧美日韩视频一区三区二区 | 亚洲一区二区三区免费看 | 黄网站www| 中文字幕一区在线 | 手机看片成人 | 久久只有这才是精品99 | 欧美精品亚洲一区二区在线播放 | 一级做a爰片性色毛片中国 一级做a爰性色毛片 | 国产嫩草影院在线观看 | 美女黄色一级毛片 | 日本高清福利视频在线观看 | 国产精品情侣久久婷婷文字 | 在线成人免费 | 日本三级网站在线观看 | 日韩国产毛片 | 国产成年女一区二区三区 | 日本人成免费大片 | 欧美日韩国产亚洲一区二区三区 | aaaaaa精品视频在线观看 | 免费真实播放国产乱子伦 | 国产成人亚洲合集青青草原精品 | 一级a做爰片欧欧美毛片4 | 最新三级网址 | 亚洲伦理天堂 | 99久久精品免费看国产四区 | 久久草在线看 | 国产成人综合日韩精品婷婷九月 | 日本成人在线免费观看 | 亚洲欧美日韩天堂 | 欧美一级淫片免费观看 | 成人手机视频在线观看 | 欧美一级黄色毛片 | 国产精品亚洲片在线观看不卡 | 久久草网站 | 在线免费视频 | 视频一区免费 |