精品专区-精品自拍9-精品自拍三级乱伦-精品自拍视频-精品自拍视频曝光-精品自拍小视频

網站建設資訊

NEWS

網站建設資訊

TensorFlow損失函數的示例分析-創新互聯

這篇文章將為大家詳細講解有關TensorFlow損失函數的示例分析,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

讓客戶滿意是我們工作的目標,不斷超越客戶的期望值來自于我們對這個行業的熱愛。我們立志把好的技術通過有效、簡單的方式提供給客戶,將通過不懈努力成為客戶在信息化領域值得信任、有價值的長期合作伙伴,公司提供的服務項目有:國際域名空間、虛擬主機、營銷軟件、網站建設、萬州網站維護、網站推廣。

一、分類問題損失函數——交叉熵(crossentropy)

交叉熵刻畫了兩個概率分布之間的距離,是分類問題中使用廣泛的損失函數。給定兩個概率分布p和q,交叉熵刻畫的是兩個概率分布之間的距離:

TensorFlow損失函數的示例分析

我們可以通過Softmax回歸將神經網絡前向傳播得到的結果變成交叉熵要求的概率分布得分。在TensorFlow中,Softmax回歸的參數被去掉了,只是一個額外的處理層,將神經網絡的輸出變成一個概率分布。

代碼實現:

import tensorflow as tf 
 
y_ = tf.constant([[1.0, 0, 0]]) # 正確標簽 
y1 = tf.constant([[0.9, 0.06, 0.04]]) # 預測結果1 
y2 = tf.constant([[0.5, 0.3, 0.2]]) # 預測結果2 
# 以下為未經過Softmax處理的類別得分 
y3 = tf.constant([[10.0, 3.0, 2.0]]) 
y4 = tf.constant([[5.0, 3.0, 1.0]]) 
 
# 自定義交叉熵 
cross_entropy1 = -tf.reduce_mean(y_ * tf.log(tf.clip_by_value(y1, 1e-10, 1.0))) 
cross_entropy2 = -tf.reduce_mean(y_ * tf.log(tf.clip_by_value(y2, 1e-10, 1.0))) 
# TensorFlow提供的集成交叉熵 
# 注:該操作應該施加在未經過Softmax處理的logits上,否則會產生錯誤結果 
# labels為期望輸出,且必須采用labels=y_, logits=y的形式將參數傳入 
cross_entropy_v2_1 = tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y3) 
cross_entropy_v2_2 = tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y4) 
 
sess = tf.InteractiveSession() 
print('[[0.9, 0.06, 0.04]]:', cross_entropy1.eval()) 
print('[[0.5, 0.3, 0.2]]:', cross_entropy2.eval()) 
print('v2_1', cross_entropy_v2_1.eval()) 
print('v2_2',cross_entropy_v2_2.eval()) 
sess.close() 
 
''''' 
[[0.9, 0.06, 0.04]]: 0.0351202 
[[0.5, 0.3, 0.2]]: 0.231049 
v2_1 [ 0.00124651] 
v2_2 [ 0.1429317] 
'''

tf.clip_by_value()函數可將一個tensor的元素數值限制在指定范圍內,這樣可防止一些錯誤運算,起到數值檢查作用。

* 乘法操作符是元素之間直接相乘,tensor中是每個元素對應相乘,要去別去tf.matmul()函數的矩陣相乘。

tf.nn.softmax_cross_entropy_with_logits(labels=y_,logits=y)是TensorFlow提供的集成交叉熵函數。該操作應該施加在未經過Softmax處理的logits上,否則會產生錯誤結果;labels為期望輸出,且必須采用labels=y_, logits=y3的形式將參數傳入。

二、回歸問題損失函數——均方誤差(MSE,mean squared error)

均方誤差亦可用于分類問題的損失函數,其定義為:

TensorFlow損失函數的示例分析

三、自定義損失函數

對于理想的分類問題和回歸問題,可采用交叉熵或者MSE損失函數,但是對于一些實際的問題,理想的損失函數可能在表達上不能完全表達損失情況,以至于影響對結果的優化。例如:對于產品銷量預測問題,表面上是一個回歸問題,可使用MSE損失函數。可實際情況下,當預測值大于實際值時,損失值應是正比于商品成本的函數;當預測值小于實際值,損失值是正比于商品利潤的函數,多數情況下商品成本和利潤是不對等的。自定義損失函數如下:

TensorFlow損失函數的示例分析

TensorFlow中,通過以下代碼實現loss= tf.reduce_sum(tf.where(tf.greater(y, y_), (y-y_)*loss_more,(y_-y)*loss_less))。

tf.greater(x,y),返回x>y的判斷結果的bool型tensor,當tensor x, y的維度不一致時,采取廣播(broadcasting)機制。

tf.where(condition,x=None, y=None, name=None),根據condition選擇x (if true) or y (if false)。

代碼實現:

import tensorflow as tf 
from numpy.random import RandomState 
 
batch_size = 8 
x = tf.placeholder(tf.float32, shape=(None, 2), name='x-input') 
y_ = tf.placeholder(tf.float32, shape=(None, 1), name='y-input') 
 
w1 = tf.Variable(tf.random_normal([2,1], stddev=1, seed=1)) 
y = tf.matmul(x, w1) 
 
# 根據實際情況自定義損失函數 
loss_less = 10 
loss_more = 1 
# tf.select()在1.0以后版本中已刪除,tf.where()替代 
loss = tf.reduce_sum(tf.where(tf.greater(y, y_), 
        (y-y_)*loss_more, (y_-y)*loss_less)) 
train_step = tf.train.AdamOptimizer(learning_rate=0.001).minimize(loss) 
 
rdm = RandomState(seed=1) # 定義一個隨機數生成器并設定隨機種子 
dataset_size = 128 
X = rdm.rand(dataset_size, 2) 
Y = [[x1 + x2 +rdm.rand()/10.0 - 0.05] for (x1, x2) in X] # 增加一個-0.05~0.05的噪聲 
 
sess = tf.InteractiveSession() 
tf.global_variables_initializer().run() 
for i in range(5000): 
 start = (i * batch_size) % dataset_size 
 end = min(start+batch_size, dataset_size) 
 train_step.run({x: X[start: end], y_: Y[start: end]}) 
 if i % 500 == 0: 
  print('step%d:\n' % i, w1.eval()) 
print('final w1:\n', w1.eval()) 
sess.close() 
 
''''' 
loss_less = 10 
loss_more = 1 
final w1: 
 [[ 1.01934695] 
 [ 1.04280889]] 
 
loss_less = 1 
loss_more = 10 
final w1: 
 [[ 0.95525807] 
 [ 0.9813394 ]] 
 
loss_less = 1 
loss_more = 1 
final w1: 
 [[ 0.9846065 ] 
 [ 1.01486754]] 
'''

根據程序輸出可見,當我們將loss_less=10時,表明我們對預測值過小表征的損失值更大,優化得到的參數均略大于1;當loss_more=10時,表明我們對預測值過大表征的損失值更大,優化得到的參數均略小于1;當兩者均設為1時,得到的參數約等于1。

四、TensorFlow的Cross_Entropy實現

1. tf.nn.softmax_cross_entropy_with_logits(_sentinel=None,labels=None, logits=None, dim=-1, name=None)

該函數的功能是自動計算logits(未經過Softmax)與labels之間的cross_entropy交叉熵。

該操作應該施加在未經過Softmax處理的logits上,否則會產生錯誤結果;labels為期望輸出,且必須采用labels=y_,logits=y3的形式將參數傳入。

第一個參數logits:就是神經網絡最后一層的輸出,如果有batch的話,它的大小就是[batchsize,num_classes],單樣本的話,大小就是num_classes

第二個參數labels:實際的標簽,大小同上。

注意:如果labels的每一行是one-hot表示,也就是只有一個地方為1,其他地方為0,可以使用tf.sparse_softmax_cross_entropy_with_logits()

警告: (1)這個操作的輸入logits是未經縮放的,該操作內部會對logits使用softmax操作;(2)參數labels,logits必須有相同的形狀 [batch_size, num_classes] 和相同的類型(float16, float32,float64)中的一種。

該函數具體的執行過程分兩步:首先對logits做一個Softmax,

TensorFlow損失函數的示例分析

第二步就是將第一步的輸出與樣本的實際標簽labels做一個交叉熵。

TensorFlow損失函數的示例分析

注意!!!這個函數的返回值并不是一個數,而是一個向量,如果要求交叉熵,我們要再做一步tf.reduce_sum操作,就是對向量里面所有元素求和,最后才得到交叉熵,如果求loss,則要做一步tf.reduce_mean操作,對向量求均值!

2. tf.nn.sparse_softmax_cross_entropy_with_logits(_sentinel=None,labels=None, logits=None, name=None)

該函數與tf.nn.softmax_cross_entropy_with_logits(_sentinel=None,labels=None, logits=None, dim=-1, name=None)十分相似,唯一的區別在于labels,該函數的標簽labels要求是排他性的即只有一個正確類別,labels的形狀要求是[batch_size] 而值必須是從0開始編碼的int32或int64,而且值范圍是[0, num_class),對比于tf.nn.softmax_cross_entropy_with_logits的[batchsize,num_classes]格式的得分編碼。

其他使用注意事項參見tf.nn.softmax_cross_entropy_with_logits的說明。

3. tf.nn.sigmoid_cross_entropy_with_logits(_sentinel=None,labels=None, logits=None, name=None)

sigmoid_cross_entropy_with_logits是TensorFlow最早實現的交叉熵算法。這個函數的輸入是logits和labels,logits就是神經網絡模型中的 W * X矩陣,注意不需要經過sigmoid,而labels的shape和logits相同,就是正確的標簽值,例如這個模型一次要判斷100張圖是否包含10種動物,這兩個輸入的shape都是[100, 10]。注釋中還提到這10個分類之間是獨立的、不要求是互斥,這種問題我們稱為多目標(多標簽)分類,例如判斷圖片中是否包含10種動物中的一種或幾種,標簽值可以包含多個1或0個1。

4. tf.nn.weighted_cross_entropy_with_logits(targets, logits, pos_weight, name=None)

weighted_sigmoid_cross_entropy_with_logits是sigmoid_cross_entropy_with_logits的拓展版,多支持一個pos_weight參數,在傳統基于sigmoid的交叉熵算法上,正樣本算出的值乘以某個系數。

關于“TensorFlow損失函數的示例分析”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。

另外有需要云服務器可以了解下創新互聯scvps.cn,海內外云服務器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務器、裸金屬服務器、高防服務器、香港服務器、美國服務器、虛擬主機、免備案服務器”等云主機租用服務以及企業上云的綜合解決方案,具有“安全穩定、簡單易用、服務可用性高、性價比高”等特點與優勢,專為企業上云打造定制,能夠滿足用戶豐富、多元化的應用場景需求。


網站名稱:TensorFlow損失函數的示例分析-創新互聯
標題網址:http://m.jcarcd.cn/article/csgedc.html
主站蜘蛛池模板: www中文字幕亚洲 | 91网视频在线观看 | 国产精首页 | 91大神精品网| 乱伦综合国产免费 | 国产在线视频自拍 | 精品国产高清自在 | 国产亚洲午夜黄频 | 国产福利在线观看永 | 中文字幕无线精品 | 国产精品亚洲美女 | 日韩伦理在线播放成 | 午夜福利视 | 91福利国产免费 | 国产一线视频在线看 | 欧洲日产国码二区 | 另类重口| 成人精品玖玖资源 | 日本不卡网站免费 | 国产女主播精 | 国产精品成人国产 | 奇米视频在线观看 | www.色色资源站 | 日韩午夜影視 | 91每日更新在| 女同91伊人 | 国产精品自拍视频 | 91国产高清视频 | 强奷漂亮的 | 日本新一区二区在线 | 日韩制服丝 | 欧美日韩国产偷拍 | 国内外成人免 | 国产乱妇 | 果冻传媒老狼一卡 | 国产区在线观看 | 国产日韩欧美一区二 | 91福利吧影院 | 国产精品亚洲αv | 成人免费一区二区 | 日本三级中文电影 |