Python 風格的關鍵完全體現在 Python 的數據模型上,數據模型所描述的 API ,為使用最地道的語言特性來構建開發者自己的對象提供了工具。
成都創新互聯公司專注于企業成都全網營銷推廣、網站重做改版、遂昌網站定制設計、自適應品牌網站建設、H5場景定制、商城網站建設、集團公司官網建設、外貿網站建設、高端網站制作、響應式網頁設計等建站業務,價格優惠性價比高,為遂昌等各大城市提供網站開發制作服務。
當 Python 解析器遇到特殊句法時,會使用特殊方法去激活一些基本的對象操作。特殊方法以雙下劃線開頭,以雙下劃線結尾。如: obj[key] 的背后就是 __getitem__ 方法。魔術方法是特殊方法的昵稱,特殊方法也叫雙下方法。
使用 __getitem__ 和 __len__ 創建一摞有序的紙牌:
上面的例子,使用 collections.namedtuple 構建了一個簡單的類來表示一張紙牌, namedtuple 用以構建只有少數屬性但沒有方法的類。
我們自定義的 FrenchDeck 類可以像任何 python 標準集合類型一樣使用 len() 函數,查看一疊牌有多少張:
也可以像列表一樣,使用位置索引, d[i] 將調用 __getitem__ 方法:
也可以使用標準庫模塊提供的 random.choice 方法,從序列中隨機選取一個元素。下面,我們如隨機取出一張紙牌:
現在我們已經體會到通過 python 特殊方法,來使用 Python 數據模型的 2 個好處:
因為 __getitem__ 方法把 [] 操作交給了 self.cards 列表,所以我們的 FrenchDeck 實例自動支持切片:
僅僅實現了 __getitem__ 方法,這一摞牌即變得可迭代:
運行結果:
也可以直接調用內置的 reversed 函數,反向迭代 FrenchDeck 實例:
運行結果:
迭代通常是隱式的,比如一個集合類型沒有實現 __contains__ 方法,那么 in 運算符就會按順序做一次迭代搜索。
因此, in 運算符可以用在我們的 FrenchDeck 實例上,因為它是可迭代的:
FrenchDeck 還可以使用 Python 標準庫中的 sorted 函數,實現排序:
首先定義一個排序依據的函數:
優先按 rank 的大小排序,rank 相同時則比較 suit 的值:
運行結果:
優先按 suit 的大小排序,suit 相同時則比較 rank 的值:
運行結果:
按照目前的設計,FrenchDeck 還不支持洗牌,因為它是不可變的:
shuffle 函數要調換集合中元素的位置,而 FrenchDeck 只實現了不可變的序列協議,可變的序列還必須提供 __setitem__ 方法:
洗牌:
沒有任何的返回值,可見 random.shuffle 就地修改了可變序列 d 。為便于觀察結果,我們定義輸入的輸出函數:
運行結果:
每次洗牌,都是一個隨機的序列:
首先明確一點,特殊方法的存在是為了被 Python 解析器調用的,例如:我們不會使用 obj.__len__() 這種寫法,而是 len(obj) 。在執行 len(obj) 時,如果 obj 是一個自定義類的對象,那么 Python 會自己去調用我們實現的 __len__ 方法。
對于 Python 內置的數據類型,比如列表、字符串、字節序列等,那么 CPython 會抄個近路, __len__ 實際上會返回 PyVarObject 里的 ob_size 屬性,這是因為直接讀取屬性比調用一個方法要快得多。
很多時候,特殊方法的調用是隱式的,比如 for i in x: 這個語句其實是調用 iter(x) ,而這個函數的背后是 x.__iter__() 方法。
通過內置函數如來使用特殊方法是最好的選擇。這些內置函數不僅會調用這些方法,通常還提供額外的好處,對于內置類型來說,它們的速度更快。
下面,我們通過定義一個簡單的二維向量類,再來體會一下 Python 特殊方法的美妙:
使用 Vector 類,就像使用 Python 內置的數據類型一樣簡單:
map() 函數接受兩個參數,一個是函數,一個是可迭代對象(Iterable), map 將傳入的函數依次作用到可迭代對象的每一個元素,并把結果作為迭代器(Iterator)返回。
舉例說明,有一個函數 f(x)=x^2 ,要把這個函數作用到一個list [1,2,3,4,5,6,7,8,9] 上:
運用簡單的循環可以實現:
運用高階函數 map() :
結果 r 是一個迭代器,迭代器是惰性序列,通過 list() 函數讓它把整個序列都計算出來并返回一個 list 。
如果要把這個list所有數字轉為字符串利用 map() 就簡單了:
小練習:利用 map() 函數,把用戶輸入的不規范的英文名字變為首字母大寫其他小寫的規范名字。輸入 ['adam', 'LISA', 'barT'] ,輸出 ['Adam', 'Lisa', 'Bart']
reduce() 函數也是接受兩個參數,一個是函數,一個是可迭代對象, reduce 將傳入的函數作用到可迭代對象的每個元素的結果做累計計算。然后將最終結果返回。
效果就是: reduce(f, [x1, x2, x3, x4]) = f(f(f(x1, x2), x3), x4)
舉例說明,將序列 [1,2,3,4,5] 變換成整數 12345 :
小練習:編寫一個 prod() 函數,可以接受一個 list 并利用 reduce 求積:
map() 和 reduce() 綜合練習:編寫 str2float 函數,把字符串 '123.456' 轉換成浮點型 123.456
filter() 函數用于過濾序列, filter() 也接受一個函數和一個序列, filter() 把傳入的函數依次作用于每個元素,然后根據返回值是 True 還是 False 決定保留還是丟棄該元素。
舉例說明,刪除list中的偶數:
小練習:用 filter() 求素數
定義一個篩選函數:
定義一個生成器不斷返回下一個素數:
打印100以內素數:
python內置的 sorted() 函數可以對list進行排序:
sorted() 函數也是一個高階函數,還可以接受一個 key 函數來實現自定義排序:
key 指定的函數將作用于list的每一個元素上,并根據 key 函數返回的結果進行排序.
默認情況下,對字符串排序,是按照ASCII的大小比較的,由于'Z' 'a',結果,大寫字母Z會排在小寫字母a的前面。如果想忽略大小寫可都轉換成小寫來比較:
要進行反向排序,不必改動key函數,可以傳入第三個參數 reverse=True :
小練習:假設我們用一組tuple表示學生名字和成績: L = [('Bob', 75), ('Adam', 92), ('Bart', 66), ('Lisa', 88)] 。用sorted()對上述列表分別按c成績從高到低排序:
運用匿名函數更簡潔:
reverse是python一個列表的內置函數,是列表獨有的,用于列表中數據的反轉,顛倒。也就是說,在字典,字符串或者元組中,是沒有這個內置方法的,其作用主要是用于反向列表中元素。其實,這一步操作的返回值是一個None,其作用的結果,需要通過打印被作用的列表才可以查看出具體的效果。
reverse雙語例句:
1、She did the reverse of what I told her.
我告訴她怎么做,但她卻做得與我告訴她的相反。
2、Once you consciously notice this anomaly it is too late to reverse it.
一旦你有意識地注意到這種異常,要反轉它已太遲了。
3、In the reverse direction the thyristor cannot be turned on.
如果是相反方向,半導體閘流管無法開啟。
a?=?input("輸入一個三位數")
target?=?""
for?i?in?reversed(a):
target?+=?i
print(target)
從零開始用Python構建神經網絡
動機:為了更加深入的理解深度學習,我們將使用 python 語言從頭搭建一個神經網絡,而不是使用像 Tensorflow 那樣的封裝好的框架。我認為理解神經網絡的內部工作原理,對數據科學家來說至關重要。
這篇文章的內容是我的所學,希望也能對你有所幫助。
神經網絡是什么?
介紹神經網絡的文章大多數都會將它和大腦進行類比。如果你沒有深入研究過大腦與神經網絡的類比,那么將神經網絡解釋為一種將給定輸入映射為期望輸出的數學關系會更容易理解。
神經網絡包括以下組成部分
? 一個輸入層,x
? 任意數量的隱藏層
? 一個輸出層,?
? 每層之間有一組權值和偏置,W and b
? 為隱藏層選擇一種激活函數,σ。在教程中我們使用 Sigmoid 激活函數
下圖展示了 2 層神經網絡的結構(注意:我們在計算網絡層數時通常排除輸入層)
2 層神經網絡的結構
用 Python 可以很容易的構建神經網絡類
訓練神經網絡
這個網絡的輸出 ? 為:
你可能會注意到,在上面的等式中,輸出 ? 是 W 和 b 函數。
因此 W 和 b 的值影響預測的準確率. 所以根據輸入數據對 W 和 b 調優的過程就被成為訓練神經網絡。
每步訓練迭代包含以下兩個部分:
? 計算預測結果 ?,這一步稱為前向傳播
? 更新 W 和 b,,這一步成為反向傳播
下面的順序圖展示了這個過程:
前向傳播
正如我們在上圖中看到的,前向傳播只是簡單的計算。對于一個基本的 2 層網絡來說,它的輸出是這樣的:
我們在 NeuralNetwork 類中增加一個計算前向傳播的函數。為了簡單起見我們假設偏置 b 為0:
但是我們還需要一個方法來評估預測結果的好壞(即預測值和真實值的誤差)。這就要用到損失函數。
損失函數
常用的損失函數有很多種,根據模型的需求來選擇。在本教程中,我們使用誤差平方和作為損失函數。
誤差平方和是求每個預測值和真實值之間的誤差再求和,這個誤差是他們的差值求平方以便我們觀察誤差的絕對值。
訓練的目標是找到一組 W 和 b,使得損失函數最好小,也即預測值和真實值之間的距離最小。
反向傳播
我們已經度量出了預測的誤差(損失),現在需要找到一種方法來傳播誤差,并以此更新權值和偏置。
為了知道如何適當的調整權值和偏置,我們需要知道損失函數對權值 W 和偏置 b 的導數。
回想微積分中的概念,函數的導數就是函數的斜率。
梯度下降法
如果我們已經求出了導數,我們就可以通過增加或減少導數值來更新權值 W 和偏置 b(參考上圖)。這種方式被稱為梯度下降法。
但是我們不能直接計算損失函數對權值和偏置的導數,因為在損失函數的等式中并沒有顯式的包含他們。因此,我們需要運用鏈式求導發在來幫助計算導數。
鏈式法則用于計算損失函數對 W 和 b 的導數。注意,為了簡單起見。我們只展示了假設網絡只有 1 層的偏導數。
這雖然很簡陋,但是我們依然能得到想要的結果—損失函數對權值 W 的導數(斜率),因此我們可以相應的調整權值。
現在我們將反向傳播算法的函數添加到 Python 代碼中
為了更深入的理解微積分原理和反向傳播中的鏈式求導法則,我強烈推薦 3Blue1Brown 的如下教程:
Youtube:
整合并完成一個實例
既然我們已經有了包括前向傳播和反向傳播的完整 Python 代碼,那么就將其應用到一個例子上看看它是如何工作的吧。
神經網絡可以通過學習得到函數的權重。而我們僅靠觀察是不太可能得到函數的權重的。
讓我們訓練神經網絡進行 1500 次迭代,看看會發生什么。 注意觀察下面每次迭代的損失函數,我們可以清楚地看到損失函數單調遞減到最小值。這與我們之前介紹的梯度下降法一致。
讓我們看看經過 1500 次迭代后的神經網絡的最終預測結果:
經過 1500 次迭代訓練后的預測結果
我們成功了!我們應用前向和方向傳播算法成功的訓練了神經網絡并且預測結果收斂于真實值。
注意預測值和真實值之間存在細微的誤差是允許的。這樣可以防止模型過擬合并且使得神經網絡對于未知數據有著更強的泛化能力。
下一步是什么?
幸運的是我們的學習之旅還沒有結束,仍然有很多關于神經網絡和深度學習的內容需要學習。例如:
? 除了 Sigmoid 以外,還可以用哪些激活函數
? 在訓練網絡的時候應用學習率
? 在面對圖像分類任務的時候使用卷積神經網絡
我很快會寫更多關于這個主題的內容,敬請期待!
最后的想法
我自己也從零開始寫了很多神經網絡的代碼
雖然可以使用諸如 Tensorflow 和 Keras 這樣的深度學習框架方便的搭建深層網絡而不需要完全理解其內部工作原理。但是我覺得對于有追求的數據科學家來說,理解內部原理是非常有益的。
這種練習對我自己來說已成成為重要的時間投入,希望也能對你有所幫助