本篇文章是我們學習 Python 及其在機器學習(ML)和 人工智能(AI) 中的應用系列的第七個模塊。在上一模塊中,我們討論了使用 NLTK 進行文本分析。接下來,我們將要討論的是Keras,一個用于處理神經網絡的高級 Python 庫。在本模塊中,將演示如何使用 Keras 解決圖像分類問題。
安裝
使用Anaconda的conda install就可以安裝Keras庫:
conda install keras
該命令也會立即幫你安裝好相關依賴。
后端配置
Keras 可以使用多個可用庫之一作為其后端,這是處理低級操作(例如張量)的部分。我們將使用 TensorFlow,這是默認設置。
首先,我們將稍微調整 TensorFlow 的配置。具體來說,我們將allow_growth選項設置為 true,這允許 TensorFlow 動態(tài)增加使用的 GPU 內存,而不是預先分配所有內容。如果我們不這樣做,TensorFlow 可能會嘗試分配太多內存,導致你的 GPU 會立即耗盡內存(對我來說確實如此)。為此,請把以下代碼放在文件的開頭:
如果您的后端是 TensorFlow 1.x:
from keras.backend.tensorflow_backend import set_session
import tensorflow as tf
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
set_session(tf.Session(config=config))
對于 TensorFlow 2.x,你必須set_memory_growth
設置為你的 GPU調用該函數。你可以在tf.config.experimental.set_memory_growth文檔中閱讀更多關于這背后的細節(jié)。
怎么查看你所擁有的版本?可以通過conda list
來查看您的 TensorFlow 版本。即便使用相同的 Anaconda 安裝命令,例如我在一臺計算機上安裝了 1.13.1,在另一臺上安裝了 2.1.0。
如果你想強制 Keras 使用你的 CPU 而不是你的 GPU,請在第一次 Keras import 之前添加:
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '-1'
雖然這樣一來比在 GPU 上慢很多,但如果你沒有足夠的多 GPU 內存,你還真得考慮一下這樣做。
使用 Keras 進行圖像分類
我們將使用英特爾圖像分類數據集演示用于圖像分類的 Keras 。該數據集包含六個類別的圖像,分為六個不同的目錄,這非常方便,因為 Keras 提供了處理該格式數據的內置功能。
雖然你不用過多擔心神經網絡背后的數學問題,但你還需要對此有足夠的理解,因為你才能準確指定你的模型由哪些層組成。
Keras 提供的模型之一是順序模型,即一堆層。創(chuàng)建順序模型和添加層非常簡單:
from keras.models import Sequential
model = Sequential()
model.add(layer_one)
model.add(layer_two)
# ...
以下是我們的模型用于圖像分類的樣子:
from keras.models import Sequential
from keras.layers import Conv2D, MaxPooling2D
from keras.layers import Dropout, Flatten, Dense
from keras.layers.normalization import BatchNormalization
model = Sequential()
model.add(Conv2D(32, kernel_size=(3, 3), activation="relu", input_shape=(150, 150, 3))) # our images are 150*150
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(BatchNormalization())
model.add(Conv2D(64, kernel_size=(3, 3), activation="relu"))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(BatchNormalization())
model.add(Conv2D(128, kernel_size=(3, 3), activation="relu"))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(BatchNormalization())
model.add(Flatten())
model.add(Dense(128, activation="relu"))
model.add(Dropout(0.15))
model.add(Dense(64, activation="relu"))
model.add(Dense(6, activation="softmax"))
神經網絡模型的構建超出了本模塊的范圍,但簡而言之:卷積層的重復模式(由于模式變得更復雜,過濾器數量越來越多)、最大池化層和批處理歸一化通常用作圖像分類問題的第一步。該步驟的輸出是多維的,我們將其展平為具有展平層的一維向量。我們以幾個密集連接的層結束,中間有一個 dropout 層,以幫助對抗過度擬合。最后一層必須輸出一個包含六個元素的向量,因為我們有六個類別。
接下來,我們編譯模型,這意味著我們對其進行配置以進行訓練:
model.compile(loss='sparse_categorical_crossentropy',
optimizer='adam',
metrics=['accuracy'])
我們的損失函數sparse_categorical_crossentropy
非常適合分類問題,而類別之間沒有重疊。有關損失函數的完整討論,請參閱Keras 文檔。我們正在使用 Adam 優(yōu)化器。可以在相關文檔中找到優(yōu)化器的完整列表。并metrics
指定模型在訓練和測試期間評估的內容。
擬合模型
現在我們有了模型的結構,我們可以將它擬合到我們的數據集。
from keras.preprocessing.image import ImageDataGenerator
datagen = ImageDataGenerator(validation_split=0.2)
train_generator =
datagen.flow_from_directory("intel-images/seg_train/seg_train",
batch_size=32, target_size=(150,150), class_mode="sparse",
subset="training")
validation_generator =
datagen.flow_from_directory("intel-images/seg_train/seg_train",
batch_size=32, target_size=(150, 150), class_mode="sparse",
subset="validation")
model.fit_generator(train_generator, epochs=40,
validation_data=validation_generator)
(如果你想要以較低的準確度更快地完成該過程,請自定義減少 epoch 的數量,尤其是在你使用 CPU 的情況下。40 個 epoch 需要相當長的時間。)
根據 Keras 文檔,這就是 an 的ImageDataGenerator
作用:
使用實時數據增強生成批量張量圖像數據。數據將被循環(huán)(分批)。
我們的例子沒有做任何數據增強。稍后我們將介紹該功能。
在前面的代碼中,validation_split=0.2
意味著我們將使用 20% 的訓練集進行驗證。由于數據集只有一個訓練集和一個測試集,我們必須使用訓練集的一個子集作為驗證集。
flow_from_directory
是一個簡潔的內置函數,非常適合像我們這樣的數據集結構:每個類別的子目錄。
class_mode="sparse"
意味著我們正在處理一維整數標簽。
fit_generator
ImageDataGenerator
在我們指定的多個時期中將模型擬合到。
測試模型
訓練完成后,我們可以用evaluate_generator
函數測試模型。就像fit_generator
,它需要一個生成器作為參數。我們可以為我們的測試數據創(chuàng)建一個,類似于我們?yōu)橛柧殧祿龅模?br>
test_datagen = ImageDataGenerator()
test_generator =
datagen.flow_from_directory(
"intel-images/seg_test/seg_test",
target_size=(150,150), class_mode="sparse")
print(model.evaluate_generator(test_generator))
這將為我們的示例返回一個包含兩個值的數組:損失和準確性。(你還可以通過查看model.metrics_names值來檢查。)
我的準確率為 81.7%,這對于非平凡數據集上的相對簡單模型來說還不錯。
生成預測
你現在可以使用該model.predict方法對任何圖像生成預測。此方法將 NumPy 圖像數組作為輸入,其中圖像也是形狀為 (150, 150, 3) 的 NumPy 數組。要對一張圖像進行預測,你可以執(zhí)行以下操作:
import skimage.io import numpy as np model.predict(np.expand_dims(skimage.io.imread("file.jpg"), axis=0))
skimage.io.imread將讀取圖像expand_dims并將另一個維度添加到數組。輸出是一個預測數組,其中每個預測是一個值數組,指示每個類別的概率。
數據增強
數據增強是指根據現有訓練集生成新的訓練數據,以提高準確性和泛化性并減少過度擬合。
對于圖像,數據增強可以通過對圖像進行多種變換來完成:旋轉、翻轉、縮放、移位、剪切等。
ImageDataGenerator使這變得容易。要將數據增強應用于我們的模型,只需更改兩行代碼。
首先,ImageDataGenerator使用更多參數實例化,指定我們想要的轉換:
Python復制代碼
datagen = ImageDataGenerator(rotation_range=30,
horizontal_flip=True,
zoom_range=0.2,
shear_range=0.2)
還有更多的可能性——請參閱圖像預處理文檔以獲取完整的參數列表。
第二行是fit_generator電話。這個函數有可選steps_per_epoch和validation_steps參數,我們可以離開了前面,因為我們有訓練樣本的固定數量。通過數據增強,我們可能有更多的訓練樣本,因此我們必須指定要使用的數量。如果我們不這樣做,該函數將只使用我們固定大小的樣本集。一個步驟對應于一批給定的batch_size。
model.fit_generator(train_generator, epochs=40,
validation_data=validation_generator,
steps_per_epoch=1600, validation_steps=32)
同樣,如果您希望該過程更快,請隨時減少 epoch 數或步驟數。經過 2-3 小時的訓練,我的準確率為 85.5%。
保存和恢復模型
Keras 允許你以 HDF5 格式保存經過訓練的模型:
model.save("images_model.h5")
恢復模型也是一行:
import keras.models
model = keras.models.load_model("images_model.h5")
這需要h5py軟件包,如果你使用的是conda install. 如果沒有,請在 Jupyter Notebook 單元中運行此 pip 命令:
Python復制代碼
!pip install --upgrade h5py
結論
在本模塊中,我們演練了 Keras 在圖像分類問題中的使用。Keras 的可用層比我們在這里使用的層多得多。如果您想深入了解,可以使用Keras 文檔作為起點。它還提供了大量常見深度學習問題的示例。