App下載

人工智能和機(jī)器學(xué)習(xí)系列(七) Keras庫

陪你演戲 2021-08-25 10:29:41 瀏覽數(shù) (4677)
反饋

本篇文章是我們學(xué)習(xí) Python 及其在機(jī)器學(xué)習(xí)(ML)和 人工智能(AI) 中的應(yīng)用系列的第七個模塊。在上一模塊中,我們討論了使用 NLTK 進(jìn)行文本分析。接下來,我們將要討論的是Keras,一個用于處理神經(jīng)網(wǎng)絡(luò)的高級 Python 庫。在本模塊中,將演示如何使用 Keras 解決圖像分類問題。

安裝

使用Anaconda的conda install就可以安裝Keras庫:

conda install keras

該命令也會立即幫你安裝好相關(guān)依賴。

后端配置

Keras 可以使用多個可用庫之一作為其后端,這是處理低級操作(例如張量)的部分。我們將使用 TensorFlow,這是默認(rèn)設(shè)置。

首先,我們將稍微調(diào)整 TensorFlow 的配置。具體來說,我們將allow_growth選項設(shè)置為 true,這允許 TensorFlow 動態(tài)增加使用的 GPU 內(nèi)存,而不是預(yù)先分配所有內(nèi)容。如果我們不這樣做,TensorFlow 可能會嘗試分配太多內(nèi)存,導(dǎo)致你的 GPU 會立即耗盡內(nèi)存(對我來說確實如此)。為此,請把以下代碼放在文件的開頭:

如果您的后端是 TensorFlow 1.x:

from keras.backend.tensorflow_backend import set_session
import tensorflow as tf
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
set_session(tf.Session(config=config))

對于 TensorFlow 2.x,你必須set_memory_growth設(shè)置為你的 GPU調(diào)用該函數(shù)。你可以在tf.config.experimental.set_memory_growth文檔中閱讀更多關(guān)于這背后的細(xì)節(jié)。

怎么查看你所擁有的版本?可以通過conda list來查看您的 TensorFlow 版本。即便使用相同的 Anaconda 安裝命令,例如我在一臺計算機(jī)上安裝了 1.13.1,在另一臺上安裝了 2.1.0。

如果你想強(qiáng)制 Keras 使用你的 CPU 而不是你的 GPU,請在第一次 Keras import 之前添加:

import os
os.environ['CUDA_VISIBLE_DEVICES'] = '-1'

雖然這樣一來比在 GPU 上慢很多,但如果你沒有足夠的多 GPU 內(nèi)存,你還真得考慮一下這樣做。

使用 Keras 進(jìn)行圖像分類

我們將使用英特爾圖像分類數(shù)據(jù)集演示用于圖像分類的 Keras 。該數(shù)據(jù)集包含六個類別的圖像,分為六個不同的目錄,這非常方便,因為 Keras 提供了處理該格式數(shù)據(jù)的內(nèi)置功能。

雖然你不用過多擔(dān)心神經(jīng)網(wǎng)絡(luò)背后的數(shù)學(xué)問題,但你還需要對此有足夠的理解,因為你才能準(zhǔn)確指定你的模型由哪些層組成。

Keras 提供的模型之一是順序模型,即一堆層。創(chuàng)建順序模型和添加層非常簡單:

from keras.models import Sequential

model = Sequential()
model.add(layer_one)
model.add(layer_two)
# ...

以下是我們的模型用于圖像分類的樣子:

from keras.models import Sequential
from keras.layers import Conv2D, MaxPooling2D
from keras.layers import Dropout, Flatten, Dense
from keras.layers.normalization import BatchNormalization

model = Sequential()

model.add(Conv2D(32, kernel_size=(3, 3), activation="relu", input_shape=(150, 150, 3))) # our images are 150*150
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(BatchNormalization())

model.add(Conv2D(64, kernel_size=(3, 3), activation="relu"))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(BatchNormalization())

model.add(Conv2D(128, kernel_size=(3, 3), activation="relu"))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(BatchNormalization())

model.add(Flatten())
model.add(Dense(128, activation="relu"))
model.add(Dropout(0.15))
model.add(Dense(64, activation="relu"))
model.add(Dense(6, activation="softmax"))

神經(jīng)網(wǎng)絡(luò)模型的構(gòu)建超出了本模塊的范圍,但簡而言之:卷積層的重復(fù)模式(由于模式變得更復(fù)雜,過濾器數(shù)量越來越多)、最大池化層和批處理歸一化通常用作圖像分類問題的第一步。該步驟的輸出是多維的,我們將其展平為具有展平層的一維向量。我們以幾個密集連接的層結(jié)束,中間有一個 dropout 層,以幫助對抗過度擬合。最后一層必須輸出一個包含六個元素的向量,因為我們有六個類別。

接下來,我們編譯模型,這意味著我們對其進(jìn)行配置以進(jìn)行訓(xùn)練:

model.compile(loss='sparse_categorical_crossentropy',
          	   optimizer='adam',
          	   metrics=['accuracy'])

我們的損失函數(shù)sparse_categorical_crossentropy非常適合分類問題,而類別之間沒有重疊。有關(guān)損失函數(shù)的完整討論,請參閱Keras 文檔。我們正在使用 Adam 優(yōu)化器。可以在相關(guān)文檔中找到優(yōu)化器的完整列表。并metrics指定模型在訓(xùn)練和測試期間評估的內(nèi)容。

擬合模型

現(xiàn)在我們有了模型的結(jié)構(gòu),我們可以將它擬合到我們的數(shù)據(jù)集。

from keras.preprocessing.image import ImageDataGenerator

datagen = ImageDataGenerator(validation_split=0.2)
train_generator = 
    datagen.flow_from_directory("intel-images/seg_train/seg_train", 
    batch_size=32, target_size=(150,150), class_mode="sparse", 
    subset="training")
validation_generator = 
    datagen.flow_from_directory("intel-images/seg_train/seg_train", 
    batch_size=32, target_size=(150, 150), class_mode="sparse", 
    subset="validation")
model.fit_generator(train_generator, epochs=40, 
                    validation_data=validation_generator)

(如果你想要以較低的準(zhǔn)確度更快地完成該過程,請自定義減少 epoch 的數(shù)量,尤其是在你使用 CPU 的情況下。40 個 epoch 需要相當(dāng)長的時間。)

根據(jù) Keras 文檔,這就是 an 的ImageDataGenerator作用:

使用實時數(shù)據(jù)增強(qiáng)生成批量張量圖像數(shù)據(jù)。數(shù)據(jù)將被循環(huán)(分批)。

我們的例子沒有做任何數(shù)據(jù)增強(qiáng)。稍后我們將介紹該功能。

在前面的代碼中,validation_split=0.2意味著我們將使用 20% 的訓(xùn)練集進(jìn)行驗證。由于數(shù)據(jù)集只有一個訓(xùn)練集和一個測試集,我們必須使用訓(xùn)練集的一個子集作為驗證集。

flow_from_directory 是一個簡潔的內(nèi)置函數(shù),非常適合像我們這樣的數(shù)據(jù)集結(jié)構(gòu):每個類別的子目錄。

class_mode="sparse" 意味著我們正在處理一維整數(shù)標(biāo)簽。

fit_generatorImageDataGenerator在我們指定的多個時期中將模型擬合到。

測試模型

訓(xùn)練完成后,我們可以用evaluate_generator函數(shù)測試模型。就像fit_generator,它需要一個生成器作為參數(shù)。我們可以為我們的測試數(shù)據(jù)創(chuàng)建一個,類似于我們?yōu)橛?xùn)練數(shù)據(jù)所做的:

test_datagen = ImageDataGenerator()
test_generator = 
    datagen.flow_from_directory(
        "intel-images/seg_test/seg_test", 
        target_size=(150,150), class_mode="sparse")
print(model.evaluate_generator(test_generator))

這將為我們的示例返回一個包含兩個值的數(shù)組:損失和準(zhǔn)確性。(你還可以通過查看model.metrics_names值來檢查。)

我的準(zhǔn)確率為 81.7%,這對于非平凡數(shù)據(jù)集上的相對簡單模型來說還不錯。

生成預(yù)測

你現(xiàn)在可以使用該model.predict方法對任何圖像生成預(yù)測。此方法將 NumPy 圖像數(shù)組作為輸入,其中圖像也是形狀為 (150, 150, 3) 的 NumPy 數(shù)組。要對一張圖像進(jìn)行預(yù)測,你可以執(zhí)行以下操作:

import skimage.io
import numpy as np

model.predict(np.expand_dims(skimage.io.imread("file.jpg"), axis=0))

skimage.io.imread將讀取圖像expand_dims并將另一個維度添加到數(shù)組。輸出是一個預(yù)測數(shù)組,其中每個預(yù)測是一個值數(shù)組,指示每個類別的概率。

數(shù)據(jù)增強(qiáng)

數(shù)據(jù)增強(qiáng)是指根據(jù)現(xiàn)有訓(xùn)練集生成新的訓(xùn)練數(shù)據(jù),以提高準(zhǔn)確性和泛化性并減少過度擬合。

對于圖像,數(shù)據(jù)增強(qiáng)可以通過對圖像進(jìn)行多種變換來完成:旋轉(zhuǎn)、翻轉(zhuǎn)、縮放、移位、剪切等。

ImageDataGenerator使這變得容易。要將數(shù)據(jù)增強(qiáng)應(yīng)用于我們的模型,只需更改兩行代碼。

首先,ImageDataGenerator使用更多參數(shù)實例化,指定我們想要的轉(zhuǎn)換:

Python復(fù)制代碼

datagen = ImageDataGenerator(rotation_range=30, 
                             horizontal_flip=True, 
                             zoom_range=0.2, 
                             shear_range=0.2)

還有更多的可能性——請參閱圖像預(yù)處理文檔以獲取完整的參數(shù)列表。

第二行是fit_generator電話。這個函數(shù)有可選steps_per_epoch和validation_steps參數(shù),我們可以離開了前面,因為我們有訓(xùn)練樣本的固定數(shù)量。通過數(shù)據(jù)增強(qiáng),我們可能有更多的訓(xùn)練樣本,因此我們必須指定要使用的數(shù)量。如果我們不這樣做,該函數(shù)將只使用我們固定大小的樣本集。一個步驟對應(yīng)于一批給定的batch_size。

model.fit_generator(train_generator, epochs=40, 
                    validation_data=validation_generator, 
                    steps_per_epoch=1600, validation_steps=32)

同樣,如果您希望該過程更快,請隨時減少 epoch 數(shù)或步驟數(shù)。經(jīng)過 2-3 小時的訓(xùn)練,我的準(zhǔn)確率為 85.5%。

保存和恢復(fù)模型

Keras 允許你以 HDF5 格式保存經(jīng)過訓(xùn)練的模型:

model.save("images_model.h5")

恢復(fù)模型也是一行:

import keras.models
model = keras.models.load_model("images_model.h5")

這需要h5py軟件包,如果你使用的是conda install. 如果沒有,請在 Jupyter Notebook 單元中運行此 pip 命令:

Python復(fù)制代碼

!pip install --upgrade h5py

結(jié)論

在本模塊中,我們演練了 Keras 在圖像分類問題中的使用。Keras 的可用層比我們在這里使用的層多得多。如果您想深入了解,可以使用Keras 文檔作為起點。它還提供了大量常見深度學(xué)習(xí)問題的示例。


0 人點贊