如何在tensorflow2.0中使用Keras-創(chuàng)新互聯(lián)

如何在tensorflow2.0中使用Keras?相信很多沒(méi)有經(jīng)驗(yàn)的人對(duì)此束手無(wú)策,為此本文總結(jié)了問(wèn)題出現(xiàn)的原因和解決方法,通過(guò)這篇文章希望你能解決這個(gè)問(wèn)題。

創(chuàng)新互聯(lián)堅(jiān)持“要么做到,要么別承諾”的工作理念,服務(wù)領(lǐng)域包括:成都網(wǎng)站制作、成都網(wǎng)站建設(shè)、外貿(mào)營(yíng)銷網(wǎng)站建設(shè)、企業(yè)官網(wǎng)、英文網(wǎng)站、手機(jī)端網(wǎng)站、網(wǎng)站推廣等服務(wù),滿足客戶于互聯(lián)網(wǎng)時(shí)代的襄城網(wǎng)站設(shè)計(jì)、移動(dòng)媒體設(shè)計(jì)的需求,幫助企業(yè)找到有效的互聯(lián)網(wǎng)解決方案。努力成為您成熟可靠的網(wǎng)絡(luò)建設(shè)合作伙伴!

Keras 是一個(gè)用于構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的高階 API。它可用于快速設(shè)計(jì)原型、高級(jí)研究和生產(chǎn)。 keras的3個(gè)優(yōu)點(diǎn):
方便用戶使用、模塊化和可組合、易于擴(kuò)展

1.導(dǎo)入tf.keras

tensorflow2推薦使用keras構(gòu)建網(wǎng)絡(luò),常見(jiàn)的神經(jīng)網(wǎng)絡(luò)都包含在keras.layer中(新的tf.keras的版本可能和keras不同)

import tensorflow as tf
from tensorflow.keras import layers
print(tf.__version__)
print(tf.keras.__version__)

2.構(gòu)建簡(jiǎn)單模型

2.1模型堆疊

最常見(jiàn)的模型類型是層的堆疊:tf.keras.Sequential 模型

model = tf.keras.Sequential()
model.add(layers.Dense(32, activation='relu'))
model.add(layers.Dense(32, activation='relu'))
model.add(layers.Dense(10, activation='softmax'))

2.2網(wǎng)絡(luò)配置

tf.keras.layers中網(wǎng)絡(luò)配置:

activation:設(shè)置層的激活函數(shù)。此參數(shù)由內(nèi)置函數(shù)的名稱指定,或指定為可調(diào)用對(duì)象。默認(rèn)情況下,系統(tǒng)不會(huì)應(yīng)用任何激活函數(shù)。

kernel_initializer 和 bias_initializer:創(chuàng)建層權(quán)重(核和偏差)的初始化方案。此參數(shù)是一個(gè)名稱或可調(diào)用對(duì)象,默認(rèn)為 “Glorot uniform” 初始化器。

kernel_regularizer 和 bias_regularizer:應(yīng)用層權(quán)重(核和偏差)的正則化方案,例如 L1 或 L2 正則化。默認(rèn)情況下,系統(tǒng)不會(huì)應(yīng)用正則化函數(shù)。

layers.Dense(32, activation='sigmoid')
layers.Dense(32, activation=tf.sigmoid)
layers.Dense(32, kernel_initializer='orthogonal')
layers.Dense(32, kernel_initializer=tf.keras.initializers.glorot_normal)
layers.Dense(32, kernel_regularizer=tf.keras.regularizers.l2(0.01))
layers.Dense(32, kernel_regularizer=tf.keras.regularizers.l1(0.01))

3.訓(xùn)練和評(píng)估

3.1設(shè)置訓(xùn)練流程

構(gòu)建好模型后,通過(guò)調(diào)用 compile 方法配置該模型的學(xué)習(xí)流程:

model = tf.keras.Sequential()
model.add(layers.Dense(32, activation='relu'))
model.add(layers.Dense(32, activation='relu'))
model.add(layers.Dense(10, activation='softmax'))
model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
       loss=tf.keras.losses.categorical_crossentropy,
       metrics=[tf.keras.metrics.categorical_accuracy])

3.2輸入Numpy數(shù)據(jù)

import numpy as np

train_x = np.random.random((1000, 72))
train_y = np.random.random((1000, 10))

val_x = np.random.random((200, 72))
val_y = np.random.random((200, 10))

model.fit(train_x, train_y, epochs=10, batch_size=100,
     validation_data=(val_x, val_y))

3.3tf.data輸入數(shù)據(jù)

dataset = tf.data.Dataset.from_tensor_slices((train_x, train_y))
dataset = dataset.batch(32)
dataset = dataset.repeat()
val_dataset = tf.data.Dataset.from_tensor_slices((val_x, val_y))
val_dataset = val_dataset.batch(32)
val_dataset = val_dataset.repeat()

model.fit(dataset, epochs=10, steps_per_epoch=30,
     validation_data=val_dataset, validation_steps=3)

3.4評(píng)估與預(yù)測(cè)

test_x = np.random.random((1000, 72))
test_y = np.random.random((1000, 10))
model.evaluate(test_x, test_y, batch_size=32)
test_data = tf.data.Dataset.from_tensor_slices((test_x, test_y))
test_data = test_data.batch(32).repeat()
model.evaluate(test_data, steps=30)
# predict
result = model.predict(test_x, batch_size=32)
print(result)

4.構(gòu)建高級(jí)模型

4.1函數(shù)式api

tf.keras.Sequential 模型是層的簡(jiǎn)單堆疊,無(wú)法表示任意模型。使用 Keras 函數(shù)式 API 可以構(gòu)建復(fù)雜的模型拓?fù)?,例如?/p>

多輸入模型,

多輸出模型,

具有共享層的模型(同一層被調(diào)用多次),

具有非序列數(shù)據(jù)流的模型(例如,殘差連接)。

使用函數(shù)式 API 構(gòu)建的模型具有以下特征:

層實(shí)例可調(diào)用并返回張量。


輸入張量和輸出張量用于定義 tf.keras.Model 實(shí)例。


此模型的訓(xùn)練方式和 Sequential 模型一樣。

input_x = tf.keras.Input(shape=(72,))
hidden1 = layers.Dense(32, activation='relu')(input_x)
hidden2 = layers.Dense(16, activation='relu')(hidden1)
pred = layers.Dense(10, activation='softmax')(hidden2)

model = tf.keras.Model(inputs=input_x, outputs=pred)
model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
       loss=tf.keras.losses.categorical_crossentropy,
       metrics=['accuracy'])
model.fit(train_x, train_y, batch_size=32, epochs=5)

4.2模型子類化

通過(guò)對(duì) tf.keras.Model 進(jìn)行子類化并定義您自己的前向傳播來(lái)構(gòu)建完全可自定義的模型。在 init 方法中創(chuàng)建層并將它們?cè)O(shè)置為類實(shí)例的屬性。在 call 方法中定義前向傳播

class MyModel(tf.keras.Model):
  def __init__(self, num_classes=10):
    super(MyModel, self).__init__(name='my_model')
    self.num_classes = num_classes
    self.layer1 = layers.Dense(32, activation='relu')
    self.layer2 = layers.Dense(num_classes, activation='softmax')
  def call(self, inputs):
    h2 = self.layer1(inputs)
    out = self.layer2(h2)
    return out
  
  def compute_output_shape(self, input_shape):
    shape = tf.TensorShapej(input_shape).as_list()
    shape[-1] = self.num_classes
    return tf.TensorShape(shape)

model = MyModel(num_classes=10)
model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
       loss=tf.keras.losses.categorical_crossentropy,
       metrics=['accuracy'])

model.fit(train_x, train_y, batch_size=16, epochs=5)

4.3自定義層

通過(guò)對(duì) tf.keras.layers.Layer 進(jìn)行子類化并實(shí)現(xiàn)以下方法來(lái)創(chuàng)建自定義層:

build:創(chuàng)建層的權(quán)重。使用 add_weight 方法添加權(quán)重。

call:定義前向傳播。

compute_output_shape:指定在給定輸入形狀的情況下如何計(jì)算層的輸出形狀。
或者,可以通過(guò)實(shí)現(xiàn) get_config 方法和 from_config 類方法序列化層。

class MyLayer(layers.Layer):
  def __init__(self, output_dim, **kwargs):
    self.output_dim = output_dim
    super(MyLayer, self).__init__(**kwargs)
  
  def build(self, input_shape):
    shape = tf.TensorShape((input_shape[1], self.output_dim))
    self.kernel = self.add_weight(name='kernel1', shape=shape,
                  initializer='uniform', trainable=True)
    super(MyLayer, self).build(input_shape)
  
  def call(self, inputs):
    return tf.matmul(inputs, self.kernel)

  def compute_output_shape(self, input_shape):
    shape = tf.TensorShape(input_shape).as_list()
    shape[-1] = self.output_dim
    return tf.TensorShape(shape)

  def get_config(self):
    base_config = super(MyLayer, self).get_config()
    base_config['output_dim'] = self.output_dim
    return base_config

  @classmethod
  def from_config(cls, config):
    return cls(**config)
  
model = tf.keras.Sequential(
[
  MyLayer(10),
  layers.Activation('softmax')
])


model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
       loss=tf.keras.losses.categorical_crossentropy,
       metrics=['accuracy'])

model.fit(train_x, train_y, batch_size=16, epochs=5)

4.3回調(diào)

callbacks = [
  tf.keras.callbacks.EarlyStopping(patience=2, monitor='val_loss'),
  tf.keras.callbacks.TensorBoard(log_dir='./logs')
]
model.fit(train_x, train_y, batch_size=16, epochs=5,
     callbacks=callbacks, validation_data=(val_x, val_y))

5保持和恢復(fù)

5.1權(quán)重保存

model = tf.keras.Sequential([
layers.Dense(64, activation='relu'),
layers.Dense(10, activation='softmax')])

model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
       loss='categorical_crossentropy',
       metrics=['accuracy'])

model.save_weights('./weights/model')
model.load_weights('./weights/model')
model.save_weights('./model.h6')
model.load_weights('./model.h6')

5.2保存網(wǎng)絡(luò)結(jié)構(gòu)

# 序列化成json
import json
import pprint
json_str = model.to_json()
pprint.pprint(json.loads(json_str))
fresh_model = tf.keras.models.model_from_json(json_str)


# 保持為yaml格式 #需要提前安裝pyyaml

yaml_str = model.to_yaml()
print(yaml_str)
fresh_model = tf.keras.models.model_from_yaml(yaml_str)

5.3保存整個(gè)模型

model = tf.keras.Sequential([
 layers.Dense(10, activation='softmax', input_shape=(72,)),
 layers.Dense(10, activation='softmax')
])
model.compile(optimizer='rmsprop',
       loss='categorical_crossentropy',
       metrics=['accuracy'])
model.fit(train_x, train_y, batch_size=32, epochs=5)
model.save('all_model.h6')
model = tf.keras.models.load_model('all_model.h6')

6.將keras用于Estimator

Estimator API 用于針對(duì)分布式環(huán)境訓(xùn)練模型。它適用于一些行業(yè)使用場(chǎng)景,例如用大型數(shù)據(jù)集進(jìn)行分布式訓(xùn)練并導(dǎo)出模型以用于生產(chǎn)

model = tf.keras.Sequential([layers.Dense(10,activation='softmax'),
             layers.Dense(10,activation='softmax')])

model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
       loss='categorical_crossentropy',
       metrics=['accuracy'])

estimator = tf.keras.estimator.model_to_estimator(model)

看完上述內(nèi)容,你們掌握如何在tensorflow2.0中使用Keras的方法了嗎?如果還想學(xué)到更多技能或想了解更多相關(guān)內(nèi)容,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝各位的閱讀!

網(wǎng)站標(biāo)題:如何在tensorflow2.0中使用Keras-創(chuàng)新互聯(lián)
分享地址:http://bm7419.com/article44/ddjhee.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站制作、網(wǎng)站收錄手機(jī)網(wǎng)站建設(shè)、定制網(wǎng)站、營(yíng)銷型網(wǎng)站建設(shè)、網(wǎng)站維護(hù)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

手機(jī)網(wǎng)站建設(shè)