Slide 1

Slide 1 text

GPUをフル活⽤するた めの TF.DATA の使い⽅ 板垣 正敏 2019/11/2 Python機械学習勉強会in新潟 & TFUG Niigata 合同勉強会

Slide 2

Slide 2 text

TF.DATAとは︖

Slide 3

Slide 3 text

機械学習モデルへの⼊⼒パ イプライン構築ツール ■ 機械学習モデルにデータを供給するためのパイプラインを 構成する ■ 下記のような操作を⾏う – データの読み込み – データのデコード – データの前処理 – データのシャッフル – データの繰り返し – データのキャッシュ – データのバッチ化

Slide 4

Slide 4 text

tf.data.Datasetとサブクラス ■ tf.data.Dataset – tf.data.TFRecordDataset – tf.data.TextLineDataset – tf.data.FixedLengthDataset

Slide 5

Slide 5 text

tf.data.Dataset ■ from_generator() ■ from_tensor_slices() ■ from_tensors() ■ list_files() ■ apply() ■ batch() ■ cache() ■ concatenate() ■ enumerate() ■ filter() ■ flat_map() ■ interleave() ■ map() ■ options() ■ padded_batch() ■ prefetch() ■ range() ■ reduce() ■ shard() ■ shuffle() ■ skip() ■ take() ■ unbatch() ■ window() ■ with_options() ■ zip()

Slide 6

Slide 6 text

tf.data.TFRecordDataset ■ TFRecord 形式のファイルからデータセットを⽣成 ■ TFRecord 形式はプロトコルバッファ形式の tf.Example を ベースにしたフバイナリファイルフォーマットであり、連 続して効率的にデータを読み込むことを⽬的としている ■ モデルの処理速度に対してデータの読み込みスピードがボ トルネックになるような場合に使⽤すると良い

Slide 7

Slide 7 text

tf.data.TextLineDataset ■ テキストファイルの⾏からデータセットを作成する ■ ⼊⼒として複数のファイルを取ることができる

Slide 8

Slide 8 text

tf.data.FixedLengthRecordDataset ■ 固定⻑のバイナリファイルからデータを読み込む

Slide 9

Slide 9 text

TensorFlow I/Oというのがあ るらしい ■ TensorFlow coreではサポートされないさまざまなデータ ソースからのデーセット⽣成を⾏うライブラリ ■ データソースの例 ■ Apache Ignite, Apache Kafka, Amazon Kinesis, Apache Arrow, WebP and TIFF, LIBSVM, FFmpeg, Apache Parquet, LMDB, MNIST, Google Cloud Pub/Sub, Google Cloud Bigtable, Alibaba Cloud Object Storage Service, Apache Avro, WAV, gRPC server, HDF5, Text file with archive, Pcap, Microsoft Azure Storage, Google Cloud BigQuery, GCS Configuration, Prometheus, DICOM, JSON

Slide 10

Slide 10 text

GPU環境でのベスト プラクティス https://www.tensorflow.org/guide/data_performance より

Slide 11

Slide 11 text

パイプラインが必要な理由 ■ パイプラインがない場合 ■ パイプライン化後(prefetch活⽤)

Slide 12

Slide 12 text

データ変換の並列化 ■ 並列化なし ■ 並列化あり

Slide 13

Slide 13 text

I/Oの並列化 ■ シーケンシャル I/O ■ パラレル I/O

Slide 14

Slide 14 text

処理順序に注意 ■ Map と Batch – Mapによる処理が重い場合には処理をベクトル化してBatch 全体に適⽤できないか考える ■ Map と Cache – メモリに余裕があれば、Map処理後のデータをキャッシュ する ■ Map と Interleave / Prefetch / Shuffle – Mapでデータサイズが変わる場合にはバッファを必要とす る処理との順番を考慮する ■ Repeat と Shuffle – シャッフルの前にリピート ⇒ エポック間のデータが混ざる – リピートの前にシャッフル ⇒ エポックごとにシャッフルの 時間がかかる

Slide 15

Slide 15 text

コーディング例

Slide 16

Slide 16 text

import tensorflow as tf import pathlib import time import random print(tf.__version__) # 画像データのダウンロード data_root_orig = tf.keras.utils.get_file( origin='https://storage.googleapis.com/download.tensorflow.org/example_images/f lower_photos.tgz', fname='flower_photos', untar=True) data_root = pathlib.Path(data_root_orig) # 画像ファイルの⼀覧作成(画像はクラスごとのディレクトリに⼊っている) all_image_paths = list(data_root.glob('*/*')) all_image_paths = [str(path) for path in all_image_paths] random.shuffle(all_image_paths) image_count = len(all_image_paths) 画像分類のサンプル(1/3)

Slide 17

Slide 17 text

# ラベルの取得とインデックス割り当て label_names = sorted(item.name for item in data_root.glob('*/') if item.is_dir()) label_to_index = dict((name, index) for index,name in enumerate(label_names)) all_labels = [path.split('/')[-2] for path in all_image_paths] all_indices = [label_to_index[label] for label in all_labels] # Datasetの設定 AUTOTUNE = tf.data.experimental.AUTOTUNE image_size = (192, 192) batch_size = 40 list_ds = tf.data.Dataset.from_tensor_slices(all_image_paths) # 前処理⽤関数 def load_and_preprocess_image(file_path): image = tf.io.read_file(file_path) image = tf.image.decode_jpeg(image, channels=3) image = tf.image.resize(image, image_size) image = 2 * (image / 255.0) - 1.0 # [0, 255] -> [-1, 1] return image 画像分類のサンプル(2/3)

Slide 18

Slide 18 text

# Datasetの組み⽴て image_ds = list_ds.map(load_and_preprocess_image, num_parallel_calls=AUTOTUNE) indices_ds = tf.data.Dataset.from_tensor_slices(all_indices) ds = list_ds.zip((image_ds, indices_ds)) ¥ .cache() ¥ .shuffle(buffer_size=image_count) ¥ .batch(batch_size) ¥ .prefetch(buffer_size=AUTOTUNE) # モデルの構築 mobile_net = tf.keras.applications.MobileNetV2(input_shape=(192, 192, 3), include_top=False) mobile_net.trainable=False model = tf.keras.Sequential([ mobile_net, tf.keras.layers.GlobalAveragePooling2D(), tf.keras.layers.Dense(len(label_names), activation='softmax')]) # モデルのコンパイル model.compile(loss='sparse_categorical_crossentropy', optimizer='adam', metrics=['acc']) # モデルの訓練 model.fit(ds, epochs=10, verbose=2) 画像分類のサンプル(3/3)

Slide 19

Slide 19 text

# Datasetの組み⽴て image_ds = list_ds.map(load_and_preprocess_image, num_parallel_calls=AUTOTUNE) indices_ds = tf.data.Dataset.from_tensor_slices(all_indices) ds = list_ds.zip((image_ds, indices_ds)) ¥ .cache() ¥ .shuffle(buffer_size=image_count) ¥ .batch(batch_size) ¥ .prefetch(buffer_size=AUTOTUNE) 並列実⾏の多重度を指定 バッファサイズ注意 バッファサイズ注意 核⼼部分の補⾜

Slide 20

Slide 20 text

ベンチマーク

Slide 21

Slide 21 text

実験環境 ■ CPU: Intel(R) Core(TM) i9-9900K CPU @ 3.60GHz ■ Memory: 32GB ■ GPU: NVIDIA GeForce RTX 2080 Ti メモリ11GB ■ OS: Ubuntu Desktop 18.04.2 ■ NVIDIA Driver Version: 418.87.01 CUDA Version: 10.0 ■ Storage: NVMe 480GB ■ docker ce/nvidia-docker2 ■ tensorflow/tensorflow:latest-gpu-py3

Slide 22

Slide 22 text

import tensorflow as tf import pathlib import time print(tf.__version__) # 画像データのダウンロード data_root_orig = tf.keras.utils.get_file( origin='https://storage.googleapis.com/download.tensorflow.org/example_images/ flower_photos.tgz', fname='flower_photos', untar=True) data_root = pathlib.Path(data_root_orig) # ラベルの取得とインデックス割り当て label_names = sorted(item.name for item in data_root.glob('*/') if item.is_dir()) label_to_index = dict((name, index) for index,name in enumerate(label_names)) ⽐較対象︓ tf.keras で ImageDataGeneratorの flow_from_directory を使⽤

Slide 23

Slide 23 text

# ImageDataGeneratorの設定 image_size = (192, 192) batch_size = 40 def rescale_for_mobilenet(input): return 2*(input/255.0) - 1.0 image_data_generator = tf.keras.preprocessing.image.ImageDataGenerator( preprocessing_function=rescale_for_mobilenet) train_generator = image_data_generator.flow_from_directory(data_root, target_size=image_size, batch_size=batch_size) # モデルの構築 mobile_net = tf.keras.applications.MobileNetV2(input_shape=(192, 192, 3), include_top=False) mobile_net.trainable=False model = tf.keras.Sequential([ mobile_net, tf.keras.layers.GlobalAveragePooling2D(), tf.keras.layers.Dense(len(label_names), activation='softmax')]) # モデルのコンパイル model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['acc']) # モデルの訓練 start_time = time.perf_counter() model.fit_generator(train_generator, epochs=10, verbose=2) end_time = time.perf_counter() train_time = end_time - start_time print("Training Time: {} sec.".format(train_time))

Slide 24

Slide 24 text

簡易ベンチマーク結果 構成 学習時間(10エポック) tensorflow/tensorflow :latest-gpu-py3 CUDA 10.0 TensorFlow 2.0.0 nvcr.io/nvidia/tensorflow : 19.09-py3 CUDA 10.1 TensorFlow 1.14.0 Tf.keras + ImageDataGenerator (リサイズ+標準化のみ) 125.22 Sec. 112.45 Sec. 116.36 Sec.(Profiling) Tf.data / map.cache.shuffle.repeat.batch.pr efetch (リサイズ+標準化のみ) 28.462 Sec. 21.653 Sec. 23.128 Sec.(Profiling) Tf.data / map.cache(file).shuffle.repeat.batc h.prefetch (リサイズ+標準化のみ) 28.996 Sec.(1回⽬) 28.594 Sec.(2回⽬) 19.761 Sec.(1回⽬) 19.072 Sec.(2回⽬) Tf.keras + ImageDataGenerator (データ拡張あり) 259.82 Sec. 261.05 Sec 261.81 Sec. (Profiling) Tf.data/map.cache.shuffle.repeat. map(aug).batch.prefetch (データ拡張あり) 24.218 Sec. 20.184 Sec. 22.493 Sec. (Profiling)

Slide 25

Slide 25 text

PROFILING

Slide 26

Slide 26 text

ProfilingでGPUの使⽤状況を 可視化する ■ かつてはnvprofとNVIDIA Visual Profiler(nvvp)が使われて いたが、最近のGPUでは動かないらしい ■ NVIDIA Nsight Systemsを使⽤してプロファイリング ■ https://developer.nvidia.com/nsight-systems ■ ローカルシステムやリモートシステムにSSHで接続しても プロファイリング可能だが、今回はDocker環境のため、 CLIのnsysをDocker内で起動してプロファイルを取得した。

Slide 27

Slide 27 text

tf.keras + ImageDataGenerator

Slide 28

Slide 28 text

tf.data + map.cache.shuffle.repeat.batch.prefetch