Upgrade to Pro — share decks privately, control downloads, hide ads and more …

OCI技術資料 : ストレージ詳細

OCI技術資料 : ストレージ詳細

OCIの技術説明資料 ストレージサービスの 詳細編 (Level 200) です。

ローカルNVMeの性能、ブロック・ボリュームの性能、ボリューム・グループ、ファイル・ストレージの性能、などについて解説しています。

2020/6/12 初版をアップロード
2020/12/9 フォーマット更新/追加機能に関する説明追加
2024/01/17 ファイルストレージの性能の箇所変更
2024/03/25 ファイルストレージの性能のTypo修正

More Decks by Oracle Cloud Infrastructure ソリューション・エンジニア

Other Decks in Technology

Transcript

  1. Dense I/Oシェイプのインスタンスに内蔵されたローカルNVMeデバイス • ストレージの性能要件が非常に高いワークロード向け(HPCなど) • 最大 51.2 TB、300万 IOPS、100 マイクロ秒以下のレイテンシー

    ローカル NVMe SSD デバイス Copyright © 2024, Oracle and/or its affiliates 5 [opc@nvme ~]$ lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT nvme0n1 259:0 0 5.8T 0 disk nvme1n1 259:3 0 5.8T 0 disk nvme2n1 259:1 0 5.8T 0 disk nvme3n1 259:2 0 5.8T 0 disk nvme4n1 259:5 0 5.8T 0 disk nvme5n1 259:6 0 5.8T 0 disk nvme6n1 259:4 0 5.8T 0 disk nvme7n1 259:7 0 5.8T 0 disk sda 8:0 0 46.6G 0 disk ├─sda2 8:2 0 8G 0 part [SWAP] ├─sda3 8:3 0 38.4G 0 part / └─sda1 8:1 0 200M 0 part /boot/efi インスタンス シェイプ ローカル NVMeデバイス Minimum Supported IOPS VM.DenseIO2.8 6.4 TB (1ドライブ) 206k VM.DenseIO2.16 12.8 TB (2ドライブ) 420k VM.DenseIO2.24 25.6 TB (4ドライブ) 843k BM.DenseIO2.52 51.2 TB (8ドライブ) 1.67MM
  2. ローカルNVMe障害時の対応 Copyright © 2024, Oracle and/or its affiliates 6 •

    ローカルNVMe SSDについては、OCI はデバイスのRAID、スナップショット、バックアップなどの機能を提供しません。 ローカルNVMe上のデータの耐久性についてはユーザー自身が実装の責任を持ちます。 • インスタンス稼働中にNVMeデバイス障害が起きた場合 • 同等以上のストレージ容量を持った別のインスタンスを起動し、手動でデータをコピーして古いインスタンスからリプ レースを行う。 • rsyncなどのツールを利用して大量データをコピー - インスタンス間の接続は10Gb/sec • 障害発生したデバイスを残したままだとアレイは保護されていない状態なので、二次障害発生時に対応ができな い。即座に対象インスタンスからデータを抽出しておく必要がある。
  3. ローカルNVMeの性能 Copyright © 2024, Oracle and/or its affiliates 7 BM.DenseIO2.52シェイプでのcloud

    harmonyのテスト結果 単体NVMeデバイスに対するRead/Writeミックスワークロード: 約 500K IOPS 弱 (50/50) # run.sh --target=/dev/nvme1n1 --test=iops --nopurge --noprecondition --fio_direct=1 --fio_size=10g --skip_blocksize 512b --skip_blocksize 1m --skip_blocksize 8k --skip_blocksize 16k --skip_blocksize 32k --skip_blocksize 64k -- skip_blocksize 128k
  4. ローカルNVMeの性能 Copyright © 2024, Oracle and/or its affiliates 8 BM.DenseIO2.52シェイプでのcloud

    harmonyのテスト結果 全NVMeデバイスに対するRead/Writeミックスワークロード: 約 3.0MM IOPS (50/50) # run.sh `ls /dev/nvme[0-9]n1 | sed -e 's/¥//¥--target=¥//'` --test=iops --nopurge --noprecondition --fio_direct=1 -- fio_size=10g --skip_blocksize 512b --skip_blocksize 1m --skip_blocksize 8k --skip_blocksize 16k --skip_blocksize 32k -- skip_blocksize 64k --skip_blocksize 128k
  5. ローカル NVMe:Performance SLA Copyright © 2024, Oracle and/or its affiliates

    9 Dense I/Oシェイプに内蔵されたローカルNVMe性能はPerformance SLAの対象 • 各シェイプごとにminimum IOPSがあり、SLA対象となる • ブロックサイズ:4k、100% random writeでのIOPS • ドライブが定常動作状態にあるDense IO シェイプで、100% のランダム書き込みワークロード、4kブロックサイズで測定 • Oracle の Linux シェイプでテストを実行する3rd パーティー ベンチマークスイート • https://github.com/cloudharmony/block-storage • SLA:https://cloud.oracle.com/en_US/iaas/sla インスタンス シェイプ ローカル NVMeデバイス Minimum Supported IOPS VM.DenseIO2.8 6.4 TB (1ドライブ) 206k VM.DenseIO2.16 12.8 TB (2ドライブ) 420k VM.DenseIO2.24 25.6 TB (4ドライブ) 843k BM.DenseIO2.52 51.2 TB (8ドライブ) 1.67MM
  6. 高速ブロック・ストレージ基盤 NVMe SSD をベースにしたストレージ・インフラストラクチャー • 1ボリューム当たりの容量: 50 GB – 32

    TB (1GB単位) • 1インスタンス当たり、最大32個までアタッチ可能 (合計1PB) 冗長化された永続ブロック・ストレージ • iSCSI もしくは 準仮想化接続 インスタンスのライフサイクルに依存せずに利用可能 • アタッチをはずしてもデータは永続 • 必要に応じてボリュームを追加したり別インスタンスにアタッチすることも可能 デフォルトで暗号化 ユースケース • 永続的で耐久性のある汎用ストレージとして利用 • インスタンスのストレージ拡張 • インスタンスのスケーリング ブロック・ボリューム Copyright © 2024, Oracle and/or its affiliates 12 競合他社の標準ストレージ価格で オラクルは高性能ストレージを提供 コンピュート インスタンス ブート ボリューム ブロック・ボ リューム ブロック・ボ リューム ブロック・ボ リューム アタッチ コンピュート インスタンス デタッチ Block Storage
  7. ボリューム・グループ Copyright © 2024, Oracle and/or its affiliates 13 ボリューム・グループ

    • バックアップおよびクローニングの目的で単一エンティティとして扱うことのできるブロック・ストレージ・ボリュームのセット - ブート・ボリュームもブロック・ボリュームも含めることが可能 • アプリケーション全体で一貫性のあるバックアップやクローンの取得 - アプリケーション全体で同じ時点のバックアップ/クローン - 個々のボリュームと同じバックアップ/リストアおよびクローンを実行可能 - 現時点ではスケジュール・バックアップはサポートされていない • デフォルトで最大32個のボリューム、合計128TB • 単一のアベイラビリティ・ドメイン内で有効 OCI Region Availability Domain 1 Object Storage バック アップ バックアップ Boot Boot Boot ボリューム グループ Web Server AP Server 1 AP Server 2 Block Volume Block Volume Block Volume
  8. 複数インスタンスでの共有可能Read/Writeブロック・ボリュームのアタッチ Copyright © 2024, Oracle and/or its affiliates 16 •

    同一AD内の複数のコンピュート・インスタンスから一つのブロック・ボリュームをread/writeモードで同時に アタッチすることが可能。 • インスタンスへのアタッチ時にアクセス方法を以下から選択 • 読取り/書込み • 読取り/書込み – 共有可能 • 読取り専用 – 共有可能 • 「読取り/書込み - 共有可能(read/write – sharable)」を選択する場合 • 複数からの同時書き込みによるデータ破損を防止するために、必ずユーザー側でなんらかのク ラスタ・ソフトウェアやクラスタ・ファイルシステムを導入する必要がある。 • 同時書込み操作の制御はOCI側では実施しません。 • 注)OCI上でのOracle RACは、これまでどおりOCI Database、ExaCS、ADBなど のPaaSのみでのサポート。IaaS上でのRACはサポートされません。 ブロック ボリューム クラスタウェア or クラスタファイルシステム
  9. 参考)OCI上のクラスタウェア製品に関して Copyright © 2024, Oracle and/or its affiliates 17 OCIのドキュメント上に記載されているクラスタシステム・ソリューションには、以下のような製品があります。

    https://docs.cloud.oracle.com/ja-jp/iaas/Content/Block/Tasks/attachingvolumetomultipleinstances.htm - Oracle Cluster File System version 2 (OCFS2) - BeeGFS - Lustre - IBM Spectrum Scale (GPFS) その他にも、OCIに対応頂いているクラスタウェア製品として、以下のような製品があります。 - CLUSTERPRO X (NEC社製品):https://jpn.nec.com/clusterpro/blog/20200602.html - LifeKeeper (SIOS Technology社製品):https://sios.jp/products/lkdk/info/oracle_cloud_ha.html
  10. ブロック・ボリュームの性能 Copyright © 2024, Oracle and/or its affiliates 18 •

    ブロック・ボリュームの性能 • IOPS • スループット • レイテンシー • ブロック・ボリュームはNVMeベースのストレージ基盤で実装されている • ボリュームのサイズに応じて性能もスケール(最大値はあり) • VMインスタンスで利用する際のスループットはボリュームの帯域だけではなく、インスタンスのネットワーク 帯域にも依存 • IOPS性能はインスタンスのタイプやシェイプとは関係ないため、iSCSIアタッチしたすべてのシェイプで享受 可能
  11. ブロック・ボリュームの性能 Copyright © 2024, Oracle and/or its affiliates 19 ブロックボリュームは性能別に4タイプから選択可能

    • より低いコスト / バランス (デフォルト) / より高いパフォーマンス / 超高性能(UHP) • 作成時、あるいは作成後に変更可能 • ブート・ボリュームではより低いコストを選択できない 価格: {容量単価(¥3.57) + (VPU単価(¥0.238) x タイプ別VPU数) } x GB (2022年12月現在) より低いコスト バランス より高いパフォーマンス 超高性能(UHP) 用途 コスト最適型でシーケンシャルIOの スループット重視のワークロード向 け ランダムIOを実行する様々なワー クロードに最適なバランス型 UHPレベルのパフォーマンスを 必要としない高I/O要件の ワークロード向け I/O要件が非常に高く、最大 限のパフォーマンスを必要とす るワークロード向け IOPS 2 IOPS/GB (最大3000 IOPS/volume) 60 IOPS/GB (最大25,000 IOPS/volume) 75 IOPS/GB (最大50,000 IOPS/volume) 90~225 IOPS/GB (最大300,000 IOPS/volume) スループット 240 KB/s/GB (最大 480 MB/s/volume) 480 KB/s/GB (最大 480 MB/s/volume) 600 KB/s/GB (最大 680 MB/s/volume) 720 ~ 1800 KBPS/GB (最大 2,680 MB/秒 MB/s/volume) Performance SLA No Yes Yes Yes VPU 0 10 20 30~120 (10刻み) 価格 (ストレージ+VPU) ¥3.57/GB-month ¥5.95/GB-month ¥8.33/GB-month ¥10.71 ~ ¥32.13
  12. デタッチ済ボリューム自動チューニング Copyright © 2024, Oracle and/or its affiliates 21 •

    利用されていないボリュームのコストを最小に抑えることが可能 • ボリュームに対してデタッチ済ボリューム自動チューニングをONにすると、インスタンスにアタッチされている時は選択したデ フォルトのパフォーマンスタイプに、デタッチされている時はより低いコストに自動調整される • デタッチ済ボリューム自動チューニングは、設定を行ったりインスタンスからデタッチしてから14日後にスタート
  13. ブロック・ボリュームの性能 (Ultra Higher Performance) Copyright © 2024, Oracle and/or its

    affiliates 22 • 120VPUのボリューム・サイズに基づいたスループットとIOPSの数値 Volume Size Max Throughput (1 MB block size) Max Throughput (8 KB block size) Max IOPS (4 KB block size) 50 GB 90MB/s 45MB/s 11,500 100 GB 60 MB/s 60 MB/s 23,000 200 GB 120 MB/s 96 MB/s 15,000 300 GB 180 MB/s 180 MB/s 22,500 400 GB 240 MB/s 240 MB/s 30,000 500 GB 300 MB/s 280 MB/s 35,000 800 GB - 32 TB 480 MB/s 280 MB/s 35,000 1ボリューム当たり IOPS - 225 IOPS/GB 最大300,000 IOPS スループット - 1,800 KBPS/GB 最大2,680 MBPS
  14. ブロック・ボリュームの性能 (Higher Performance) Copyright © 2024, Oracle and/or its affiliates

    23 Volume Size Max Throughput (1 MB block size) Max Throughput (8 KB block size) Max IOPS (4 KB block size) 50 GB 30 MB/s 30 MB/s 3750 100 GB 60 MB/s 60 MB/s 7500 200 GB 120 MB/s 96 MB/s 15,000 300 GB 180 MB/s 180 MB/s 22,500 400 GB 240 MB/s 240 MB/s 30,000 500 GB 300 MB/s 280 MB/s 35,000 800 GB - 32 TB 480 MB/s 280 MB/s 35,000 1ボリューム当たり IOPS - 75 IOPS/GB 最大50,000 IOPS スループット - 600 KBPS/GB 最大680 MBPS
  15. ブロック・ボリュームの性能 (Balanced) Copyright © 2024, Oracle and/or its affiliates 24

    Volume Size Max Throughput (1 MB block size) Max Throughput (8 KB block size) Max IOPS (4 KB block size) 50 GB 24 MB/s 24 MB/s 3000 100 GB 48 MB/s 48 MB/s 6000 200 GB 96 MB/s 96 MB/s 12,000 300 GB 144 MB/s 144 MB/s 18,000 400 GB 192 MB/s 192 MB/s 24,000 500 GB 240 MB/s 200 MB/s 25,000 750 GB 360 MB/s 200 MB/s 25,000 1 TB - 32 TB 480 MB/s 200 MB/s 25,000 1ボリューム当たり IOPS - 60 IOPS/GB 最大25,000 IOPS スループット - 480 KBPS/GB 最大480 MBPS
  16. ブロック・ボリュームの性能 (Lower Cost) Copyright © 2024, Oracle and/or its affiliates

    25 1ボリューム当たり IOPS - 2 IOPS/GB 最大3,000 IOPS スループット - 240 KBPS/GB 最大480 MBPS Volume Size Max Throughput (1 MB block size) Max Throughput (8 KB block size) Max IOPS (4 KB block size) 50 GB 12 MB/s 0.8 MB/s 100 100 GB 24 MB/s 1.6 MB/s 200 200 GB 48 MB/s 3.2 MB/s 400 300 GB 72 MB/s 4.8 MB/s 600 400 GB 96 MB/s 6.4 MB/s 800 500 GB 120 MB/s 8 MB/s 1000 750 GB 180 MB/s 12 MB/s 1500 1 TB 240 MB/s 16 MB/s 2000 1.5 TB - 32 TB 480 MB/s 23 MB/s 3000
  17. ブロック・ボリュームの性能詳細 Copyright © 2024, Oracle and/or its affiliates 26 単体ボリュームのスループット測定用FIOコマンドサンプル

    Read-only: # sudo fio --direct=1 --ioengine=libaio --size=10g --bs=4k --runtime=60 --numjobs=8 --iodepth=64 -- time_based --rw=randread --group_reporting --filename=/dev/sdb --name=iops-test Write-only: # sudo fio --direct=1 --ioengine=libaio --size=10g --bs=4k --runtime=60 --numjobs=8 --iodepth=64 -- time_based --rw=randwrite --group_reporting --filename=/dev/sdb --name=iops-test Read/write Mix: # sudo fio --direct=1 --ioengine=libaio --size=10g --bs=4k --runtime=60 --numjobs=8 --iodepth=64 -- time_based --rw=randrw --group_reporting --filename=/dev/sdb --name=iops-test Note: In read/write case, you need to add the read result and write result for duplex traffic. Also, please note that all volumes attached to an instance share the same network bandwidth with the instance. If there is heavy network traffic or other volumes are under I/O pressure, the apparent performance of single volume may look degraded
  18. ブロック・ボリュームの性能測定方法詳細 Copyright © 2024, Oracle and/or its affiliates 27 ブロック・ボリューム・サービスの性能測定方法や特長については下記ドキュメント参照

    • https://blogs.oracle.com/cloud-infrastructure/block-volume-performance-analysis • https://docs.cloud.oracle.com/iaas/Content/Block/Concepts/blockvolumeperformance.htm • http://www.storagereview.com/oracle_cloud_infrastructure_compute_bare_metal_instances _review 注意点 • テスト前にはデータやOS環境のバックアップを取得すること • フォーマット済みディスクにデータが格納されている場合FIOのwriteワークロードでデータ破損が発生するため、利用中のデバイスに直 接(/dev/sdX に対して) FIOテストを実行しないこと。 • FIOは利用されていないRawデバイスに対してのみ実行すること
  19. エンタープライズレベルの共有ファイル用ストレージ フルマネージドで、簡単にデプロイ可能なNFS v3共有ファイルストレージ • 数キロバイトから8エクサバイトまで • 使った分だけ課金 (¥42 /GB/month) 機能

    • NFS v3、 POSIX準拠、Network Lock Management (NLM) • スナップショット機能 • 1ファイルシステムあたり最大10,000個のスナップショット • デフォルトで暗号化 • 新規作成されたファイルシステム上ではAES 256で暗号化 • 管理コンソール、API/CLI、Terraform • テナンシごとに1AD内で最大100ファイルシステムと 2マウントポイント(Pay-as-You-Goの場合)/ 6マウントポイント(前払い:Monthly Flex/Annual Flexの場合) ストレージ: ファイル・ストレージ Copyright © 2024, Oracle and/or its affiliates 30 ・・・ インスタンス NFSマウント ファイル・ストレージ
  20. ファイル・ストレージの性能 Copyright © 2024, Oracle and/or its affiliates 31 ファイル・ストレージの性能を向上させるには一つのファイルシステムに複数のマウントターゲットをアサインしてトラフィックを分

    散させる • 性能の詳細はFile Storage Performance Guideを参照のこと • https://docs.cloud.oracle.com/iaas/Content/Resources/Assets/whitepapers/file-storage- performance-guide.pdf
  21. • リージョン: eu-frankfurt-1/AD3 • データセットサイズ: 4TiB • マウントターゲット: 1つマウントターゲット(タイプ: Regular)を1つのインスタンスにアタッチして、同じファイルシステムに8

    つのマウントターゲットをアサインする • インスタンス詳細 • コマンド(fioコマンドの使用) $ fio --name=read_throughput --directory=/fss --numjobs=8 -size=8G --time_based --runtime=180 -- ioengine=libaio --direct=1 --verify=0 --bs=$IOSIZE --iodepth=32 --rw=randread --group_reporting=1 $ fio --name=write_throughput --directory=/fss --numjobs=8 -size=8G --time_based --runtime=180 – ioengine=libaio –direct=1 –verify=0 –bs=$IOSIZE –iodepth=32 –rw=randwrite –group_reporting=1 ファイル・ストレージの性能テスト環境の詳細 Copyright © 2024, Oracle and/or its affiliates 32 インスタンス シェイプ サイズ メモリ ネットワーク帯域 OS OCI VM × 8 VM.Standard2 16 240 GB 16 Gbps Oracle Linux 8
  22. 33 Copyright © 2024, Oracle and/or its affiliates ファイル・ストレージの性能テスト結果の詳細(読取り) •

    読取りの場合(I/Oサイズ32KiB) • 読取りの場合(I/Oサイズ1MiB) I/Oサイズ マウントターゲットの 数 1つのマウントター ゲットあたりのRead のIOPS 全体のRead 一つのマウントター ゲットあたりの平均ス ループット(MB/S) 合計スループット (MB/s) 32 KiB 1 25018 25018 819 819 32 KiB 2 25057 50115 820 1640 32 KiB 4 25056 100226 818 3279 32 KiB 8 24444 195554 800 6402 I/Oサイズ マウントターゲットの 数 1つのマウントター ゲットあたりのRead のIOPS 全体のRead 一つのマウントター ゲットあたりの平均ス ループット(MB/S) 合計スループット (MB/s) 1 MiB 1 937 937 983 983 1 MiB 2 964 1929 1008 2016 1 MiB 4 955 3923 990 3960 1 MiB 8 949 7594 990 7918 参照:https://docs.cloud.oracle.com/iaas/Content/Resources/Assets/whitepapers/file-storage-performance-guide.pdf
  23. 34 Copyright © 2024, Oracle and/or its affiliates ファイル・ストレージの性能テスト結果の詳細(書き込み) •

    書き込みの場合(I/Oサイズ32KiB) • 書き込みの場合(I/Oサイズ1MiB) I/Oサイズ マウントターゲットの 数 1つのマウントター ゲットあたりのWrite のIOPS 全体のWrite 一つのマウントター ゲットあたりの平均ス ループット(MB/S) 合計スループット (MB/s) 32 KiB 1 12580 12580 412 412 32 KiB 2 12575 25151 412 824 32 KiB 4 12580 50321 412 1648 32 KiB 8 12574 100599 411 3295 I/Oサイズ マウントターゲットの 数 1つのマウントター ゲットあたりのWrite のIOPS 全体のWrite 一つのマウントター ゲットあたりの平均ス ループット(MB/S) 合計スループット (MB/s) 1 MiB 1 761 761 799 799 1 MiB 2 761 1523 799 1598 1 MiB 4 761 3046 799 3196 1 MiB 8 761 6093 799 6392 参照:https://docs.cloud.oracle.com/iaas/Content/Resources/Assets/whitepapers/file-storage-performance-guide.pdf
  24. ファイル・ストレージの性能のパフォーマンス Copyright © 2024, Oracle and/or its affiliates 35 •

    ファイル・ストレージの性能のパフォーマンスの考慮点 • ファイルシステムに格納されているデータ量に関係なく0バイトから性能を出すことができる • 性能は並列処理で向上するため、複数スレッドや複数クライアント、あるいは複数のマウント・ターゲットを利用する ことにより同時実行数を増やす • インスタンス側のNICの帯域幅を広くする • ベストな性能を引き出すためには、マウント時にrsizeやwsizeなどのマウントオプションは設定しないこと。システム が自動的に最適なウィンドウサイズをネゴシエートする。 • Parallel File Tools for File Storage • https://docs.oracle.com/ja-jp/iaas/Content/File/Tasks/using_file_storage_parallel_tools.htm
  25. EBSリファレンス・アーキテクチャー – ファイル・ストレージ・サービス Copyright © 2024, Oracle and/or its affiliates

    38 • Oracle E-Business Suiteアプリケーショ ン層を複数ノードにデプロイする際、共有も しくは非共有のファイルシステムを持つことが 可能 • OCIのファイル・ストレージ・サービスは Oracle E-Business Suiteアプリケーショ ン層のファイルシステムで必要とされる共有 ディスクリソースとして利用することが可能。 • 参考 • https://blogs.oracle.com/cloud- infrastructure/post/ebs-fss- deployment-configuration-best- practices
  26. Copyright © 2024, Oracle and/or its affiliates 39 ファイル・ストレージ Windows

    OSからのファイル・ストレージ・サービス利用 Using File Storage Service on Windows OS
  27. • OCI のファイル・ストレージ・サービスの対応プロトコルは NFS (v3) • Windows OS における主なファイル共有プロトコルは SMB/CIFS

    であり、 NFSの利用に当たっては、NFS Client のインストールが必要。 • ただし、NFSにおけるアクセス制御の考え方との違い等については要考慮。 ※NFS v3では、SMB/CIFS のようなユーザーベースでのアクセス制御ではなく、ホストベースでのアクセス制御となる。 Windows OS におけるファイル共有プロトコルとの違い Copyright © 2024, Oracle and/or its affiliates 40 ファイルタイプ 所有者 グループ その他のユーザー - / d / l r w x r w x r w x 読 取 り 書 込 み 実 行 読 取 り 書 込 み 実 行 読 取 り 書 込 み 実 行 ファイル・ストレージ・サービスは POSIX準拠 のアクセス制御 ≒ Linux におけるアクセス制御の考え方
  28. 方法1:Windows Server のレジストリを編集してアクセスする (1) Windows サーバーにて、「NFS Client」 をインストールし、 レジストリ・エディタを変更する (2)

    ファイル・システムのマウント Windows OS からのファイル・ストレージ(NFSv3) 利用 Copyright © 2024, Oracle and/or its affiliates 41 Oracle Cloud Infrastructure Availability Domain 1 Subnet A 10.0.10.0/24 Subnet B 10.0.20.0/24 VCN Windows Server File Storage Install-WindowsFeature -Name NFS-Client Set-ItemProperty HKLM:¥SOFTWARE¥Microsoft¥ClientForNFS¥CurrentVersion¥Default -Name AnonymousUid -Value 0 Set-ItemProperty HKLM:¥SOFTWARE¥Microsoft¥ClientForNFS¥CurrentVersion¥Default -Name AnonymousGid -Value 0 Stop-Service -Name NfsClnt Restart-Service -Name NfsRdr Start-Service -Name NfsClnt mount 10.x.x.x:/fs-export-path X: https://docs.oracle.com/en-us/iaas/Content/File/Tasks/mountingwindowsos.htm レジストリにて AnonymousUid/ AnonymousGid の値を直接編集する場合、 そのクライアント端末からのアクセスは、全て同じユーザーからの操作として扱われる (=ユーザーベースでのアクセス制御はできない) root (Uid:0) Anonymousユーザー User A User B
  29. 方法2:Windows Server の各ユーザーを “Linux ユーザーにマッピング” して利用する (1) Windows サーバーにて、「NFS Client」

    をインストール (2) Linuxにおけるユーザー情報(/etc/passwd)、グループ情報(/etc/group) の記 述 に則り、ファイル・システムの利用者とそのグループを定義したファイルを作成 例:windows サーバー上の 管理者グループに所属する sampleuser に対して、 root ユーザー をマッピングする場合※1 (3) (2) で作成した各ファイル (passwdファイル、groupファイル) を、Windows サー バー の「%SystemRoot%¥system32¥drivers¥etc¥」フォルダに配置 (4) Windows サーバーの再起動 (5) Windows サーバーにて、ファイル・システムをマウント Windows OS からのファイル・ストレージ(NFSv3) 利用 Copyright © 2024, Oracle and/or its affiliates 42 Install-WindowsFeature -Name NFS-Client mount 10.x.x.x:/fs-export-path X: BUILTIN¥Administrators:x:0: group ファイル sampleuser:x:0:0:root:/root:/bin/bash passwd ファイル ※1:ファイル・ストレージ・サービスのファイル・システム作成直後は、root ユーザーのみ 書込み権限を持つ。 その他のユーザーについては必要に応じて、アクセス権の設定を行った上でマッピングを行う。 レジストリを直接変更する場合と異なり、クライアント端末内のユーザーごとの制御は可能 Oracle Cloud Infrastructure Availability Domain 1 Subnet A 10.0.10.0/24 Subnet B 10.0.20.0/24 VCN Windows Server File Storage User A User B root (Uid:0) userb (Uid:1001)
  30. (参考)各ユーザーを Linux ユーザーにマッピングした場合のファイルの見え方 Copyright © 2024, Oracle and/or its affiliates

    43 ユーザーA を Linuxユーザー(UID:1000) に マッピングし、作成したファイルのプロパティ ユーザーB を Linuxユーザー(UID:1002) に マッピングし、作成したファイルのプロパティ
  31. 日本語マニュアル – NVMeデバイスでのデータ保護 • https://docs.oracle.com/cd/E97706_01/Content/Compute/References/nvmedeviceinformation.htm 日本語マニュアル – コンピュート・パフォーマンス • https://docs.oracle.com/cd/E97706_01/Content/Compute/Concepts/computeperformance.htm

    日本語マニュアル – ブロック・ボリューム • https://docs.oracle.com/cd/E97706_01/Content/Block/Concepts/overview.htm 日本語マニュアル – ファイル・ストレージ • https://docs.oracle.com/cd/E97706_01/Content/File/Concepts/filestorageoverview.htm ストレージ 関連の技術情報 Copyright © 2024, Oracle and/or its affiliates 46
  32. Oracle Cloud Infrastructure マニュアル (日本語 / 英語) • https://docs.cloud.oracle.com/iaas/api/ -

    APIリファレンス • https://docs.cloud.oracle.com/ja-jp/iaas/Content/General/Reference/aqswhitepapers.htm - テクニカ ル・ホワイト・ペーパー • https://docs.cloud.oracle.com/iaas/releasenotes/ - リリースノート • https://docs.cloud.oracle.com/ja-jp/iaas/Content/knownissues.htm - 既知の問題(Known Issues) • https://docs.cloud.oracle.com/ja-jp/iaas/Content/General/Reference/graphicsfordiagrams.htm - OCIアイコン・ダイアグラム集(PPT、SVG、Visio用) ※ 日本語版は翻訳のタイムラグのため情報が古い場合があります。最新情報は英語版をご確認ください Oracle Cloud Infrastructure マニュアル・ドキュメント Copyright © 2024, Oracle and/or its affiliates 47
  33. Oracle Cloud Infrastructure 活用資料集 • https://oracle-japan.github.io/ocidocs/ チュートリアル - Oracle Cloud

    Infrastructureを使ってみよう • https://oracle-japan.github.io/ocitutorials/ Oracle Cloud ウェビナーシリーズ • https://www.oracle.com/goto/ocws-jp Oracle 主催 セミナー、ハンズオン・ワークショップ • https://www.oracle.com/search/events/_/N-2bu/ Oracle Cloud Infrastructure – General Forum (英語) • https://cloudcustomerconnect.oracle.com/resources/9c8fa8f96f/summary Oracle Cloud Infrastructure トレーニング・技術フォーラム Copyright © 2024, Oracle and/or its affiliates 48