Upgrade to Pro — share decks privately, control downloads, hide ads and more …

AZ-305 試験問題サンプル 第十一回

Avatar for Tsubasa Yoshino Tsubasa Yoshino
November 21, 2023
46

AZ-305 試験問題サンプル 第十一回

Avatar for Tsubasa Yoshino

Tsubasa Yoshino

November 21, 2023
Tweet

More Decks by Tsubasa Yoshino

Transcript

  1. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 1 あなたは、Azure でデータ分析ソリューションを設計しています。 このソリューションでは、一連の車両の

    GPS 位置を含むデータを Azure Event Hubs インスタンスから取得し、特定の車両のライブ データを Microsoft Power BI ダッシュボードに送信します。 このデータを処理して Power BI に送信するには、何を使用する必要がありますか? A. Azure Data Factory A. Azure Event Grid A. Azure SQL Database A. Azure Stream Analytics
  2. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 1(ヒント) あなたは、Azure でデータ分析ソリューションを設計しています。 このソリューションでは、一連の車両の

    GPS 位置を含むデータを Azure Event Hubs インスタンスから取得し、特定の車両のライブ データを Microsoft Power BI ダッシュボードに送信します。 このデータを処理して Power BI に送信するには、何を使用する必要がありますか? A. Azure Data Factory A. Azure Event Grid A. Azure SQL Database A. Azure Stream Analytics
  3. ©︎ Techpit,inc All Rights Reserved. 解答 【回答】 D 【解説】 Stream

    Analytics では、ライブストリームを処理してフィルター処理が出来ます。 Azure SQL Database では、データの格納は出来ますが、リアルタイムなデータストリー ミングは出来ません。 Data Factory では、データの変換は出来ますが、継続的なライブジョブは実行されません。 Event Grid は、データの通知等で使用できますが、フィルター処理や、Power BI への直接 のデータ受け渡しはサポートされていません。 その為回答は、D になります。
  4. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 1 あなたは、Azure でデータ分析ソリューションを設計しています。 このソリューションでは、一連の車両の

    GPS 位置を含むデータを Azure Event Hubs インスタンスから取得し、特定の車両のライブ データを Microsoft Power BI ダッシュボードに送信します。 このデータを処理して Power BI に送信するには、何を使用する必要がありますか? A. Azure Data Factory A. Azure Event Grid A. Azure SQL Database A. Azure Stream Analytics 継続的なジョブを実行するのは難しい データのフィルタ処理等をサポートしていない データのストリーミングは出来ない
  5. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 1 Stream Analytics について

    リソースモデル - Stream Analytics ジョブ - ストリーム処理ロジックを定義して実行する基本単位 - 3つのコンポーネントで構成される - コンポーネント - 入力 - 出力 - クエリ - Stream Analytics クラスター - ジョブを実行する為の環境 - マルチテナンシーな環境(Standard)と、クラスター全体を管理できる環境(Dedicated)の二種類がある
  6. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 1 Stream Analytics について

    データソース - Azure Event Hubs - Azure Iot Hub - Azure Blob Storage - Azure Data Lake Storage Gen 2 - SQL Database データの入力方法 - データストリーム入力 - 時間を掛けて受け取る、制約のない一連のイベント - Event Hubs、IoT Hub、Blob、Data Lake Storage Gen 2 がサポートされる - SNS のフィード、株式取引情報、IoT センサのイベントデータ等を処理する用途で利用可能 - 参照データ入力 - 完全に静的 or ゆっくりと変化しているデータ - Blob、Data Lake Storage Gen 2、SQL Database がサポートされる - データストリーム入力のデータを、参照データと結合する事が出来る - イベントデータに、SQL Database 内のマスタデータを統合して出力するような用途で利用可能 - 1ストリーミングユニット辺り、300 MB までのデータセットが利用可能
  7. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 1 Stream Analytics について

    出力 - Azure Data Lake Storage Gen 1 - Azure Data Explorer - Azure Database for PostgresSQL - Azure SQL Database - Azure Synapse Analytics - Blob Storage - Data Lake Storage Gen 2 - Azure Event Hubs - Power BI - Azure Table Storage - Azure Service Bus キュー - Azure Service Bus トピック - Azure Cosmos DB - Azure Functions
  8. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 1 Stream Analytics について

    クエリ - SQL ライクなクエリ言語 - このクエリを使って、リアルタイムな分析ロジックを実装する - 入出力先も、クエリを書いて指定する - ユーザ定義関数を利用して拡張も可能 - サポートされているユーザ定義関数の種類 - JavaScript ユーザ定義関数 - JavaScript を利用したステートレスな計算処理 - JavaScript ユーザ定義集計 - タイムウィンドウを利用して、そのウィンドウ内のイベントを集計、結果を生成するのに利用 - C# ユーザ定義関数 - C# を利用したステートレスな計算処理 - Azure Machine Learning - Azure ML で学習済みのモデルに対してデータを流し、リアルタイムなスコアリングと予測に利用 SELECT UDF.sampleFunction(InputStream) AS sampleResult INTO output FROM InputStream
  9. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 2 あなたは、次の要件を満たすデータ分析ソリューションを Azure で設計する必要があります。

    - データを変換できる - データを Microsoft Power BI にリンクする - 凖リアルタイムのログ分析を実行する 何を使用する必要がありますか? A. Azure Cosmos DB A. Azure Data Factory A. Azure SQL Managed Instance A. Azure Synapse Analytics
  10. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 2(ヒント) あなたは、次の要件を満たすデータ分析ソリューションを Azure で設計する必要があります。

    - データを変換できる - データを Microsoft Power BI にリンクする - 凖リアルタイムのログ分析を実行する 何を使用する必要がありますか? A. Azure Cosmos DB A. Azure Data Factory A. Azure SQL Managed Instance A. Azure Synapse Analytics
  11. ©︎ Techpit,inc All Rights Reserved. 解答 【回答】 D 【解説】 Azure

    Synapse Analytics を使用すると、 データの変換、Power BI へのデータリンク、準リアルタイムなログ分析を実行できます。 Data Factory、Azure Cosmos DB、SQL Managed Instance では、準リアルタイムの分 析を実行できません。 その為回答は、D になります。
  12. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 2 あなたは、次の要件を満たすデータ分析ソリューションを Azure で設計する必要があります。

    - データを変換できる - データを Microsoft Power BI にリンクする - 凖リアルタイムのログ分析を実行する 何を使用する必要がありますか? A. Azure Cosmos DB A. Azure Data Factory A. Azure SQL Managed Instance A. Azure Synapse Analytics 準リアルタイムな分析は出来ない 準リアルタイムな分析は出来ない 準リアルタイムな分析は出来ない
  13. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 1 Azure Synapse Analytics

    について Data Warehouse (構造化データ)や、ビッグデータなシステム(非構造化データ)を統合して分析をする為の基盤(データハブ) - データの収集・蓄積 - データの分析、加工 - Data Warehouse への加工したデータの保存 - BI ツール、ML ツールとの統合 といったデータ分析基盤に必要な機能を一つにまとめて提供してくれるサービス
  14. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 1 Synapse SQL T-SQL

    を用いた分散クエリシステム Event Hubs や IoT Hub といったストリーミングデータソースから、SQL データストアへ直接データを取り込み、分析が出来る 機械学習モデルを利用し、SQL と AI の統合を行う(格納されているデータを基にしたスコアリングや予測等) Apache Spark for Azure Synapse Apache Spark の Azure 実装 標準的な Apache Spark と同じように使用でき、ビッグデータ分析を行える Data Expolorer ログ、テレメトリーデータを分析する為の対話型クエリを用いた分析基盤 オンプレミス、クラウド、その他のデータソース間でログとイベントのデータを統合し、関連付ける パターン認識、異常検知、予測などの AI Ops と統合 IoT データ用の分析ソリューションにもなる 分析 SaaS ソリューションといった形で 3rd party への提供も可能
  15. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 1 Synapse Studio Azure

    Synapse Analytics を操作する為の UI ツール ソリューションの構築、保守、セキュリティ保護を一つの UX で行える(ブラウザから利用) - 主要なタスクの実行サポート - 取り込み、調査、準備、調整、可視化等 - SQL 、Spark、Data Explorer 全体でリソース、使用状況、ユーザの監視を行う - ロールベースのアクセス制御で分析リソースへのアクセスを単純化する - SQL、Spark、KQL を記述し、CI/CD プロセスと統合する - Azure Pipelines、GitHub Actions 等と統合可能 - CI/CD を構築する場合は、別途エージェント用のマシンが必要なので注意
  16. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 3 あなたは、Log Analytics ワークスペースを使用して

    Azure Monitor のログを保持する予定です。 ログは分析とアラートに使用します。 1 つのクエリですべてのログのデータを関連付ける必要があります。 ワークスペースには 1 日あたり約 8 TB のログを取り込むことを見込んでいます。 最初に何をする必要がありますか? A. 基本ログのみを使用するように Log Analytics を構成する。 A. 専用クラスターを作成する。 A. 追加のワークスペースを作成する。 A. 最も多くのログを生成するリソースを別のサブスクリプションに移動する。
  17. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 3(ヒント) あなたは、Log Analytics ワークスペースを使用して

    Azure Monitor のログを保持する予定です。 ログは分析とアラートに使用します。 1 つのクエリですべてのログのデータを関連付ける必要があります。 ワークスペースには 1 日あたり約 8 TB のログを取り込むことを見込んでいます。 最初に何をする必要がありますか? A. 基本ログのみを使用するように Log Analytics を構成する。 A. 専用クラスターを作成する。 A. 追加のワークスペースを作成する。 A. 最も多くのログを生成するリソースを別のサブスクリプションに移動する。
  18. ©︎ Techpit,inc All Rights Reserved. 解答 【回答】 B 【解説】 1日辺り

    4 TB を超えるログを取り込む場合、理想的には、監視対象のリソースと同じリー ジョンに専用クラスタを作成する必要があります。 同一リージョンに配置されている場合、送信データに対して発生する可能性のある料金を 最小限に抑えられます。 最も多くのログを生成するリソースを移動すると、全てのログを関連付けすることは出来 なくなります。 基本ログは、分析とアラートでの使用を目的としたものではありません。 追加のワークスペースでログを分散させると、1つのクエリで全てのログを読み取ることが 出来なくなります。 その為回答は、B になります。 Azure Monitor ログ (Log Analytics) ワークスペースの設計 - Training | Microsoft Learn
  19. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 3 あなたは、Log Analytics ワークスペースを使用して

    Azure Monitor のログを保持する予定です。 ログは分析とアラートに使用します。 1 つのクエリですべてのログのデータを関連付ける必要があります。 ワークスペースには 1 日あたり約 8 TB のログを取り込むことを見込んでいます。 最初に何をする必要がありますか? A. 基本ログのみを使用するように Log Analytics を構成する。 A. 専用クラスターを作成する。 A. 追加のワークスペースを作成する。 A. 最も多くのログを生成するリソースを別のサブスクリプションに移動する。 分析、アラートの目的のログではない ログを分散させると、1つのクエリで全てを読み取れなくなる ログを分散させると、1つのクエリで全てを読み取れなくなる
  20. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 3 Log Analytics ワークスペースについて

    Azure Monitor 、Microsoft Sentinel、Microsoft Defender for Cloud 等のサービスからのログデータを収集できるサービス 複数サービスのデータを結合して、分析する為に利用する
  21. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 3 Log Analytics ワークスペースについて

    Log の種別 - 対話型 - Analytics ログ - Basic ログ - アーカイブ 対話型ログ カテゴリ Analytics ログ Basic ログ データの取り込み 通常 少し少ない ログクエリ フル機能 追加機能無し 基本的な機能のみ 従量課金 保持期間 30日 ~ 2年間 8日固定 既存のテーブルを Basic に変更すると、 既存の保持期間内でも8日以上経過して いる場合は、アーカイブされる アラート サポート サポートされない
  22. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 3 Log Analytics ワークスペースについて

    Basic ログを利用するシナリオ - 保持期間が8日以上ない場合 - 基本的なクエリしか使わない場合 - データ取り込みで削減されるコストが、他の機能制限のコストよりも上回ると予想される場合 - 利用するテーブルが基本ログをサポートしている場合 - テーブルのログ データプランを基本ログまたは Analytics ログに設定する - Azure Monitor | Microsoft Learn
  23. ©︎ Techpit,inc All Rights Reserved. 試験問題サンプル 3 Log Analytics ワークスペースについて

    アーカイブログ - コンプライアンス上の理由や、不定期な調査等の為に長期間保持されるログを保持する場合に利用する - 対話型保持期間よりも長い合計保持期間を設定すると、保持期間終了後に自動的にアーカイブへ移動される - ログの復元機能 or 検索ジョブを利用してアクセスする - 現在は、最大7年間保持される - 今後数カ月以内に 12年間保存できるように拡張される予定 - 即座にクエリを書いて結果を得ることは出来ないので、安いからこっちを多用するというモノではない