Google Professional Cloud デベロッパーの運用と信頼性Google Professional Cloud Developer Operations and Reliability

横断的な可観測性、復元力、パフォーマンス、ロールアウトの安全性、コスト、およびより具体的なサービス領域に適切に分類できないトラブルシューティングの選択肢にのみ使用してください。Use only for cross-cutting observability, resilience, performance, rollout safety, cost, and troubleshooting choices that are not better classified under a more specific service area.

試験Exams
PROFESSIONAL-CLOUD-DEVELOPER
問題数Questions
29
コメント数Comments
220
1 29

表示中 29 / 29 問

1. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 231. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 23

問題Question

Stackdriver Logging Agent を使用して、Compute Engine 仮想マシン インスタンスからアプリケーションのログ ファイルを Stackdriver に送信したいと考えています。
Stackdriver Logging Agent をインストールした後、最初に何をする必要がありますか?

  • A. プロジェクトでエラー報告 API を有効にします。
  • B. インスタンスにすべてのクラウド API へのフルアクセスを付与します。
  • C. アプリケーション ログ ファイルをカスタム ソースとして構成します。
  • D. アプリケーションのログエントリに一致するフィルタを使用して Stackdriver ログ エクスポート シンクを作成します。

You want to use the Stackdriver Logging Agent to send an application's log file to Stackdriver from a Compute Engine virtual machine instance.
After installing the Stackdriver Logging Agent, what should you do first?

  • A. Enable the Error Reporting API on the project.
  • B. Grant the instance full access to all Cloud APIs.
  • C. Configure the application log file as a custom source.
  • D. Create a Stackdriver Logs Export Sink with a filter that matches the application's log entries.

2. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 252. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 25

問題Question

開発時間を最小限に抑えながら、本番環境でのサービスの低下についてオンコール エンジニアに通知したいと考えています。
どうすればいいでしょうか?

  • A. Cloud Function を使用してリソースを監視し、アラートを生成します。
  • B. Cloud Pub/Sub を使用してリソースを監視し、アラートを生成します。
  • C. Stackdriver Error Reporting を使用してエラーをキャプチャし、アラートを生成します。
  • D. Stackdriver Monitoring を使用してリソースを監視し、アラートを生成します。

You want to notify on-call engineers about a service degradation in production while minimizing development time.
What should you do?

  • A. Use Cloud Function to monitor resources and raise alerts.
  • B. Use Cloud Pub/Sub to monitor resources and raise alerts.
  • C. Use Stackdriver Error Reporting to capture errors and raise alerts.
  • D. Use Stackdriver Monitoring to monitor resources and raise alerts.

3. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 293. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 29

問題Question

タイムスタンプ、口座番号 (文字列)、および取引金額 (数値) の 3 つの列を含むログ ファイルを解析しています。一意の口座番号ごとにすべての取引金額の合計を効率的に計算したいと考えています。
どのデータ構造を使用する必要がありますか?

  • A. リンクされたリスト
  • B. ハッシュテーブル
  • C. 二次元配列
  • D. カンマ区切りの文字列

You are parsing a log file that contains three columns: a timestamp, an account number (a string), and a transaction amount (a number). You want to calculate the sum of all transaction amounts for each unique account number efficiently.
Which data structure should you use?

  • A. A linked list
  • B. A hash table
  • C. A two-dimensional array
  • D. A comma-delimited string

4. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 444. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 44

問題Question

ケーススタディ -
これはケーススタディです。ケーススタディは個別に時間が設定されるわけではありません。各ケースを完了したいだけ試験時間を費やすことができます。ただし、この試験には追加のケーススタディやセクションが存在する場合があります。この試験に含まれるすべての質問を指定された時間内に完了できるように時間を管理する必要があります。
ケーススタディに含まれる質問に答えるには、ケーススタディで提供される情報を参照する必要があります。ケース スタディには、ケース スタディで説明されているシナリオに関する詳細情報を提供する展示やその他のリソースが含まれる場合があります。このケーススタディでは、各質問は他の質問から独立しています。
このケーススタディの最後に、レビュー画面が表示されます。この画面では、試験の次のセクションに進む前に、回答を確認し、変更を加えることができます。新しいセクションを開始した後は、このセクションに戻ることはできません。

ケーススタディを開始するには -
このケーススタディの最初の質問を表示するには、「次へ」ボタンをクリックします。質問に答える前に、左側のペインのボタンを使用してケーススタディの内容を調べてください。これらのボタンをクリックすると、ビジネス要件、既存の環境、問題の説明などの情報が表示されます。ケーススタディに
[すべての情報] タブでは、表示される情報が後続のタブに表示される情報と同じであることに注意してください。質問に答える準備ができたら、「質問」ボタンをクリックして質問に戻ります。

会社概要 -
HipLocal は、近くにいる人々の間のコミュニケーションを促進するように設計されたコミュニティ アプリケーションです。スポーツイベントの企画や開催、企業が地域社会とつながるために利用されています。 HipLocal は最近ダラスのいくつかの地域でサービスを開始し、急速に世界的な現象に成長しています。ハイパーローカルなコミュニティコミュニケーションとビジネスアウトリーチのユニークなスタイルは、世界中で需要があります。

エグゼクティブステートメント -
私たちはナンバーワンのローカルコミュニティアプリです。地域コミュニティ サービスをグローバルに展開する時が来ました。私たちのベンチャー キャピタルの投資家は、メンバーが互いに 10 マイルまたは 10,000 マイル離れていても、急速な成長と、オンラインに登場する新しいローカル コミュニティや仮想コミュニティに同様の素晴らしい体験を提供したいと考えています。

ソリューションコンセプト -
HipLocal は、世界中の顧客により良いサービスを提供するために、最新の機能を備えた既存のサービスを新しい地域で拡張したいと考えています。彼らは、これらの地域をタイムゾーンでサポートするための新しいチームを雇用してトレーニングしたいと考えています。アプリケーションがスムーズに拡張され、明確な稼働時間データが提供されることを確認する必要があります。

既存の技術環境 -
HipLocal の環境は、オンプレミスのハードウェアと Google Cloud Platform で実行されるインフラストラクチャが混在しています。 HipLocal チームはアプリケーションをよく理解していますが、世界規模のアプリケーションの経験は限られています。現在の技術環境は次のとおりです。
* 既存の API は、GCP でホストされている Compute Engine 仮想マシン インスタンス上で実行されます。
* 状態は GCP の単一インスタンスの MySQL データベースに保存されます。
* データはオンプレミスの Teradata/Vertica データ ウェアハウスにエクスポートされます。
* データ分析はオンプレミスの Hadoop 環境で実行されます。
※アプリケーションにはログ記録がありません。
* 稼働時間の基本的な指標があります。 API が応答しない場合、アラートが頻繁に発生します。

ビジネス要件 -
HipLocal の投資家は、事業展開を拡大し、見られる需要の増加をサポートしたいと考えています。彼らの要件は次のとおりです。
* アプリケーションの利用可能性を新しい地域に拡大します。
* サポートできる同時ユーザー数を増やします。
* ユーザーが異なる地域に旅行する場合でも、一貫したエクスペリエンスを確保します。
* ユーザーのアクティビティ指標を取得して、製品を収益化する方法をより深く理解します。
* 新しい地域の規制 (GDPR など) への準拠を確保します。
* インフラストラクチャ管理の時間とコストを削減します。
* Google が推奨するクラウド コンピューティングのプラクティスを採用します。

技術的要件 -
* アプリケーションとバックエンドは、使用状況のメトリクスとモニタリングを提供する必要があります。
* API には強力な認証と承認が必要です。
* ログ記録を増やし、データをクラウド分析プラットフォームに保存する必要があります。
* 柔軟なスケーリングを容易にするためにサーバーレス アーキテクチャに移行します。
* 安全な方法で内部アプリへの承認されたアクセスを提供します。
HipLocal の API では、アプリケーションでエラーが発生することがあります。特に問題のトラブルシューティングを行うために、アプリケーション情報を収集したいと考えています。彼らは何をすべきでしょうか?

  • A. 仮想マシンのスナップショットを頻繁に取得します。
  • B. Cloud Logging エージェントを仮想マシンにインストールします。
  • C. Cloud Monitoring エージェントを仮想マシンにインストールします。
  • D. Cloud Trace を使用して、パフォーマンスのボトルネックを探します。

Case study -
This is a case study. Case studies are not timed separately. You can use as much exam time as you would like to complete each case. However, there may be additional case studies and sections on this exam. You must manage your time to ensure that you are able to complete all questions included on this exam in the time provided.
To answer the questions included in a case study, you will need to reference information that is provided in the case study. Case studies might contain exhibits and other resources that provide more information about the scenario that is described in the case study. Each question is independent of the other questions in this case study.
At the end of this case study, a review screen will appear. This screen allows you to review your answers and to make changes before you move to the next section of the exam. After you begin a new section, you cannot return to this section.

To start the case study -
To display the first question in this case study, click the Next button. Use the buttons in the left pane to explore the content of the case study before you answer the questions. Clicking these buttons displays information such as business requirements, existing environment, and problem statements. If the case study has an
All Information tab, note that the information displayed is identical to the information displayed on the subsequent tabs. When you are ready to answer a question, click the Question button to return to the question.

Company Overview -
HipLocal is a community application designed to facilitate communication between people in close proximity. It is used for event planning and organizing sporting events, and for businesses to connect with their local communities. HipLocal launched recently in a few neighborhoods in Dallas and is rapidly growing into a global phenomenon. Its unique style of hyper-local community communication and business outreach is in demand around the world.

Executive Statement -
We are the number one local community app; it's time to take our local community services global. Our venture capital investors want to see rapid growth and the same great experience for new local and virtual communities that come online, whether their members are 10 or 10000 miles away from each other.

Solution Concept -
HipLocal wants to expand their existing service, with updated functionality, in new regions to better serve their global customers. They want to hire and train a new team to support these regions in their time zones. They will need to ensure that the application scales smoothly and provides clear uptime data.

Existing Technical Environment -
HipLocal's environment is a mix of on-premises hardware and infrastructure running in Google Cloud Platform. The HipLocal team understands their application well, but has limited experience in global scale applications. Their existing technical environment is as follows:
* Existing APIs run on Compute Engine virtual machine instances hosted in GCP.
* State is stored in a single instance MySQL database in GCP.
* Data is exported to an on-premises Teradata/Vertica data warehouse.
* Data analytics is performed in an on-premises Hadoop environment.
* The application has no logging.
* There are basic indicators of uptime; alerts are frequently fired when the APIs are unresponsive.

Business Requirements -
HipLocal's investors want to expand their footprint and support the increase in demand they are seeing. Their requirements are:
* Expand availability of the application to new regions.
* Increase the number of concurrent users that can be supported.
* Ensure a consistent experience for users when they travel to different regions.
* Obtain user activity metrics to better understand how to monetize their product.
* Ensure compliance with regulations in the new regions (for example, GDPR).
* Reduce infrastructure management time and cost.
* Adopt the Google-recommended practices for cloud computing.

Technical Requirements -
* The application and backend must provide usage metrics and monitoring.
* APIs require strong authentication and authorization.
* Logging must be increased, and data should be stored in a cloud analytics platform.
* Move to serverless architecture to facilitate elastic scaling.
* Provide authorized access to internal apps in a secure manner.
HipLocal's APIs are having occasional application failures. They want to collect application information specifically to troubleshoot the issue. What should they do?

  • A. Take frequent snapshots of the virtual machines.
  • B. Install the Cloud Logging agent on the virtual machines.
  • C. Install the Cloud Monitoring agent on the virtual machines.
  • D. Use Cloud Trace to look for performance bottlenecks.

5. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 505. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 50

問題Question

ケーススタディ -
これはケーススタディです。ケーススタディは個別に時間が設定されるわけではありません。各ケースを完了したいだけ試験時間を費やすことができます。ただし、この試験には追加のケーススタディやセクションが存在する場合があります。この試験に含まれるすべての質問を指定された時間内に完了できるように時間を管理する必要があります。
ケーススタディに含まれる質問に答えるには、ケーススタディで提供される情報を参照する必要があります。ケース スタディには、ケース スタディで説明されているシナリオに関する詳細情報を提供する展示やその他のリソースが含まれる場合があります。このケーススタディでは、各質問は他の質問から独立しています。
このケーススタディの最後に、レビュー画面が表示されます。この画面では、試験の次のセクションに進む前に、回答を確認し、変更を加えることができます。新しいセクションを開始した後は、このセクションに戻ることはできません。

ケーススタディを開始するには -
このケーススタディの最初の質問を表示するには、「次へ」ボタンをクリックします。質問に答える前に、左側のペインのボタンを使用してケーススタディの内容を調べてください。これらのボタンをクリックすると、ビジネス要件、既存の環境、問題の説明などの情報が表示されます。ケーススタディに
[すべての情報] タブでは、表示される情報が後続のタブに表示される情報と同じであることに注意してください。質問に答える準備ができたら、「質問」ボタンをクリックして質問に戻ります。

会社概要 -
HipLocal は、近くにいる人々の間のコミュニケーションを促進するように設計されたコミュニティ アプリケーションです。スポーツイベントの企画や開催、企業が地域社会とつながるために利用されています。 HipLocal は最近ダラスのいくつかの地域でサービスを開始し、急速に世界的な現象に成長しています。ハイパーローカルなコミュニティコミュニケーションとビジネスアウトリーチのユニークなスタイルは、世界中で需要があります。

エグゼクティブステートメント -
私たちはナンバーワンのローカルコミュニティアプリです。地域コミュニティ サービスをグローバルに展開する時が来ました。私たちのベンチャー キャピタルの投資家は、メンバーが互いに 10 マイルまたは 10,000 マイル離れていても、急速な成長と、オンラインに登場する新しいローカル コミュニティや仮想コミュニティに同様の素晴らしい体験を提供したいと考えています。

ソリューションコンセプト -
HipLocal は、世界中の顧客により良いサービスを提供するために、最新の機能を備えた既存のサービスを新しい地域で拡張したいと考えています。彼らは、これらの地域をタイムゾーンでサポートするための新しいチームを雇用してトレーニングしたいと考えています。アプリケーションがスムーズに拡張され、明確な稼働時間データが提供されることを確認する必要があります。

既存の技術環境 -
HipLocal の環境は、オンプレミスのハードウェアと Google Cloud Platform で実行されるインフラストラクチャが混在しています。 HipLocal チームはアプリケーションをよく理解していますが、世界規模のアプリケーションの経験は限られています。現在の技術環境は次のとおりです。
* 既存の API は、GCP でホストされている Compute Engine 仮想マシン インスタンス上で実行されます。
* 状態は GCP の単一インスタンスの MySQL データベースに保存されます。
* データはオンプレミスの Teradata/Vertica データ ウェアハウスにエクスポートされます。
* データ分析はオンプレミスの Hadoop 環境で実行されます。
※アプリケーションにはログ記録がありません。
* 稼働時間の基本的な指標があります。 API が応答しない場合、アラートが頻繁に発生します。

ビジネス要件 -
HipLocal の投資家は、事業展開を拡大し、見られる需要の増加をサポートしたいと考えています。彼らの要件は次のとおりです。
* アプリケーションの利用可能性を新しい地域に拡大します。
* サポートできる同時ユーザー数を増やします。
* ユーザーが異なる地域に旅行する場合でも、一貫したエクスペリエンスを確保します。
* ユーザーのアクティビティ指標を取得して、製品を収益化する方法をより深く理解します。
* 新しい地域の規制 (GDPR など) への準拠を確保します。
* インフラストラクチャ管理の時間とコストを削減します。
* Google が推奨するクラウド コンピューティングのプラクティスを採用します。

技術的要件 -
* アプリケーションとバックエンドは、使用状況のメトリクスとモニタリングを提供する必要があります。
* API には強力な認証と承認が必要です。
* ログ記録を増やし、データをクラウド分析プラットフォームに保存する必要があります。
* 柔軟なスケーリングを容易にするためにサーバーレス アーキテクチャに移行します。
* 安全な方法で内部アプリへの承認されたアクセスを提供します。
HipLocal は、ビジネス要件と技術要件を満たしながら、MySQL 導入の回復力を向上させたいと考えています。
どの構成を選択すればよいでしょうか?

  • A. Compute Engine 上の現在の単一インスタンス MySQL と、Compute Engine 上の複数の読み取り専用 MySQL サーバーを使用します。
  • B. Compute Engine で現在の単一インスタンスの MySQL を使用し、外部マスター構成の Cloud SQL にデータをレプリケートします。
  • C. 現在の単一インスタンスの MySQL インスタンスを Cloud SQL に置き換え、高可用性を構成します。
  • D. 現在の単一インスタンスの MySQL インスタンスを Cloud SQL に置き換えると、Google は追加の構成を行わずに冗長性を提供します。

Case study -
This is a case study. Case studies are not timed separately. You can use as much exam time as you would like to complete each case. However, there may be additional case studies and sections on this exam. You must manage your time to ensure that you are able to complete all questions included on this exam in the time provided.
To answer the questions included in a case study, you will need to reference information that is provided in the case study. Case studies might contain exhibits and other resources that provide more information about the scenario that is described in the case study. Each question is independent of the other questions in this case study.
At the end of this case study, a review screen will appear. This screen allows you to review your answers and to make changes before you move to the next section of the exam. After you begin a new section, you cannot return to this section.

To start the case study -
To display the first question in this case study, click the Next button. Use the buttons in the left pane to explore the content of the case study before you answer the questions. Clicking these buttons displays information such as business requirements, existing environment, and problem statements. If the case study has an
All Information tab, note that the information displayed is identical to the information displayed on the subsequent tabs. When you are ready to answer a question, click the Question button to return to the question.

Company Overview -
HipLocal is a community application designed to facilitate communication between people in close proximity. It is used for event planning and organizing sporting events, and for businesses to connect with their local communities. HipLocal launched recently in a few neighborhoods in Dallas and is rapidly growing into a global phenomenon. Its unique style of hyper-local community communication and business outreach is in demand around the world.

Executive Statement -
We are the number one local community app; it's time to take our local community services global. Our venture capital investors want to see rapid growth and the same great experience for new local and virtual communities that come online, whether their members are 10 or 10000 miles away from each other.

Solution Concept -
HipLocal wants to expand their existing service, with updated functionality, in new regions to better serve their global customers. They want to hire and train a new team to support these regions in their time zones. They will need to ensure that the application scales smoothly and provides clear uptime data.

Existing Technical Environment -
HipLocal's environment is a mix of on-premises hardware and infrastructure running in Google Cloud Platform. The HipLocal team understands their application well, but has limited experience in global scale applications. Their existing technical environment is as follows:
* Existing APIs run on Compute Engine virtual machine instances hosted in GCP.
* State is stored in a single instance MySQL database in GCP.
* Data is exported to an on-premises Teradata/Vertica data warehouse.
* Data analytics is performed in an on-premises Hadoop environment.
* The application has no logging.
* There are basic indicators of uptime; alerts are frequently fired when the APIs are unresponsive.

Business Requirements -
HipLocal's investors want to expand their footprint and support the increase in demand they are seeing. Their requirements are:
* Expand availability of the application to new regions.
* Increase the number of concurrent users that can be supported.
* Ensure a consistent experience for users when they travel to different regions.
* Obtain user activity metrics to better understand how to monetize their product.
* Ensure compliance with regulations in the new regions (for example, GDPR).
* Reduce infrastructure management time and cost.
* Adopt the Google-recommended practices for cloud computing.

Technical Requirements -
* The application and backend must provide usage metrics and monitoring.
* APIs require strong authentication and authorization.
* Logging must be increased, and data should be stored in a cloud analytics platform.
* Move to serverless architecture to facilitate elastic scaling.
* Provide authorized access to internal apps in a secure manner.
HipLocal wants to improve the resilience of their MySQL deployment, while also meeting their business and technical requirements.
Which configuration should they choose?

  • A. Use the current single instance MySQL on Compute Engine and several read-only MySQL servers on Compute Engine.
  • B. Use the current single instance MySQL on Compute Engine, and replicate the data to Cloud SQL in an external master configuration.
  • C. Replace the current single instance MySQL instance with Cloud SQL, and configure high availability.
  • D. Replace the current single instance MySQL instance with Cloud SQL, and Google provides redundancy without further configuration.

6. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 586. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 58

問題Question

継承したアプリケーションを App Engine 上で実行しています。アプリケーションが安全でないバイナリを使用しているか、または XSS 攻撃に対して脆弱かどうかを確認したいと考えています。
どのサービスを使用する必要がありますか?

  • A. クラウド・アモール
  • B. Stackdriver デバッガ
  • C. クラウドセキュリティスキャナー
  • D. Stackdriver エラー レポート

You are running an application on App Engine that you inherited. You want to find out whether the application is using insecure binaries or is vulnerable to XSS attacks.
Which service should you use?

  • A. Cloud Amor
  • B. Stackdriver Debugger
  • C. Cloud Security Scanner
  • D. Stackdriver Error Reporting

7. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 617. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 61

問題Question

アプリケーションはローカルでテストすると良好に動作しますが、Compute Engine インスタンスにデプロイすると、動作が大幅に遅くなります。問題を診断する必要があります。どうすればいいでしょうか?
どうすればいいでしょうか?

  • A. アプリケーションがローカルで高速に実行されることを示すチケットをクラウド サポートに提出します。
  • B. Cloud デバッガのスナップショットを使用して、アプリケーションの特定時点の実行を確認します。
  • C. Cloud Profiler を使用して、アプリケーション内のどの機能に最も長い時間がかかるかを判断します。
  • D. ロギング コマンドをアプリケーションに追加し、Cloud Logging を使用してレイテンシの問題が発生している場所を確認します。

Your application performs well when tested locally, but it runs significantly slower after you deploy it to a Compute Engine instance. You need to diagnose the problem. What should you do?
What should you do?

  • A. File a ticket with Cloud Support indicating that the application performs faster locally.
  • B. Use Cloud Debugger snapshots to look at a point-in-time execution of the application.
  • C. Use Cloud Profiler to determine which functions within the application take the longest amount of time.
  • D. Add logging commands to the application and use Cloud Logging to check where the latency problem occurs.

8. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 798. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 79

問題Question

API バックエンドは複数のクラウド プロバイダーで実行されています。 API のネットワーク遅延に関するレポートを生成したいと考えています。
どの 2 つのステップを実行する必要がありますか? (2つお選びください。)

  • A. Zipkin コレクターを使用してデータを収集します。
  • B. Fluentd エージェントを使用してデータを収集します。
  • C. Stackdriver Trace を使用してレポートを生成します。
  • D. Stackdriver Debugger を使用してレポートを生成します。
  • E. Stackdriver Profiler を使用してレポートを生成します。

Your API backend is running on multiple cloud providers. You want to generate reports for the network latency of your API.
Which two steps should you take? (Choose two.)

  • A. Use Zipkin collector to gather data.
  • B. Use Fluentd agent to gather data.
  • C. Use Stackdriver Trace to generate reports.
  • D. Use Stackdriver Debugger to generate report.
  • E. Use Stackdriver Profiler to generate report.

9. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 1029. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 102

問題Question

Linux を実行している Compute Engine インスタンス上でホストされている、パッケージ化されたアプリケーションと内部開発されたアプリケーションが混在しています。これらのアプリケーションは、ログ レコードをテキストとしてローカル ファイルに書き込みます。ログを Cloud Logging に書き込む必要があるとします。どうすればいいでしょうか?

  • A. ファイルの内容を Linux Syslog デーモンにパイプします。
  • B. Compute Engine インスタンスに Google バージョンの fluentd をインストールします。
  • C. Google バージョンのcollectd を Compute Engine インスタンスにインストールします。
  • D. cron を使用して、ログ ファイルを 1 日に 1 回 Cloud Storage にコピーするジョブをスケジュールします。

You have a mixture of packaged and internally developed applications hosted on a Compute Engine instance that is running Linux. These applications write log records as text in local files. You want the logs to be written to Cloud Logging. What should you do?

  • A. Pipe the content of the files to the Linux Syslog daemon.
  • B. Install a Google version of fluentd on the Compute Engine instance.
  • C. Install a Google version of collectd on the Compute Engine instance.
  • D. Using cron, schedule a job to copy the log files to Cloud Storage once a day.

10. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 12010. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 120

問題Question

新しいアプリケーションを Google Kubernetes Engine にデプロイしましたが、パフォーマンスの低下が発生しています。ログはクラウドに書き込まれています
ログを記録し、メトリクスをキャプチャするために Prometheus サイドカー モデルを使用しています。コストを最小限に抑えながらパフォーマンスの問題をトラブルシューティングし、リアルタイムのアラートを送信するには、ログのメトリクスとデータを関連付ける必要があります。どうすればいいでしょうか?

  • A. Cloud Logging ログからカスタム指標を作成し、Prometheus を使用して Cloud Monitoring REST API を使用して結果をインポートします。
  • B. Cloud Logging のログと Prometheus 指標を Cloud Bigtable にエクスポートします。クエリを実行して結果を結合し、Google データポータルで分析します。
  • C. Cloud Logging ログをエクスポートし、Prometheus 指標を BigQuery にストリーミングします。定期的なクエリを実行して結果を結合し、クラウド タスクを使用して通知を送信します。
  • D. Prometheus 指標をエクスポートし、Cloud Monitoring を使用して外部指標として表示します。 Cloud Monitoring を構成して、ログからログベースの指標を作成し、それらを Prometheus データと関連付けます。

You deployed a new application to Google Kubernetes Engine and are experiencing some performance degradation. Your logs are being written to Cloud
Logging, and you are using a Prometheus sidecar model for capturing metrics. You need to correlate the metrics and data from the logs to troubleshoot the performance issue and send real-time alerts while minimizing costs. What should you do?

  • A. Create custom metrics from the Cloud Logging logs, and use Prometheus to import the results using the Cloud Monitoring REST API.
  • B. Export the Cloud Logging logs and the Prometheus metrics to Cloud Bigtable. Run a query to join the results, and analyze in Google Data Studio.
  • C. Export the Cloud Logging logs and stream the Prometheus metrics to BigQuery. Run a recurring query to join the results, and send notifications using Cloud Tasks.
  • D. Export the Prometheus metrics and use Cloud Monitoring to view them as external metrics. Configure Cloud Monitoring to create log-based metrics from the logs, and correlate them with the Prometheus data.

11. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 12111. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 121

問題Question

あなたは、会社のアプリケーションをオンプレミスから Google Cloud に移行する計画を任されました。あなたの会社のモノリシック アプリケーションは e コマース Web サイトです。アプリケーションは段階的に Google Cloud にデプロイされたマイクロサービスに移行されます。会社の収益の大部分はオンライン販売を通じて得られるため、移行中のリスクを最小限に抑えることが重要です。機能に優先順位を付け、最初に移行する機能を選択する必要があります。どうすればいいでしょうか?

  • A. フロントエンドおよび製品データベースと統合されている製品カタログを移行します。
  • B. フロントエンド、注文データベース、サードパーティの支払いベンダーと統合された支払い処理を移行します。
  • C. 注文データベース、在庫システム、サードパーティの配送ベンダーと統合された注文フルフィルメントを移行します。
  • D. フロントエンド、カート データベース、在庫システム、支払い処理システムが統合されているショッピング カートを移行します。

You have been tasked with planning the migration of your company's application from on-premises to Google Cloud. Your company's monolithic application is an ecommerce website. The application will be migrated to microservices deployed on Google Cloud in stages. The majority of your company's revenue is generated through online sales, so it is important to minimize risk during the migration. You need to prioritize features and select the first functionality to migrate. What should you do?

  • A. Migrate the Product catalog, which has integrations to the frontend and product database.
  • B. Migrate Payment processing, which has integrations to the frontend, order database, and third-party payment vendor.
  • C. Migrate Order fulfillment, which has integrations to the order database, inventory system, and third-party shipping vendor.
  • D. Migrate the Shopping cart, which has integrations to the frontend, cart database, inventory system, and payment processing system.

12. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 13212. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 132

問題Question

アプリケーションの一部を Google Cloud に移行しました。オンプレミスとクラウドに展開されたアプリケーションの両方に対して、オンプレミスに展開されたレガシー監視プラットフォームを使用しています。クラウド アプリケーションでの時間が重要な問題に対する通知システムの応答が遅いことがわかりました。どうすればいいでしょうか?

  • A. モニタリング プラットフォームを Cloud Monitoring に置き換えます。
  • B. Compute Engine インスタンスに Cloud Monitoring エージェントをインストールします。
  • C. 一部のトラフィックを古いプラットフォームに移行します。 2 つのプラットフォームで A/B テストを同時に実行します。
  • D. Cloud Logging と Cloud Monitoring を使用して、ログの取得、モニタリング、アラートの送信を行います。それらを既存のプラットフォームに送信します。

You migrated some of your applications to Google Cloud. You are using a legacy monitoring platform deployed on-premises for both on-premises and cloud- deployed applications. You discover that your notification system is responding slowly to time-critical problems in the cloud applications. What should you do?

  • A. Replace your monitoring platform with Cloud Monitoring.
  • B. Install the Cloud Monitoring agent on your Compute Engine instances.
  • C. Migrate some traffic back to your old platform. Perform A/B testing on the two platforms concurrently.
  • D. Use Cloud Logging and Cloud Monitoring to capture logs, monitor, and send alerts. Send them to your existing platform.

13. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 13713. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 137

問題Question

最近、Cloud Run で新しいサービスを開発しました。新しいサービスはカスタム サービスを使用して認証し、トランザクション情報をクラウドに書き込みます。
スパナのデータベース。発生するボトルネックを特定しながら、アプリケーションが 1 秒あたり最大 5,000 の読み取りトランザクションと 1,000 の書き込みトランザクションをサポートできることを確認する必要があります。テスト インフラストラクチャは自動スケールできる必要があります。どうすればいいでしょうか?

  • A. テストハーネスを構築してリクエストを生成し、Cloud Run にデプロイします。 Cloud Logging を使用して VPC フロー ログを分析します。
  • B. Locust または JMeter イメージを実行する Google Kubernetes Engine クラスタを作成し、負荷テストを動的に生成します。 Cloud Trace を使用して結果を分析します。
  • C. クラウド タスクを作成してテスト負荷を生成します。 Cloud Scheduler を使用して、1 分あたり 60,000 のクラウド タスク トランザクションを 10 分間実行します。 Cloud Monitoring を使用して結果を分析します。
  • D. Marketplace から LAMP スタック イメージを使用する Compute Engine インスタンスを作成し、Apache Bench を使用してサービスに対する負荷テストを生成します。 Cloud Trace を使用して結果を分析します。

You recently developed a new service on Cloud Run. The new service authenticates using a custom service and then writes transactional information to a Cloud
Spanner database. You need to verify that your application can support up to 5,000 read and 1,000 write transactions per second while identifying any bottlenecks that occur. Your test infrastructure must be able to autoscale. What should you do?

  • A. Build a test harness to generate requests and deploy it to Cloud Run. Analyze the VPC Flow Logs using Cloud Logging.
  • B. Create a Google Kubernetes Engine cluster running the Locust or JMeter images to dynamically generate load tests. Analyze the results using Cloud Trace.
  • C. Create a Cloud Task to generate a test load. Use Cloud Scheduler to run 60,000 Cloud Task transactions per minute for 10 minutes. Analyze the results using Cloud Monitoring.
  • D. Create a Compute Engine instance that uses a LAMP stack image from the Marketplace, and use Apache Bench to generate load tests against the service. Analyze the results using Cloud Trace.

14. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 15014. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 150

問題Question

コンテナ化されたアプリケーションの新しいバージョンはテストされており、Google Kubernetes Engine 上の本番環境にデプロイする準備ができています。実稼働前環境では新しいバージョンの完全な負荷テストを行うことができなかったため、デプロイ後にパフォーマンスの問題が発生しないことを確認する必要があります。導入は自動化する必要があります。どうすればいいでしょうか?

  • A. Cloud Load Balancing を使用して、バージョン間のトラフィックをゆっくりと増やします。 Cloud Monitoring を使用してパフォーマンスの問題を探します。
  • B. カナリア デプロイメントを使用して、継続的デリバリー パイプライン経由でアプリケーションをデプロイします。 Cloud Monitoring を使用してパフォーマンスの問題を探します。メトリクスがサポートするのでトラフィックを増加させます。
  • C. ブルー/グリーン デプロイメントを使用して、継続的デリバリー パイプライン経由でアプリケーションをデプロイします。 Cloud Monitoring を使用してパフォーマンスの問題を探し、指標がサポートしている場合は完全に起動します。
  • D. kubectl を使用してアプリケーションをデプロイし、spec.updateStrategv.type を RollingUpdate に設定します。 Cloud Monitoring を使用してパフォーマンスの問題を探し、問題がある場合は kubectl rollback コマンドを実行します。

The new version of your containerized application has been tested and is ready to deploy to production on Google Kubernetes Engine. You were not able to fully load-test the new version in pre-production environments, and you need to make sure that it does not have performance problems once deployed. Your deployment must be automated. What should you do?

  • A. Use Cloud Load Balancing to slowly ramp up traffic between versions. Use Cloud Monitoring to look for performance issues.
  • B. Deploy the application via a continuous delivery pipeline using canary deployments. Use Cloud Monitoring to look for performance issues. and ramp up traffic as the metrics support it.
  • C. Deploy the application via a continuous delivery pipeline using blue/green deployments. Use Cloud Monitoring to look for performance issues, and launch fully when the metrics support it.
  • D. Deploy the application using kubectl and set the spec.updateStrategv.type to RollingUpdate. Use Cloud Monitoring to look for performance issues, and run the kubectl rollback command if there are any issues.

15. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 17915. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 179

問題Question

あなたの会社は、新しい API を Compute Engine インスタンスにデプロイしました。テスト中、API は期待どおりに動作しません。アプリケーションを 12 時間以上監視して、アプリケーションを再デプロイせずにアプリケーション コード内の問題を診断したいと考えています。どのツールを使用する必要がありますか?

  • A. クラウドトレース
  • B. クラウドモニタリング
  • C. クラウド デバッガのログポイント
  • D. クラウド デバッガーのスナップショット

Your company has deployed a new API to a Compute Engine instance. During testing, the API is not behaving as expected. You want to monitor the application over 12 hours to diagnose the problem within the application code without redeploying the application. Which tool should you use?

  • A. Cloud Trace
  • B. Cloud Monitoring
  • C. Cloud Debugger logpoints
  • D. Cloud Debugger snapshots

16. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 18416. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 184

問題Question

継承した Web アプリケーションを Google Kubernetes Engine 上で実行しています。アプリケーションが既知の脆弱性のあるライブラリを使用しているか、または XSS 攻撃に対して脆弱かどうかを判断したいと考えています。どのサービスを使用する必要がありますか?

  • A. Googleクラウドアーマー
  • B. デバッガ
  • C. Webセキュリティスキャナ
  • D. エラー報告

You are running a web application on Google Kubernetes Engine that you inherited. You want to determine whether the application is using libraries with known vulnerabilities or is vulnerable to XSS attacks. Which service should you use?

  • A. Google Cloud Armor
  • B. Debugger
  • C. Web Security Scanner
  • D. Error Reporting

17. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 18717. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 187

問題Question

ケーススタディ -

これはケーススタディです。ケーススタディは個別に時間が設定されるわけではありません。各ケースを完了したいだけ試験時間を費やすことができます。ただし、この試験には追加のケーススタディやセクションが存在する場合があります。この試験に含まれるすべての質問を指定された時間内に完了できるように時間を管理する必要があります。

ケーススタディに含まれる質問に答えるには、ケーススタディで提供される情報を参照する必要があります。ケース スタディには、ケース スタディで説明されているシナリオに関する詳細情報を提供する展示やその他のリソースが含まれる場合があります。このケーススタディでは、各質問は他の質問から独立しています。

このケーススタディの最後に、レビュー画面が表示されます。この画面では、試験の次のセクションに進む前に、回答を確認し、変更を加えることができます。新しいセクションを開始した後は、このセクションに戻ることはできません。


ケーススタディを開始するには -
このケーススタディの最初の質問を表示するには、「次へ」ボタンをクリックします。質問に答える前に、左側のペインのボタンを使用してケーススタディの内容を調べてください。これらのボタンをクリックすると、ビジネス要件、既存の環境、問題の説明などの情報が表示されます。ケーススタディに [すべての情報] タブがある場合、表示される情報は後続のタブに表示される情報と同じであることに注意してください。質問に答える準備ができたら、「質問」ボタンをクリックして質問に戻ります。


会社概要 -
HipLocal は、近くにいる人々の間のコミュニケーションを促進するように設計されたコミュニティ アプリケーションです。スポーツイベントの企画や開催、企業が地域社会とつながるために利用されています。 HipLocal は最近ダラスのいくつかの地域でサービスを開始し、急速に世界的な現象に成長しています。ハイパーローカルなコミュニティコミュニケーションとビジネスアウトリーチのユニークなスタイルは、世界中で需要があります。


エグゼクティブステートメント -
私たちはナンバーワンのローカルコミュニティアプリです。地域コミュニティ サービスをグローバルに展開する時が来ました。私たちのベンチャー キャピタルの投資家は、メンバーが互いに 10 マイルまたは 10,000 マイル離れていても、急速な成長と、オンラインに登場する新しいローカル コミュニティや仮想コミュニティに同様の素晴らしい体験を提供したいと考えています。


ソリューションコンセプト -
HipLocal は、世界中の顧客により良いサービスを提供するために、最新の機能を備えた既存のサービスを新しい地域で拡張したいと考えています。彼らは、これらの地域をタイムゾーンでサポートするための新しいチームを雇用してトレーニングしたいと考えています。アプリケーションがスムーズに拡張され、明確な稼働時間データが提供されることを確認し、発生した問題を分析して対応する必要があります。


既存の技術環境 -
HipLocal の環境は、オンプレミスのハードウェアと Google Cloud Platform で実行されるインフラストラクチャが混在しています。 HipLocal チームはアプリケーションをよく理解していますが、世界規模のアプリケーションの経験は限られています。現在の技術環境は次のとおりです。
• 既存の API は、GCP でホストされている Compute Engine 仮想マシン インスタンス上で実行されます。
• 状態は、GCP の単一インスタンスの MySQL データベースに保存されます。
• リリース サイクルには、QA テストを可能にする開発の凍結が含まれます。
• アプリケーションにはログが記録されません。
• アプリケーションは、平日の夕方のトラフィックが少ない時間帯に、インフラストラクチャ エンジニアによって手動で展開されます。
• 稼働時間の基本的な指標があります。 API が応答しない場合、アラートが頻繁に発生します。


ビジネス要件 -
HipLocal の投資家は、事業展開を拡大し、見られる需要の増加をサポートしたいと考えています。彼らの要件は次のとおりです。
• アプリケーションの利用可能性を新しい地域に拡大します。
• 10 倍の同時ユーザーをサポートします。
• ユーザーが異なる地域に旅行する場合でも、一貫したエクスペリエンスを確保します。
• ユーザーアクティビティの指標を取得して、製品を収益化する方法をより深く理解します。
• 新しい地域の規制 (GDPR など) への準拠を確保します。
• インフラストラクチャ管理の時間とコストを削減します。
• Google が推奨するクラウド コンピューティングのプラクティスを採用します。
○ アプリケーションのライフサイクル管理に関する標準化されたワークフローとプロセスを開発します。
○ サービス レベル指標 (SLI) とサービス レベル目標 (SLO) を定義します。


技術的要件 -
• オンプレミスのデータセンターとクラウドでホストされているアプリケーションおよびインフラストラクチャの間で安全な通信を提供します。
• アプリケーションは使用状況のメトリクスと監視を提供する必要があります。
• API には認証と認可が必要です。
• 新しい機能のより迅速かつ正確な検証を実装します。
• ロギングとパフォーマンスのメトリクスは、デバッグ情報とアラートを提供できるように実用的な情報を提供する必要があります。
• ユーザーの需要に合わせて拡張する必要がある。


この質問については、HipLocal のケーススタディを参照してください。

サービス レベル指標と目標に関する HipLocal のビジネス要件に対応する Google Cloud プロダクトはどれですか?

  • A. クラウドプロファイラー
  • B. クラウドモニタリング
  • C. クラウドトレース
  • D. クラウドロギング

Case study -

This is a case study. Case studies are not timed separately. You can use as much exam time as you would like to complete each case. However, there may be additional case studies and sections on this exam. You must manage your time to ensure that you are able to complete all questions included on this exam in the time provided.

To answer the questions included in a case study, you will need to reference information that is provided in the case study. Case studies might contain exhibits and other resources that provide more information about the scenario that is described in the case study. Each question is independent of the other questions in this case study.

At the end of this case study, a review screen will appear. This screen allows you to review your answers and to make changes before you move to the next section of the exam. After you begin a new section, you cannot return to this section.


To start the case study -
To display the first question in this case study, click the Next button. Use the buttons in the left pane to explore the content of the case study before you answer the questions. Clicking these buttons displays information such as business requirements, existing environment, and problem statements. If the case study has an All Information tab, note that the information displayed is identical to the information displayed on the subsequent tabs. When you are ready to answer a question, click the Question button to return to the question.


Company Overview -
HipLocal is a community application designed to facilitate communication between people in close proximity. It is used for event planning and organizing sporting events, and for businesses to connect with their local communities. HipLocal launched recently in a few neighborhoods in Dallas and is rapidly growing into a global phenomenon. Its unique style of hyper-local community communication and business outreach is in demand around the world.


Executive Statement -
We are the number one local community app; it's time to take our local community services global. Our venture capital investors want to see rapid growth and the same great experience for new local and virtual communities that come online, whether their members are 10 or 10000 miles away from each other.


Solution Concept -
HipLocal wants to expand their existing service, with updated functionality, in new regions to better serve their global customers. They want to hire and train a new team to support these regions in their time zones. They will need to ensure that the application scales smoothly and provides clear uptime data, and that they analyze and respond to any issues that occur.


Existing Technical Environment -
HipLocal's environment is a mix of on-premises hardware and infrastructure running in Google Cloud Platform. The HipLocal team understands their application well, but has limited experience in global scale applications. Their existing technical environment is as follows:
• Existing APIs run on Compute Engine virtual machine instances hosted in GCP.
• State is stored in a single instance MySQL database in GCP.
• Release cycles include development freezes to allow for QA testing.
• The application has no logging.
• Applications are manually deployed by infrastructure engineers during periods of slow traffic on weekday evenings.
• There are basic indicators of uptime; alerts are frequently fired when the APIs are unresponsive.


Business Requirements -
HipLocal's investors want to expand their footprint and support the increase in demand they are seeing. Their requirements are:
• Expand availability of the application to new regions.
• Support 10x as many concurrent users.
• Ensure a consistent experience for users when they travel to different regions.
• Obtain user activity metrics to better understand how to monetize their product.
• Ensure compliance with regulations in the new regions (for example, GDPR).
• Reduce infrastructure management time and cost.
• Adopt the Google-recommended practices for cloud computing.
○ Develop standardized workflows and processes around application lifecycle management.
○ Define service level indicators (SLIs) and service level objectives (SLOs).


Technical Requirements -
• Provide secure communications between the on-premises data center and cloud-hosted applications and infrastructure.
• The application must provide usage metrics and monitoring.
• APIs require authentication and authorization.
• Implement faster and more accurate validation of new features.
• Logging and performance metrics must provide actionable information to be able to provide debugging information and alerts.
• Must scale to meet user demand.


For this question, refer to the HipLocal case study.

Which Google Cloud product addresses HipLocal’s business requirements for service level indicators and objectives?

  • A. Cloud Profiler
  • B. Cloud Monitoring
  • C. Cloud Trace
  • D. Cloud Logging

18. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 19518. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 195

問題Question

分散マイクロサービス アーキテクチャを使用するアプリケーションを構築しています。 Java で作成されたマイクロサービスの 1 つにおけるパフォーマンスとシステム リソースの使用率を測定したいと考えています。どうすればいいでしょうか?

  • A. Cloud Profiler を使用してサービスを計測し、サービス内の CPU 使用率とメソッド レベルの実行時間を測定します。
  • B. デバッガを使用してサービスを計測し、サービス エラーを調査します。
  • C. Cloud Trace を使用してサービスを計測し、リクエストのレイテンシを測定します。
  • D. OpenCensus を使用してサービスを計測してサービスのレイテンシを測定し、カスタム指標を Cloud Monitoring に書き込みます。

You are building an application that uses a distributed microservices architecture. You want to measure the performance and system resource utilization in one of the microservices written in Java. What should you do?

  • A. Instrument the service with Cloud Profiler to measure CPU utilization and method-level execution times in the service.
  • B. Instrument the service with Debugger to investigate service errors.
  • C. Instrument the service with Cloud Trace to measure request latency.
  • D. Instrument the service with OpenCensus to measure service latency, and write custom metrics to Cloud Monitoring.

19. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 20519. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 205

問題Question

あなたは最近、本番環境で Cloud Spanner データベース インスタンスを実行している新しいチームに参加しました。マネージャーは、データベースの高い信頼性と可用性を維持しながらコストを削減するために、Spanner インスタンスを最適化するように依頼しました。どうすればいいでしょうか?

  • A. Cloud Logging を使用してエラー ログを確認し、必要な最小容量が見つかるまで Spanner の処理ユニットを少しずつ減らします。
  • B. Cloud Trace を使用して、Spanner への受信リクエストの 1 秒あたりのリクエストを監視し、必要な最小容量が見つかるまで Spanner の処理ユニットを少しずつ減らします。
  • C. Cloud Monitoring を使用して CPU 使用率をモニタリングし、必要な最小容量が見つかるまで Spanner の処理ユニットを少しずつ減らします。
  • D. スナップショット デバッガーを使用してアプリケーション エラーをチェックし、必要な最小容量が見つかるまで Spanner の処理ユニットを少しずつ減らします。

You recently joined a new team that has a Cloud Spanner database instance running in production. Your manager has asked you to optimize the Spanner instance to reduce cost while maintaining high reliability and availability of the database. What should you do?

  • A. Use Cloud Logging to check for error logs, and reduce Spanner processing units by small increments until you find the minimum capacity required.
  • B. Use Cloud Trace to monitor the requests per sec of incoming requests to Spanner, and reduce Spanner processing units by small increments until you find the minimum capacity required.
  • C. Use Cloud Monitoring to monitor the CPU utilization, and reduce Spanner processing units by small increments until you find the minimum capacity required.
  • D. Use Snapshot Debugger to check for application errors, and reduce Spanner processing units by small increments until you find the minimum capacity required.

20. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 20620. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 206

問題Question

最近、Go アプリケーションを Google Kubernetes Engine (GKE) にデプロイしました。運用チームは、運用トラフィックが少ない場合でもアプリケーションの CPU 使用率が高いことに気づきました。運用チームは、アプリケーションの CPU リソース消費を最適化するように依頼しました。どの Go 関数が CPU を最も多く消費するかを判断したいと考えています。どうすればいいでしょうか?

  • A. Cloud Logging にデータを記録するには、GKE クラスタに Fluent Bit デーモンセットをデプロイします。ログを分析して、アプリケーション コードのパフォーマンスに関する洞察を取得します。
  • B. Cloud Monitoring でカスタム ダッシュボードを作成して、アプリケーションの CPU パフォーマンス指標を評価します。
  • C. SSH を使用して GKE ノードに接続します。シェルで top コマンドを実行して、アプリケーションの CPU 使用率を抽出します。
  • D. Go アプリケーションを変更してプロファイリング データをキャプチャします。プロファイラーのフレーム グラフでアプリケーションの CPU メトリクスを分析します。

You recently deployed a Go application on Google Kubernetes Engine (GKE). The operations team has noticed that the application's CPU usage is high even when there is low production traffic. The operations team has asked you to optimize your application's CPU resource consumption. You want to determine which Go functions consume the largest amount of CPU. What should you do?

  • A. Deploy a Fluent Bit daemonset on the GKE cluster to log data in Cloud Logging. Analyze the logs to get insights into your application code’s performance.
  • B. Create a custom dashboard in Cloud Monitoring to evaluate the CPU performance metrics of your application.
  • C. Connect to your GKE nodes using SSH. Run the top command on the shell to extract the CPU utilization of your application.
  • D. Modify your Go application to capture profiling data. Analyze the CPU metrics of your application in flame graphs in Profiler.

21. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 20821. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 208

問題Question

最近、OpenTelemetry を使用して新しいアプリケーションを実装し、Trace でアプリケーション リクエストの遅延を確認したいと考えています。特定のリクエストが常にトレースされるようにしたいと考えています。どうすればいいでしょうか?

  • A. 10 分間待ってから、Trace がこれらの種類のリクエストを自動的にキャプチャすることを確認します。
  • B. 開発プロジェクトからこのタイプのリクエストを繰り返し送信するカスタム スクリプトを作成します。
  • C. Trace API を使用して、カスタム属性をトレースに適用します。
  • D. 適切なパラメーターを指定して、X-Cloud-Trace-Context ヘッダーをリクエストに追加します。

You have recently instrumented a new application with OpenTelemetry, and you want to check the latency of your application requests in Trace. You want to ensure that a specific request is always traced. What should you do?

  • A. Wait 10 minutes, then verify that Trace captures those types of requests automatically.
  • B. Write a custom script that sends this type of request repeatedly from your dev project.
  • C. Use the Trace API to apply custom attributes to the trace.
  • D. Add the X-Cloud-Trace-Context header to the request with the appropriate parameters.

22. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 22122. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 221

問題Question

あなたは、Go で記述され、Google Kubernetes Engine にデプロイされた Web アプリケーションを監視しています。 CPU とメモリの使用率が増加していることがわかります。どのソース コードが CPU およびメモリ リソースを最も多く消費しているかを判断する必要があります。どうすればいいでしょうか?

  • A. VM にスナップショット デバッガー エージェントをダウンロード、インストールし、起動します。最も時間がかかる関数のデバッグ スナップショットを取得します。呼び出しスタック フレームを確認し、スタック内のそのレベルにあるローカル変数を特定します。
  • B. Cloud Profiler パッケージをアプリケーションにインポートし、Profiler エージェントを初期化します。 Google Cloud コンソールで生成されたフレーム グラフを確認して、時間のかかる関数を特定します。
  • C. OpenTelemetry および Trace エクスポート パッケージをアプリケーションにインポートし、トレース プロバイダーを作成します。
    「トレース概要」ページでアプリケーションの遅延データを確認し、ボトルネックが発生している場所を特定します。
  • D. ウェブ アプリケーションのログを収集する Cloud Logging クエリを作成します。アプリケーションの最長関数の最初と最後からのタイムスタンプの差を計算して、時間のかかる関数を特定する Python スクリプトを作成します。

You are monitoring a web application that is written in Go and deployed in Google Kubernetes Engine. You notice an increase in CPU and memory utilization. You need to determine which source code is consuming the most CPU and memory resources. What should you do?

  • A. Download, install, and start the Snapshot Debugger agent in your VM. Take debug snapshots of the functions that take the longest time. Review the call stack frame, and identify the local variables at that level in the stack.
  • B. Import the Cloud Profiler package into your application, and initialize the Profiler agent. Review the generated flame graph in the Google Cloud console to identify time-intensive functions.
  • C. Import OpenTelemetry and Trace export packages into your application, and create the trace provider.
    Review the latency data for your application on the Trace overview page, and identify where bottlenecks are occurring.
  • D. Create a Cloud Logging query that gathers the web application's logs. Write a Python script that calculates the difference between the timestamps from the beginning and the end of the application's longest functions to identity time-intensive functions.

23. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 24423. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 244

問題Question

最近、あなたのアプリケーションに影響を与える政府規制が可決されました。コンプライアンスの目的で、特定のアプリケーション ログの複製をアプリケーションのプロジェクトからセキュリティ チームに制限されているプロジェクトに送信することが求められるようになりました。どうすればいいでしょうか?

  • A. セキュリティ チームのプロジェクトにユーザー定義のログ バケットを作成します。アプリケーションのログをセキュリティ チームのプロジェクトのログバケットにルーティングするように Cloud Logging シンクを構成します。
  • B. _Required ログ バケットからプロジェクト内のセキュリティ チームのログ バケットにログをコピーするジョブを作成します。
  • C. _Default ログ バケット シンク ルールを変更して、ログをセキュリティ チームのログ バケットに再ルーティングします。
  • D. システム イベント ログを _Required ログ バケットからプロジェクト内のセキュリティ チームのログ バケットにコピーするジョブを作成します。

A governmental regulation was recently passed that affects your application. For compliance purposes, you are now required to send a duplicate of specific application logs from your application’s project to a project that is restricted to the security team. What should you do?

  • A. Create user-defined log buckets in the security team’s project. Configure a Cloud Logging sink to route your application’s logs to log buckets in the security team’s project.
  • B. Create a job that copies the logs from the _Required log bucket into the security team’s log bucket in their project.
  • C. Modify the _Default log bucket sink rules to reroute the logs into the security team’s log bucket.
  • D. Create a job that copies the System Event logs from the _Required log bucket into the security team’s log bucket in their project.

24. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 25424. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 254

問題Question

あなたは、Google Kubernetes Engine (GKE) 上のマイクロサービス アプリケーションとしてオンライン ゲーム プラットフォームを開発しています。ソーシャル メディア上のユーザーは、アプリケーションへの特定の URL リクエストの読み込み時間が長いことに不満を抱いています。アプリケーションのパフォーマンスのボトルネックを調査し、ユーザー要求の待ち時間が大幅に長い HTTP 要求を特定する必要があります。どうすればいいでしょうか?

  • A. kubectl を使用して GKE ワークロード指標を構成します。すべてのポッドを選択して、指標を Cloud Monitoring に送信します。 Cloud Monitoring でアプリケーション指標のカスタム ダッシュボードを作成して、GKE クラスタのパフォーマンスのボトルネックを特定します。
  • B. HTTP リクエスト メソッドと URL パスを STDOUT に記録するようにマイクロサービスを更新します。ログ ルーターを使用して、コンテナ ログを Cloud Logging に送信します。 Cloud Logging でフィルタを作成し、さまざまなメソッドや URL パスにわたるユーザー リクエストのレイテンシを評価します。
  • C. OpenTelemetry トレース パッケージをインストールして、マイクロサービスを計測します。アプリケーション コードを更新して、検査と分析のためにトレースを Trace に送信します。 Trace で分析レポートを作成し、ユーザーのリクエストを分析します。
  • D. GKE ノードに tcpdump をインストールします。 tcpdump を実行して、長期間にわたってネットワーク トラフィックをキャプチャし、データを収集します。 Wireshark を使用してデータ ファイルを分析し、高遅延の原因を特定します。

You are developing an online gaming platform as a microservices application on Google Kubernetes Engine (GKE). Users on social media are complaining about long loading times for certain URL requests to the application. You need to investigate performance bottlenecks in the application and identify which HTTP requests have a significantly high latency span in user requests. What should you do?

  • A. Configure GKE workload metrics using kubectl. Select all Pods to send their metrics to Cloud Monitoring. Create a custom dashboard of application metrics in Cloud Monitoring to determine performance bottlenecks of your GKE cluster.
  • B. Update your microservices to log HTTP request methods and URL paths to STDOUT. Use the logs router to send container logs to Cloud Logging. Create filters in Cloud Logging to evaluate the latency of user requests across different methods and URL paths.
  • C. Instrument your microservices by installing the OpenTelemetry tracing package. Update your application code to send traces to Trace for inspection and analysis. Create an analysis report on Trace to analyze user requests.
  • D. Install tcpdump on your GKE nodes. Run tcpdump to capture network traffic over an extended period of time to collect data. Analyze the data files using Wireshark to determine the cause of high latency.

25. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 27825. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 278

問題Question

あなたは、Go で記述され、Google Kubernetes Engine にデプロイされた Web アプリケーションを監視しています。 CPU とメモリの使用率が増加していることがわかります。どの関数が CPU とメモリ リソースを最も多く消費しているかを判断する必要があります。どうすればいいでしょうか?

  • A. アプリケーションのソース コードに print コマンドを追加して、各関数が呼び出されたときにログを記録し、アプリケーションを再デプロイします。
  • B. ウェブ アプリケーションのログを収集する Cloud Logging クエリを作成します。アプリケーションの最も長い関数の最初と最後のタイムスタンプの差を計算して、時間のかかる関数を特定する Python スクリプトを作成します。
  • C. OpenTelemetry および Trace エクスポート パッケージをアプリケーションにインポートし、トレース プロバイダーを作成します。トレースの概要ページでアプリケーションのレイテンシ データを確認し、最もレイテンシの原因となっている関数を特定します。
  • D. Cloud Profiler パッケージをアプリケーションにインポートし、Profiler エージェントを初期化します。 Google Cloud コンソールで生成されたフレーム グラフを確認して、時間のかかる関数を特定します。

You are monitoring a web application that is written in Go and deployed in Google Kubernetes Engine. You notice an increase in CPU and memory utilization. You need to determine which function is consuming the most CPU and memory resources. What should you do?

  • A. Add print commands to the application source code to log when each function is called, and redeploy the application.
  • B. Create a Cloud Logging query that gathers the web application s logs. Write a Python script that calculates the difference between the timestamps from the beginning and the end of the application's longest functions to identify time-intensive functions.
  • C. Import OpenTelemetry and Trace export packages into your application, and create the trace provider. Review the latency data for your application on the Trace overview page, and identify which functions cause the most latency.
  • D. Import the Cloud Profiler package into your application, and initialize the Profiler agent. Review the generated flame graph in the Google Cloud console to identify time-intensive functions.

26. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 30126. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 301

問題Question

あなたは Cloud Run でパブリック ウェブ アプリケーションを開発しています。 Cloud Run サービスは、パブリック IP アドレスを使用して直接公開します。現在、負荷テストを実行して、アプリケーションが高トラフィック負荷に対して回復力があることを確認しています。軽いトラフィックを開始すると、アプリケーションが期待どおりに動作することがわかります。ただし、高負荷が生成されると、Web サーバーの動作が遅くなり、エラー メッセージが返されます。この問題をどのようにトラブルシューティングすればよいでしょうか?

  • A. Cloud Monitoring で Cloud Run へのネットワーク トラフィックを確認し、トラフィックの急増が発生したかどうかを検証します。必要に応じて、Cloud Run インスタンスでトラフィック分割を有効にして、トラフィックの一部を以前のインスタンス リビジョンにルーティングします。
  • B. Cloud Run サービスの min-instances 値を確認します。必要に応じて、負荷テストの仮想ユーザーの最大数に一致するように min-instances の値を増やします。
  • C. トラフィックが Cloud Run サービスにルーティングされる前に、Cloud Armor が分散型サービス拒否(DDoS)攻撃を検出し、トラフィックをブロックしているかどうかを確認します。必要に応じて、プロジェクト内の Cloud Armor ポリシーを無効にします。
  • D. Cloud Run サービスが max-instances 値と等しいインスタンス数にスケールされたかどうかを確認します。必要に応じて、max-instances の値を増やします。

You are developing a public web application on Cloud Run. You expose the Cloud Run service directly with its public IP address. You are now running a load test to ensure that your application is resilient against high traffic loads. You notice that your application performs as expected when you initiate light traffic. However, when you generate high loads, your web server runs slowly and returns error messages. How should you troubleshoot this issue?

  • A. Check the network traffic to Cloud Run in Cloud Monitoring to validate whether a traffic spike occurred. If necessary, enable traffic splitting on the Cloud Run instance to route some of the traffic to a previous instance revision.
  • B. Check the min-instances value for your Cloud Run service. If necessary, increase the min-instances value to match the maximum number of virtual users in your load test.
  • C. Check whether Cloud Armor is detecting distributed denial of service (DDoS) attacks and is blocking traffic before the traffic is routed to your Cloud Run service. If necessary, disable any Cloud Armor policies in your project.
  • D. Check whether the Cloud Run service has scaled to a number of instances that equals the max-instances value. If necessary, increase the max-instances value.

27. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 31427. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 314

問題Question

あなたは、Cloud Run 上に構築されたディスカッション ポータルを開発しています。受信した外部リクエストは、応答が送信される前に一連のマイクロサービスを通じてルーティングされます。これらのマイクロサービスの一部はデータベースに接続します。負荷テストを実行して、アプリケーションに負荷がかかっているときにボトルネックを特定する必要があります。 Google が推奨する慣行に従いたいと考えています。どうすればいいでしょうか?

  • A. 応答を変更して、サービスごとの経過時間を示す時系列を含めます。 Cloud Logging の Log Analytics を使用して、ボトルネックとなる可能性のあるサービスを明らかにするヒートマップを作成します。
  • B. 負荷テスト クライアントからのリクエストをキャプチャするように Cloud Trace を構成します。 Cloud Trace でタイミングを確認します。
  • C. 各リクエストのサービスごとのレイテンシーメトリクスを公開します。 Prometheus 用に Google Cloud マネージド サービスを構成し、それを使用して指標を収集および分析します。
  • D. 経過時間をキャプチャするログ ステートメントを追加します。 BigQuery を使用してログと指標を分析します。

You are developing a discussion portal that is built on Cloud Run. Incoming external requests are routed through a set of microservices before a response is sent. Some of these microservices connect to databases. You need to run a load test to identify any bottlenecks in the application when it is under load. You want to follow Google-recommended practices. What should you do?

  • A. Modify the response to include a time series that shows elapsed time per service. Use Log Analytics in Cloud Logging to create a heatmap that exposes any service that could be a bottleneck.
  • B. Configure Cloud Trace to capture the requests from the load testing clients. Review the timings in Cloud Trace.
  • C. Expose the latency metrics per service for each request. Configure Google Cloud Managed Service for Prometheus, and use it to scrape and analyze the metrics.
  • D. Add log statements that capture elapsed time. Analyze the logs and metrics by using BigQuery.

28. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 33228. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 332

問題Question

あなたの会社は最近、モノリス e コマース サイトを GKE のマイクロサービス アプリケーションにモダナイズしました。あなたのチームは、モニタリングとロギングに Google Cloud のオペレーション スイートを使用しています。最小限の労力で、マイクロサービス全体にわたる Cloud Logging のロギングのインデックス作成と検索機能を改善したいと考えています。どうすればいいでしょうか?

  • A. SRE チームに依頼して、GKE クラスタで Prometheus のマネージド サービスを有効にしてください。
  • B. ログを emptyDir ボリュームに書き込むようにアプリケーションを再構成します。ログを読み取り、Cloud Logging API に送信するようにサイドカー エージェントを構成します。
  • C. JSON 形式でログを出力するようにマイクロサービス コードを更新します。
  • D. OpenTelemetry ライブラリを使用してマイクロサービス コードをインストルメント化します。

Your company recently modernized their monolith ecommerce site to a microservices application in GKE. Your team uses Google Cloud's operations suite for monitoring and logging. You want to improve the logging indexing and searchabilty in Cloud Logging across your microservices with the least amount of effort. What should you do?

  • A. Ask the SRE team to enable Managed Service for Prometheus on your GKE cluster.
  • B. Reconfigure your applications to write logs to an emptyDir volume. Configure a sidecar agent to read the logs and send them to the Cloud Logging API.
  • C. Update your microservices code to emit logs in JSON format.
  • D. Instrument your microservices code with OpenTelemetry libraries.

29. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 37629. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 376

問題Question

Your team is trying to reduce their cloud spend, and you want to evaluate your GKE Autopilot cluster costs.マニフェストを確認すると、リソース要求が現在指定されていないことがわかります。アプリケーションはステートレスかつフォールトトレラントであり、ノードに特定のハードウェアまたはメモリ要件はありません。十分なコンピューティング リソースを備えたクラスターを維持しながら、できるだけ早くクラスターを変更して、スケーラブルでコスト効率が高いようにしたいと考えています。どうすればいいでしょうか?

  • A. ポッドがスポット ポッドとして実行されるようにリクエストし、YAML マニフェストで cloud.google.com/gke-spot=true ラベルを使用します。
  • B. YAML マニフェストでバランス コンピューティング クラスをリクエストします。
  • C. YAML デプロイ構成マニフェストで、最大 CPU を 5 vCPU に要求して設定します。
  • D. Cloud Trace と Cloud Monitoring を設定し、過去 30 日間に使用された最大メモリを特定し、その量のメモリを要求するように YAML マニフェストを設定します。

Your team is trying to reduce their cloud spend, and you want to evaluate your GKE Autopilot cluster costs. When reviewing the manifests, you see that resource requests are currently not specified. Your application is stateless and fault-tolerant, and there are no specific hardware or memory requirements on nodes. You want to modify the cluster to be scalable and cost-effective as quickly as possible while maintaining a cluster with sufficient computing resources. What should you do?

  • A. Request that your Pods run as Spot Pods, and use the cloud.google.com/gke-spot=true label in your YAML manifest.
  • B. Request the Balanced compute class in your YAML manifest.
  • C. In the YAML deployment configuration manifest, request and set the maximum CPU to 5 vCPU.
  • D. Set up Cloud Trace and Cloud Monitoring, identify the maximum memory used in the past 30 days, and set the YAML manifest to request that amount of memory.