Google Professional Cloud Developer データ、ストレージ、メッセージングGoogle Professional Cloud Developer Data, Storage, and Messaging

Cloud Storage、Pub/Sub、Firestore、Datastore、Spanner、Bigtable、Cloud SQL、Memorystore などのアプリケーション データ ストアとイベント トランスポートに使用します。Use for application data stores and event transport such as Cloud Storage, Pub/Sub, Firestore, Datastore, Spanner, Bigtable, Cloud SQL, and Memorystore.

試験Exams
PROFESSIONAL-CLOUD-DEVELOPER
問題数Questions
92
コメント数Comments
759
1 92

表示中 92 / 92 問

1. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 11. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 1

問題Question

データ移行の一環として、オンプレミスの仮想マシンから Google Cloud Storage にファイルをアップロードしたいと考えています。これらのファイルはクラウドによって消費されます
GCP 環境の DataProc Hadoop クラスター。
どのコマンドを使用すればよいでしょうか?

  • A. gsutil cp [LOCAL_OBJECT] gs://[DESTINATION_BUCKET_NAME]/
  • B. gcloud cp [LOCAL_OBJECT] gs://[DESTINATION_BUCKET_NAME]/
  • C. hadoop fs cp [LOCAL_OBJECT] gs://[DESTINATION_BUCKET_NAME]/
  • D. gcloud dataproc cp [LOCAL_OBJECT] gs://[DESTINATION_BUCKET_NAME]/

You want to upload files from an on-premises virtual machine to Google Cloud Storage as part of a data migration. These files will be consumed by Cloud
DataProc Hadoop cluster in a GCP environment.
Which command should you use?

  • A. gsutil cp [LOCAL_OBJECT] gs://[DESTINATION_BUCKET_NAME]/
  • B. gcloud cp [LOCAL_OBJECT] gs://[DESTINATION_BUCKET_NAME]/
  • C. hadoop fs cp [LOCAL_OBJECT] gs://[DESTINATION_BUCKET_NAME]/
  • D. gcloud dataproc cp [LOCAL_OBJECT] gs://[DESTINATION_BUCKET_NAME]/

2. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 32. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 3

問題Question

あなたは、MySQL データベースを Google Cloud のマネージド Cloud SQL データベースに移行することを計画しています。この Cloud SQL インスタンスに接続する Compute Engine 仮想マシン インスタンスがあります。 Compute Engine インスタンスが Cloud SQL にアクセスできるようにするための IP をホワイトリストに登録したくない場合。
どうすればいいでしょうか?

  • A. Cloud SQL インスタンスのプライベート IP を有効にします。
  • B. Cloud SQL にアクセスするプロジェクトをホワイトリストに登録し、ホワイトリストに登録されたプロジェクトに Compute Engine インスタンスを追加します。
  • C. 外部インスタンスからデータベースへのアクセスを許可するロールを Cloud SQL に作成し、Compute Engine インスタンスをそのロールに割り当てます。
  • D. 1 つのプロジェクトに CloudSQL インスタンスを作成します。別のプロジェクトに Compute エンジン インスタンスを作成します。これら 2 つのプロジェクト間に VPN を作成して、CloudSQL への内部アクセスを許可します。

You are planning to migrate a MySQL database to the managed Cloud SQL database for Google Cloud. You have Compute Engine virtual machine instances that will connect with this Cloud SQL instance. You do not want to whitelist IPs for the Compute Engine instances to be able to access Cloud SQL.
What should you do?

  • A. Enable private IP for the Cloud SQL instance.
  • B. Whitelist a project to access Cloud SQL, and add Compute Engine instances in the whitelisted project.
  • C. Create a role in Cloud SQL that allows access to the database from external instances, and assign the Compute Engine instances to that role.
  • D. Create a CloudSQL instance on one project. Create Compute engine instances in a different project. Create a VPN between these two projects to allow internal access to CloudSQL.

3. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 83. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 8

問題Question

ANSI-SQL 準拠のデータベース内に同一の列を持つ 2 つのテーブルがあり、これらを迅速に 1 つのテーブルに結合して、結果セットから重複行を削除する必要があります。
どうすればいいでしょうか?

  • A. SQL で JOIN 演算子を使用してテーブルを結合します。
  • B. ネストされた WITH ステートメントを使用してテーブルを結合します。
  • C. SQL で UNION 演算子を使用してテーブルを結合します。
  • D. SQL で UNION ALL 演算子を使用してテーブルを結合します。

You have two tables in an ANSI-SQL compliant database with identical columns that you need to quickly combine into a single table, removing duplicate rows from the result set.
What should you do?

  • A. Use the JOIN operator in SQL to combine the tables.
  • B. Use nested WITH statements to combine the tables.
  • C. Use the UNION operator in SQL to combine the tables.
  • D. Use the UNION ALL operator in SQL to combine the tables.

4. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 104. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 10

問題Question

あなたの会社は、人気のあるアプリケーションのユーザーを米国外に拡大したいと考えています。同社は、アプリケーションのデータベースの 99.999% の可用性を確保したいと考えており、また、世界中のユーザーの読み取り遅延を最小限に抑えたいと考えています。
彼らはどの 2 つのアクションをとるべきでしょうか? (2つお選びください。)

  • A. 「nam-asia-eur1」構成でマルチリージョンの Cloud Spanner インスタンスを作成します。
  • B. 「nam3」構成でマルチリージョンの Cloud Spanner インスタンスを作成します。
  • C. 少なくとも 3 つの Spanner ノードを含むクラスターを作成します。
  • D. 少なくとも 1 つの Spanner ノードを含むクラスターを作成します。
  • E. 少なくとも 1 つのノードを持つ別々のリージョンに少なくとも 2 つの Cloud Spanner インスタンスを作成します。
  • F. Cloud Dataflow パイプラインを作成して、さまざまなデータベース間でデータをレプリケートします。

Your company wants to expand their users outside the United States for their popular application. The company wants to ensure 99.999% availability of the database for their application and also wants to minimize the read latency for their users across the globe.
Which two actions should they take? (Choose two.)

  • A. Create a multi-regional Cloud Spanner instance with "nam-asia-eur1" configuration.
  • B. Create a multi-regional Cloud Spanner instance with "nam3" configuration.
  • C. Create a cluster with at least 3 Spanner nodes.
  • D. Create a cluster with at least 1 Spanner node.
  • E. Create a minimum of two Cloud Spanner instances in separate regions with at least one node.
  • F. Create a Cloud Dataflow pipeline to replicate data across different databases.

5. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 135. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 13

問題Question

チームメイトから、以下のコードを確認するように頼まれました。その目的は、多数の小さな行を BigQuery テーブルに効率的に追加することです。
image
チームメイトにどの改善を提案すべきですか?

  • A. 各リクエストには複数の行を含めます。
  • B. 複数のスレッドを作成して、挿入を並行して実行します。
  • C. 各行を Cloud Storage オブジェクトに書き込み、BigQuery に読み込みます。
  • D. 各行を Cloud Storage オブジェクトに並行して書き込み、BigQuery に読み込みます。

Your teammate has asked you to review the code below. Its purpose is to efficiently add a large number of small rows to a BigQuery table.
image
Which improvement should you suggest your teammate make?

  • A. Include multiple rows with each request.
  • B. Perform the inserts in parallel by creating multiple threads.
  • C. Write each row to a Cloud Storage object, then load into BigQuery.
  • D. Write each row to a Cloud Storage object in parallel, then load into BigQuery.

6. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 176. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 17

問題Question

サービスは、Cloud Storage から読み取った画像にテキストを追加します。一年の繁忙期には、Cloud Storage へのリクエストが HTTP 429「多すぎます」というメッセージで失敗します。
リクエスト」ステータスコード。
このエラーはどのように処理すればよいでしょうか?

  • A. キャッシュ制御ヘッダーをオブジェクトに追加します。
  • B. GCP Console から割り当ての増加をリクエストします。
  • C. 切り捨てられた指数バックオフ戦略を使用してリクエストを再試行します。
  • D. Cloud Storage バケットのストレージ クラスをマルチリージョンに変更します。

Your service adds text to images that it reads from Cloud Storage. During busy times of the year, requests to Cloud Storage fail with an HTTP 429 "Too Many
Requests" status code.
How should you handle this error?

  • A. Add a cache-control header to the objects.
  • B. Request a quota increase from the GCP Console.
  • C. Retry the request with a truncated exponential backoff strategy.
  • D. Change the storage class of the Cloud Storage bucket to Multi-regional.

7. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 197. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 19

問題Question

アプリケーションはユーザーから入力を受け取り、それをユーザーの連絡先に公開します。この入力は Cloud Spanner のテーブルに保存されます。アプリケーションはレイテンシにはより敏感ですが、一貫性にはそれほど敏感ではありません。
このアプリケーションに対して Cloud Spanner からの読み取りをどのように実行する必要がありますか?

  • A. 読み取り専用トランザクションを実行します。
  • B. シングルリード方式を使用して古い読み取りを実行します。
  • C. シングルリード方式を使用して強力な読み取りを実行します。
  • D. 読み取り/書き込みトランザクションを使用して古い読み取りを実行します。

Your application takes an input from a user and publishes it to the user's contacts. This input is stored in a table in Cloud Spanner. Your application is more sensitive to latency and less sensitive to consistency.
How should you perform reads from Cloud Spanner for this application?

  • A. Perform Read-Only transactions.
  • B. Perform stale reads using single-read methods.
  • C. Perform strong reads using single-read methods.
  • D. Perform stale reads using read-write transactions.

8. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 248. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 24

問題Question

あなたの会社には、数百人の従業員に分析情報を提供する BigQuery データ マートがあります。あるユーザーは、重要なワークロードを中断せずにジョブを実行したいと考えています。このユーザーは、これらのジョブの実行にかかる時間を気にしていません。会社のコストとお客様側で必要な労力を最小限に抑えながら、この要求を満たしたいと考えています。
どうすればいいでしょうか?

  • A. ジョブをバッチ ジョブとして実行するようにユーザーに依頼します。
  • B. ユーザーがジョブを実行するための別のプロジェクトを作成します。
  • C. ユーザーを既存のプロジェクトに job.user ロールとして追加します。
  • D. 重要なワークロードが実行されていないときにユーザーがジョブを実行できるようにします。

Your company has a BigQuery data mart that provides analytics information to hundreds of employees. One user of wants to run jobs without interrupting important workloads. This user isn't concerned about the time it takes to run these jobs. You want to fulfill this request while minimizing cost to the company and the effort required on your part.
What should you do?

  • A. Ask the user to run the jobs as batch jobs.
  • B. Create a separate project for the user to run jobs.
  • C. Add the user as a job.user role in the existing project.
  • D. Allow the user to run jobs when important workloads are not running.

9. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 309. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 30

問題Question

あなたの会社には、従業員の出張と経費に関する情報を保持する「Master」という名前の BigQuery データセットがあります。この情報は従業員の部門ごとに整理されています。つまり、従業員は自分の部門の情報のみを表示できる必要があります。セキュリティ フレームワークを適用して、最小限の手順でこの要件を強制したいと考えています。
どうすればいいでしょうか?

  • A. 部門ごとに個別のデータセットを作成します。適切な WHERE 句を使用してビューを作成し、特定の部門の特定のデータセットからレコードを選択します。このビューにマスター データセットのレコードへのアクセスを許可します。この部門固有のデータセットに対するアクセス許可を従業員に与えます。
  • B. 部門ごとに個別のデータセットを作成します。各部門のデータ パイプラインを作成して、適切な情報をマスター データセットから部門の特定のデータセットにコピーします。この部門固有のデータセットに対するアクセス許可を従業員に与えます。
  • C. マスター データセットという名前のデータセットを作成します。マスター データセット内の部門ごとに個別のビューを作成します。従業員が自分の部門の特定のビューにアクセスできるようにします。
  • D. マスター データセットという名前のデータセットを作成します。マスター データセット内の部門ごとに個別のテーブルを作成します。従業員に自分の部門の特定のテーブルへのアクセスを許可します。

Your company has a BigQuery dataset named "Master" that keeps information about employee travel and expenses. This information is organized by employee department. That means employees should only be able to view information for their department. You want to apply a security framework to enforce this requirement with the minimum number of steps.
What should you do?

  • A. Create a separate dataset for each department. Create a view with an appropriate WHERE clause to select records from a particular dataset for the specific department. Authorize this view to access records from your Master dataset. Give employees the permission to this department-specific dataset.
  • B. Create a separate dataset for each department. Create a data pipeline for each department to copy appropriate information from the Master dataset to the specific dataset for the department. Give employees the permission to this department-specific dataset.
  • C. Create a dataset named Master dataset. Create a separate view for each department in the Master dataset. Give employees access to the specific view for their department.
  • D. Create a dataset named Master dataset. Create a separate table for each department in the Master dataset. Give employees access to the specific table for their department.

10. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 3210. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 32

問題Question

サーバー アプリケーションの負荷テストを行っています。最初の 30 秒間は、以前は非アクティブだった Cloud Storage バケットが 1 秒あたり 2,000 件の書き込みリクエストと 1 秒あたり 7,500 件の読み取りリクエストを処理していることがわかります。アプリケーションは現在、Cloud Storage から断続的な 5xx および 429 HTTP 応答を受信して​​います。
需要が高まるにつれて JSON API が増加します。 Cloud Storage API からの失敗した応答を減らしたいと考えています。
どうすればいいでしょうか?

  • A. アップロードを多数の個別のストレージ バケットに分散します。
  • B. Cloud Storage とのインターフェースには、JSON API の代わりに XML API を使用します。
  • C. アプリケーションからアップロードを呼び出しているクライアントに HTTP 応答コードを返します。
  • D. アプリケーション クライアントからのアップロード レートを制限して、休止バケットのピーク リクエスト レートに徐々に到達するようにします。

You are load testing your server application. During the first 30 seconds, you observe that a previously inactive Cloud Storage bucket is now servicing 2000 write requests per second and 7500 read requests per second. Your application is now receiving intermittent 5xx and 429 HTTP responses from the Cloud Storage
JSON API as the demand escalates. You want to decrease the failed responses from the Cloud Storage API.
What should you do?

  • A. Distribute the uploads across a large number of individual storage buckets.
  • B. Use the XML API instead of the JSON API for interfacing with Cloud Storage.
  • C. Pass the HTTP response codes back to clients that are invoking the uploads from your application.
  • D. Limit the upload rate from your application clients so that the dormant bucket's peak request rate is reached more gradually.

11. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 3511. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 35

問題Question

アプリケーションは Stackdriver にログを記録しています。すべての /api/alpha/* エンドポイント上のすべてのリクエストの数を取得したいとします。
どうすればいいでしょうか?

  • A. パス:/api/alpha/ の Stackdriver カウンタ指標を追加します。
  • B. endpoint:/api/alpha/* の Stackdriver カウンタ指標を追加します。
  • C. ログを Cloud Storage にエクスポートし、/api/alpha に一致する行をカウントします。
  • D. ログを Cloud Pub/Sub にエクスポートし、/api/alpha に一致する行をカウントします。

Your application is logging to Stackdriver. You want to get the count of all requests on all /api/alpha/* endpoints.
What should you do?

  • A. Add a Stackdriver counter metric for path:/api/alpha/.
  • B. Add a Stackdriver counter metric for endpoint:/api/alpha/*.
  • C. Export the logs to Cloud Storage and count lines matching /api/alpha.
  • D. Export the logs to Cloud Pub/Sub and count lines matching /api/alpha.

12. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 3712. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 37

問題Question

既存のアプリケーションは、ユーザー状態情報を単一の MySQL データベースに保存します。この状態情報は非常にユーザー固有であり、ユーザーがアプリケーションを使用した時間に大きく依存します。 MySQL データベースは、さまざまなユーザー向けにスキーマを維持および強化するという課題を引き起こしています。
どのストレージ オプションを選択する必要がありますか?

  • A. クラウド SQL
  • B. クラウドストレージ
  • C. クラウドスパナー
  • D. クラウド データストア/Firestore

Your existing application keeps user state information in a single MySQL database. This state information is very user-specific and depends heavily on how long a user has been using an application. The MySQL database is causing challenges to maintain and enhance the schema for various users.
Which storage option should you choose?

  • A. Cloud SQL
  • B. Cloud Storage
  • C. Cloud Spanner
  • D. Cloud Datastore/Firestore

13. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 4813. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 48

問題Question

ケーススタディ -
これはケーススタディです。ケーススタディは個別に時間が設定されるわけではありません。各ケースを完了したいだけ試験時間を費やすことができます。ただし、この試験には追加のケーススタディやセクションが存在する場合があります。この試験に含まれるすべての質問を指定された時間内に完了できるように時間を管理する必要があります。
ケーススタディに含まれる質問に答えるには、ケーススタディで提供される情報を参照する必要があります。ケース スタディには、ケース スタディで説明されているシナリオに関する詳細情報を提供する展示やその他のリソースが含まれる場合があります。このケーススタディでは、各質問は他の質問から独立しています。
このケーススタディの最後に、レビュー画面が表示されます。この画面では、試験の次のセクションに進む前に、回答を確認し、変更を加えることができます。新しいセクションを開始した後は、このセクションに戻ることはできません。

ケーススタディを開始するには -
このケーススタディの最初の質問を表示するには、「次へ」ボタンをクリックします。質問に答える前に、左側のペインのボタンを使用してケーススタディの内容を調べてください。これらのボタンをクリックすると、ビジネス要件、既存の環境、問題の説明などの情報が表示されます。ケーススタディに
[すべての情報] タブでは、表示される情報が後続のタブに表示される情報と同じであることに注意してください。質問に答える準備ができたら、「質問」ボタンをクリックして質問に戻ります。

会社概要 -
HipLocal は、近くにいる人々の間のコミュニケーションを促進するように設計されたコミュニティ アプリケーションです。スポーツイベントの企画や開催、企業が地域社会とつながるために利用されています。 HipLocal は最近ダラスのいくつかの地域でサービスを開始し、急速に世界的な現象に成長しています。ハイパーローカルなコミュニティコミュニケーションとビジネスアウトリーチのユニークなスタイルは、世界中で需要があります。

エグゼクティブステートメント -
私たちはナンバーワンのローカルコミュニティアプリです。地域コミュニティ サービスをグローバルに展開する時が来ています。私たちのベンチャー キャピタルの投資家は、メンバーが互いに 10 マイルまたは 10,000 マイル離れていても、急速な成長と、オンラインになる新しいローカル コミュニティや仮想コミュニティに同様の素晴らしい体験を提供したいと考えています。

ソリューションコンセプト -
HipLocal は、世界中の顧客により良いサービスを提供するために、最新の機能を備えた既存のサービスを新しい地域で拡張したいと考えています。彼らは、これらの地域をタイムゾーンでサポートするための新しいチームを雇用してトレーニングしたいと考えています。アプリケーションがスムーズに拡張され、明確な稼働時間データが提供されることを確認する必要があります。

既存の技術環境 -
HipLocal の環境は、オンプレミスのハードウェアと Google Cloud Platform で実行されるインフラストラクチャが混在しています。 HipLocal チームはアプリケーションをよく理解していますが、世界規模のアプリケーションの経験は限られています。現在の技術環境は次のとおりです。
* 既存の API は、GCP でホストされている Compute Engine 仮想マシン インスタンス上で実行されます。
* 状態は GCP の単一インスタンスの MySQL データベースに保存されます。
* データはオンプレミスの Teradata/Vertica データ ウェアハウスにエクスポートされます。
* データ分析はオンプレミスの Hadoop 環境で実行されます。
※アプリケーションにはログ記録がありません。
* 稼働時間の基本的な指標があります。 API が応答しない場合、アラートが頻繁に発生します。

ビジネス要件 -
HipLocal の投資家は、事業展開を拡大し、見られる需要の増加をサポートしたいと考えています。彼らの要件は次のとおりです。
* アプリケーションの利用可能性を新しい地域に拡大します。
* サポートできる同時ユーザー数を増やします。
* ユーザーが異なる地域に旅行する場合でも、一貫したエクスペリエンスを確保します。
* ユーザーのアクティビティ指標を取得して、製品を収益化する方法をより深く理解します。
* 新しい地域の規制 (GDPR など) への準拠を確保します。
* インフラストラクチャ管理の時間とコストを削減します。
* Google が推奨するクラウド コンピューティングのプラクティスを採用します。

技術的要件 -
* アプリケーションとバックエンドは、使用状況のメトリクスとモニタリングを提供する必要があります。
* API には強力な認証と承認が必要です。
* ログ記録を増やし、データをクラウド分析プラットフォームに保存する必要があります。
* 柔軟なスケーリングを容易にするためにサーバーレス アーキテクチャに移行します。
* 安全な方法で内部アプリへの承認されたアクセスを提供します。
ビジネス要件を満たすために、HipLocal はアプリケーションの状態をどのように保存すべきでしょうか?

  • A. ローカル SSD を使用して状態を保存します。
  • B. MySQL の前に memcache 層を置きます。
  • C. 状態ストレージを Cloud Spanner に移動します。
  • D. MySQL インスタンスを Cloud SQL に置き換えます。

Case study -
This is a case study. Case studies are not timed separately. You can use as much exam time as you would like to complete each case. However, there may be additional case studies and sections on this exam. You must manage your time to ensure that you are able to complete all questions included on this exam in the time provided.
To answer the questions included in a case study, you will need to reference information that is provided in the case study. Case studies might contain exhibits and other resources that provide more information about the scenario that is described in the case study. Each question is independent of the other questions in this case study.
At the end of this case study, a review screen will appear. This screen allows you to review your answers and to make changes before you move to the next section of the exam. After you begin a new section, you cannot return to this section.

To start the case study -
To display the first question in this case study, click the Next button. Use the buttons in the left pane to explore the content of the case study before you answer the questions. Clicking these buttons displays information such as business requirements, existing environment, and problem statements. If the case study has an
All Information tab, note that the information displayed is identical to the information displayed on the subsequent tabs. When you are ready to answer a question, click the Question button to return to the question.

Company Overview -
HipLocal is a community application designed to facilitate communication between people in close proximity. It is used for event planning and organizing sporting events, and for businesses to connect with their local communities. HipLocal launched recently in a few neighborhoods in Dallas and is rapidly growing into a global phenomenon. Its unique style of hyper-local community communication and business outreach is in demand around the world.

Executive Statement -
We are the number one local community app; it's time to take our local community services global. Our venture capital investors want to see rapid growth and the same great experience for new local and virtual communities that come online, whether their members are 10 or 10000 miles away from each other.

Solution Concept -
HipLocal wants to expand their existing service, with updated functionality, in new regions to better serve their global customers. They want to hire and train a new team to support these regions in their time zones. They will need to ensure that the application scales smoothly and provides clear uptime data.

Existing Technical Environment -
HipLocal's environment is a mix of on-premises hardware and infrastructure running in Google Cloud Platform. The HipLocal team understands their application well, but has limited experience in global scale applications. Their existing technical environment is as follows:
* Existing APIs run on Compute Engine virtual machine instances hosted in GCP.
* State is stored in a single instance MySQL database in GCP.
* Data is exported to an on-premises Teradata/Vertica data warehouse.
* Data analytics is performed in an on-premises Hadoop environment.
* The application has no logging.
* There are basic indicators of uptime; alerts are frequently fired when the APIs are unresponsive.

Business Requirements -
HipLocal's investors want to expand their footprint and support the increase in demand they are seeing. Their requirements are:
* Expand availability of the application to new regions.
* Increase the number of concurrent users that can be supported.
* Ensure a consistent experience for users when they travel to different regions.
* Obtain user activity metrics to better understand how to monetize their product.
* Ensure compliance with regulations in the new regions (for example, GDPR).
* Reduce infrastructure management time and cost.
* Adopt the Google-recommended practices for cloud computing.

Technical Requirements -
* The application and backend must provide usage metrics and monitoring.
* APIs require strong authentication and authorization.
* Logging must be increased, and data should be stored in a cloud analytics platform.
* Move to serverless architecture to facilitate elastic scaling.
* Provide authorized access to internal apps in a secure manner.
In order to meet their business requirements, how should HipLocal store their application state?

  • A. Use local SSDs to store state.
  • B. Put a memcache layer in front of MySQL.
  • C. Move the state storage to Cloud Spanner.
  • D. Replace the MySQL instance with Cloud SQL.

14. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 5314. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 53

問題Question

あなたは、MySQL から Cloud Bigtable に移動するテーブルのスキーマを設計しています。 MySQL テーブルは次のとおりです。
image
このテーブルの Cloud Bigtable の行キーをどのように設計すればよいでしょうか?

  • A. Account_id をキーとして設定します。
  • B. Account_id_Event_timestamp をキーとして設定します。
  • C. Event_timestamp_Account_id をキーとして設定します。
  • D. Event_timestamp をキーとして設定します。

You are designing a schema for a table that will be moved from MySQL to Cloud Bigtable. The MySQL table is as follows:
image
How should you design a row key for Cloud Bigtable for this table?

  • A. Set Account_id as a key.
  • B. Set Account_id_Event_timestamp as a key.
  • C. Set Event_timestamp_Account_id as a key.
  • D. Set Event_timestamp as a key.

15. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 5515. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 55

問題Question

BigQuery API を使用して、BigQuery 上で数分ごとに数百のクエリを実行する分析アプリケーションがあります。これらのクエリの実行にどれくらいの時間がかかるかを調べたいと考えています。
どうすればいいでしょうか?

  • A. Stackdriver Monitoring を使用してスロットの使用状況をプロットします。
  • B. Stackdriver Trace を使用して API 実行時間をプロットします。
  • C. Stackdriver Trace を使用してクエリ実行時間をプロットします。
  • D. Stackdriver Monitoring を使用してクエリ実行時間をプロットします。

You have an analytics application that runs hundreds of queries on BigQuery every few minutes using BigQuery API. You want to find out how much time these queries take to execute.
What should you do?

  • A. Use Stackdriver Monitoring to plot slot usage.
  • B. Use Stackdriver Trace to plot API execution time.
  • C. Use Stackdriver Trace to plot query execution time.
  • D. Use Stackdriver Monitoring to plot query execution times.

16. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 5616. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 56

問題Question

あなたは、Cloud Spanner 顧客データベースのスキーマを設計しています。電話番号配列フィールドを顧客テーブルに保存したいと考えています。また、ユーザーが電話番号で顧客を検索できるようにしたいと考えています。
このスキーマはどのように設計すればよいでしょうか?

  • A. Customers という名前のテーブルを作成します。顧客の電話番号を保持する配列フィールドをテーブルに追加します。
  • B. Customers という名前のテーブルを作成します。 Phones という名前のテーブルを作成します。電話番号から CustomerId を検索するには、Phones テーブルに CustomerId フィールドを追加します。
  • C. Customers という名前のテーブルを作成します。顧客の電話番号を保持する配列フィールドをテーブルに追加します。 Array フィールドにセカンダリ インデックスを作成します。
  • D. Customers という名前のテーブルを親テーブルとして作成します。 Phones という名前のテーブルを作成し、このテーブルを Customer テーブルにインターリーブします。 Phones テーブルの電話番号フィールドにインデックスを作成します。

You are designing a schema for a Cloud Spanner customer database. You want to store a phone number array field in a customer table. You also want to allow users to search customers by phone number.
How should you design this schema?

  • A. Create a table named Customers. Add an Array field in a table that will hold phone numbers for the customer.
  • B. Create a table named Customers. Create a table named Phones. Add a CustomerId field in the Phones table to find the CustomerId from a phone number.
  • C. Create a table named Customers. Add an Array field in a table that will hold phone numbers for the customer. Create a secondary index on the Array field.
  • D. Create a table named Customers as a parent table. Create a table named Phones, and interleave this table into the Customer table. Create an index on the phone number field in the Phones table.

17. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 5917. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 59

問題Question

あなたはソーシャル メディア アプリケーションを開発しています。ユーザーが画像をアップロードできる機能を追加する予定です。これらのイメージのサイズは 2 MB `" 1 GB になります。この機能のためのインフラストラクチャ操作のオーバーヘッドを最小限に抑えたいと考えています。
どうすればいいでしょうか?

  • A. 画像を直接受け入れ、他のユーザー情報を保存するデータベースに画像を保存するようにアプリケーションを変更します。
  • B. Cloud Storage の署名付き URL を作成するようにアプリケーションを変更します。これらの署名付き URL をクライアント アプリケーションに転送して、画像を Cloud Storage にアップロードします。
  • C. GCP 上にウェブサーバーをセットアップしてユーザー画像を受け入れ、アップロードされたファイルを保存するファイルストアを作成します。ファイル ストアから画像を取得するようにアプリケーションを変更します。
  • D. Cloud Storage にユーザーごとに個別のバケットを作成します。各バケットへの書き込みアクセスを許可するには、個別のサービス アカウントを割り当てます。ユーザー情報に基づいて、サービス アカウントの資格情報をクライアント アプリケーションに転送します。アプリケーションはこのサービス アカウントを使用して画像を Cloud Storage にアップロードします。

You are working on a social media application. You plan to add a feature that allows users to upload images. These images will be 2 MB `" 1 GB in size. You want to minimize their infrastructure operations overhead for this feature.
What should you do?

  • A. Change the application to accept images directly and store them in the database that stores other user information.
  • B. Change the application to create signed URLs for Cloud Storage. Transfer these signed URLs to the client application to upload images to Cloud Storage.
  • C. Set up a web server on GCP to accept user images and create a file store to keep uploaded files. Change the application to retrieve images from the file store.
  • D. Create a separate bucket for each user in Cloud Storage. Assign a separate service account to allow write access on each bucket. Transfer service account credentials to the client application based on user information. The application uses this service account to upload images to Cloud Storage.

18. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 6318. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 63

問題Question

あなたの会社には、アプリケーション情報を BigQuery に保存するデータ ウェアハウスがあります。 BigQuery データ ウェアハウスは 2 PB のユーザー データを保持します。最近、あなたの会社は EU ユーザーを含むようにユーザー ベースを拡大したため、次の要件に準拠する必要があります。
✑ あなたの会社は、ユーザーの要求に応じてすべてのユーザー アカウント情報を削除できなければなりません。
✑ すべての EU ユーザー データは、EU ユーザー専用の単一リージョンに保存する必要があります。
どの 2 つのアクションを取る必要がありますか? (2つお選びください。)

  • A. BigQuery 連携クエリを使用して、Cloud Storage からデータをクエリします。
  • B. EU ユーザーに関する情報のみを保持するデータセットを EU 地域に作成します。
  • C. EU リージョンに Cloud Storage バケットを作成して、EU ユーザーのみの情報を保存します。
  • D. ユーザー レコードをフィルタリングして除外し、Cloud Dataflow パイプラインにデータを再アップロードします。
  • E. BigQuery で DML ステートメントを使用して、リクエストに基づいてユーザー レコードを更新/削除します。

Your company has a data warehouse that keeps your application information in BigQuery. The BigQuery data warehouse keeps 2 PBs of user data. Recently, your company expanded your user base to include EU users and needs to comply with these requirements:
✑ Your company must be able to delete all user account information upon user request.
✑ All EU user data must be stored in a single region specifically for EU users.
Which two actions should you take? (Choose two.)

  • A. Use BigQuery federated queries to query data from Cloud Storage.
  • B. Create a dataset in the EU region that will keep information about EU users only.
  • C. Create a Cloud Storage bucket in the EU region to store information for EU users only.
  • D. Re-upload your data using to a Cloud Dataflow pipeline by filtering your user records out.
  • E. Use DML statements in BigQuery to update/delete user records based on their requests.

19. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 7119. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 71

問題Question

あなたの会社は、オンプレミスの Hadoop 環境をクラウドに移行することを計画しています。ストレージ コストの増加と、HDFS に保存されたデータのメンテナンスは、企業にとって大きな懸念事項です。また、既存のデータ分析ジョブと既存のアーキテクチャには最小限の変更を加えたいと考えています。
移行はどのように進めるべきですか?

  • A. Hadoop に保存されているデータを BigQuery に移行します。オンプレミスの Hadoop 環境ではなく BigQuery から情報を取得するようにジョブを変更します。
  • B. コストを節約するには、SSD ではなく HDD を使用して Compute Engine インスタンスを作成します。次に、既存の環境を Compute Engine インスタンスの新しい環境に完全に移行します。
  • C. Google Cloud Platform 上に Cloud Dataproc クラスタを作成し、Hadoop 環境を新しい Cloud Dataproc クラスタに移行します。 HDFS データをより大きな HDD ディスクに移動して、ストレージ コストを節約します。
  • D. Google Cloud Platform 上に Cloud Dataproc クラスタを作成し、Hadoop コード オブジェクトを新しいクラスタに移行します。データを Cloud Storage に移動し、Cloud Dataproc コネクタを利用してそのデータに対してジョブを実行します。

Your company is planning to migrate their on-premises Hadoop environment to the cloud. Increasing storage cost and maintenance of data stored in HDFS is a major concern for your company. You also want to make minimal changes to existing data analytics jobs and existing architecture.
How should you proceed with the migration?

  • A. Migrate your data stored in Hadoop to BigQuery. Change your jobs to source their information from BigQuery instead of the on-premises Hadoop environment.
  • B. Create Compute Engine instances with HDD instead of SSD to save costs. Then perform a full migration of your existing environment into the new one in Compute Engine instances.
  • C. Create a Cloud Dataproc cluster on Google Cloud Platform, and then migrate your Hadoop environment to the new Cloud Dataproc cluster. Move your HDFS data into larger HDD disks to save on storage costs.
  • D. Create a Cloud Dataproc cluster on Google Cloud Platform, and then migrate your Hadoop code objects to the new cluster. Move your data to Cloud Storage and leverage the Cloud Dataproc connector to run jobs on that data.

20. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 7220. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 72

問題Question

データは Cloud Storage バケットに保存されます。他の開発者は、Cloud Storage からダウンロードされたデータによって API のパフォーマンスが低下していると報告しています。
あなたは問題を調査して、GCP サポート チームに詳細を提供したいと考えています。
どのコマンドを実行すればよいでしょうか?

  • A. gsutil テスト「output.json gs://my-bucket」
  • B. gsutil perfdiag は、output.json gs://my-bucket
  • C. gcloud compute scp example-instance:~/test-data 、output.json gs://my-bucket
  • D. gcloud サービス テスト「output.json gs://my-bucket」

Your data is stored in Cloud Storage buckets. Fellow developers have reported that data downloaded from Cloud Storage is resulting in slow API performance.
You want to research the issue to provide details to the GCP support team.
Which command should you run?

  • A. gsutil test ג€"o output.json gs://my-bucket
  • B. gsutil perfdiag ג€"o output.json gs://my-bucket
  • C. gcloud compute scp example-instance:~/test-data ג€"o output.json gs://my-bucket
  • D. gcloud services test ג€"o output.json gs://my-bucket

21. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 7521. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 75

問題Question

チームメイトから、Cloud Datastore のアカウント残高にクレジットを追加する以下のコードを確認するように頼まれました。
チームメイトにどの改善を提案すべきですか?
image

  • A. 祖先クエリを使用してエンティティを取得します。
  • B. エンティティを取得してトランザクションに追加します。
  • C. 一貫性の高いトランザクション データベースを使用します。
  • D. 関数からアカウント エンティティを返さないでください。

Your teammate has asked you to review the code below, which is adding a credit to an account balance in Cloud Datastore.
Which improvement should you suggest your teammate make?
image

  • A. Get the entity with an ancestor query.
  • B. Get and put the entity in a transaction.
  • C. Use a strongly consistent transactional database.
  • D. Don't return the account entity from the function.

22. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 8022. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 80

問題Question

ケーススタディ -
これはケーススタディです。ケーススタディは個別に時間が設定されるわけではありません。各ケースを完了したいだけ試験時間を費やすことができます。ただし、この試験には追加のケーススタディやセクションが存在する場合があります。この試験に含まれるすべての質問を指定された時間内に完了できるように時間を管理する必要があります。
ケーススタディに含まれる質問に答えるには、ケーススタディで提供される情報を参照する必要があります。ケース スタディには、ケース スタディで説明されているシナリオに関する詳細情報を提供する展示やその他のリソースが含まれる場合があります。このケーススタディでは、各質問は他の質問から独立しています。
このケーススタディの最後に、レビュー画面が表示されます。この画面では、試験の次のセクションに進む前に、回答を確認し、変更を加えることができます。新しいセクションを開始した後は、このセクションに戻ることはできません。

ケーススタディを開始するには -
このケーススタディの最初の質問を表示するには、「次へ」ボタンをクリックします。質問に答える前に、左側のペインのボタンを使用してケーススタディの内容を調べてください。これらのボタンをクリックすると、ビジネス要件、既存の環境、問題の説明などの情報が表示されます。ケーススタディに
[すべての情報] タブでは、表示される情報が後続のタブに表示される情報と同じであることに注意してください。質問に答える準備ができたら、「質問」ボタンをクリックして質問に戻ります。

会社概要 -
HipLocal は、近くにいる人々の間のコミュニケーションを促進するように設計されたコミュニティ アプリケーションです。スポーツイベントの企画や開催、企業が地域社会とつながるために利用されています。 HipLocal は最近ダラスのいくつかの地域でサービスを開始し、急速に世界的な現象に成長しています。ハイパーローカルなコミュニティコミュニケーションとビジネスアウトリーチのユニークなスタイルは、世界中で需要があります。

エグゼクティブステートメント -
私たちはナンバーワンのローカルコミュニティアプリです。地域コミュニティ サービスをグローバルに展開する時が来ています。私たちのベンチャー キャピタルの投資家は、メンバーが互いに 10 マイルまたは 10,000 マイル離れていても、急速な成長と、オンラインになる新しいローカル コミュニティや仮想コミュニティに同様の素晴らしい体験を提供したいと考えています。

ソリューションコンセプト -
HipLocal は、世界中の顧客により良いサービスを提供するために、最新の機能を備えた既存のサービスを新しい地域で拡張したいと考えています。彼らは、これらの地域をタイムゾーンでサポートするための新しいチームを雇用してトレーニングしたいと考えています。アプリケーションがスムーズに拡張され、明確な稼働時間データが提供されることを確認する必要があります。

既存の技術環境 -
HipLocal の環境は、オンプレミスのハードウェアと Google Cloud Platform で実行されるインフラストラクチャが混在しています。 HipLocal チームはアプリケーションをよく理解していますが、世界規模のアプリケーションの経験は限られています。現在の技術環境は次のとおりです。
* 既存の API は、GCP でホストされている Compute Engine 仮想マシン インスタンス上で実行されます。
* 状態は GCP の単一インスタンスの MySQL データベースに保存されます。
* データはオンプレミスの Teradata/Vertica データ ウェアハウスにエクスポートされます。
* データ分析はオンプレミスの Hadoop 環境で実行されます。
※アプリケーションにはログ記録がありません。
* 稼働時間の基本的な指標があります。 API が応答しない場合、アラートが頻繁に発生します。

ビジネス要件 -
HipLocal の投資家は、事業展開を拡大し、見られる需要の増加をサポートしたいと考えています。彼らの要件は次のとおりです。
* アプリケーションの利用可能性を新しい地域に拡大します。
* サポートできる同時ユーザー数を増やします。
* ユーザーが異なる地域に旅行する場合でも、一貫したエクスペリエンスを確保します。
* ユーザーのアクティビティ指標を取得して、製品を収益化する方法をより深く理解します。
* 新しい地域の規制 (GDPR など) への準拠を確保します。
* インフラストラクチャ管理の時間とコストを削減します。
* Google が推奨するクラウド コンピューティングのプラクティスを採用します。

技術的要件 -
* アプリケーションとバックエンドは、使用状況のメトリクスとモニタリングを提供する必要があります。
* API には強力な認証と承認が必要です。
* ログ記録を増やし、データをクラウド分析プラットフォームに保存する必要があります。
* 柔軟なスケーリングを容易にするためにサーバーレス アーキテクチャに移行します。
* 安全な方法で内部アプリへの承認されたアクセスを提供します。
HipLocal はユーザー アクティビティを保存するためにどのデータベースを使用する必要がありますか?

  • A. BigQuery
  • B. クラウド SQL
  • C. クラウドスパナー
  • D. クラウドデータストア

Case study -
This is a case study. Case studies are not timed separately. You can use as much exam time as you would like to complete each case. However, there may be additional case studies and sections on this exam. You must manage your time to ensure that you are able to complete all questions included on this exam in the time provided.
To answer the questions included in a case study, you will need to reference information that is provided in the case study. Case studies might contain exhibits and other resources that provide more information about the scenario that is described in the case study. Each question is independent of the other questions in this case study.
At the end of this case study, a review screen will appear. This screen allows you to review your answers and to make changes before you move to the next section of the exam. After you begin a new section, you cannot return to this section.

To start the case study -
To display the first question in this case study, click the Next button. Use the buttons in the left pane to explore the content of the case study before you answer the questions. Clicking these buttons displays information such as business requirements, existing environment, and problem statements. If the case study has an
All Information tab, note that the information displayed is identical to the information displayed on the subsequent tabs. When you are ready to answer a question, click the Question button to return to the question.

Company Overview -
HipLocal is a community application designed to facilitate communication between people in close proximity. It is used for event planning and organizing sporting events, and for businesses to connect with their local communities. HipLocal launched recently in a few neighborhoods in Dallas and is rapidly growing into a global phenomenon. Its unique style of hyper-local community communication and business outreach is in demand around the world.

Executive Statement -
We are the number one local community app; it's time to take our local community services global. Our venture capital investors want to see rapid growth and the same great experience for new local and virtual communities that come online, whether their members are 10 or 10000 miles away from each other.

Solution Concept -
HipLocal wants to expand their existing service, with updated functionality, in new regions to better serve their global customers. They want to hire and train a new team to support these regions in their time zones. They will need to ensure that the application scales smoothly and provides clear uptime data.

Existing Technical Environment -
HipLocal's environment is a mix of on-premises hardware and infrastructure running in Google Cloud Platform. The HipLocal team understands their application well, but has limited experience in global scale applications. Their existing technical environment is as follows:
* Existing APIs run on Compute Engine virtual machine instances hosted in GCP.
* State is stored in a single instance MySQL database in GCP.
* Data is exported to an on-premises Teradata/Vertica data warehouse.
* Data analytics is performed in an on-premises Hadoop environment.
* The application has no logging.
* There are basic indicators of uptime; alerts are frequently fired when the APIs are unresponsive.

Business Requirements -
HipLocal's investors want to expand their footprint and support the increase in demand they are seeing. Their requirements are:
* Expand availability of the application to new regions.
* Increase the number of concurrent users that can be supported.
* Ensure a consistent experience for users when they travel to different regions.
* Obtain user activity metrics to better understand how to monetize their product.
* Ensure compliance with regulations in the new regions (for example, GDPR).
* Reduce infrastructure management time and cost.
* Adopt the Google-recommended practices for cloud computing.

Technical Requirements -
* The application and backend must provide usage metrics and monitoring.
* APIs require strong authentication and authorization.
* Logging must be increased, and data should be stored in a cloud analytics platform.
* Move to serverless architecture to facilitate elastic scaling.
* Provide authorized access to internal apps in a secure manner.
Which database should HipLocal use for storing user activity?

  • A. BigQuery
  • B. Cloud SQL
  • C. Cloud Spanner
  • D. Cloud Datastore

23. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 8323. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 83

問題Question

ケーススタディ -
これはケーススタディです。ケーススタディは個別に時間が設定されるわけではありません。各ケースを完了したいだけ試験時間を費やすことができます。ただし、この試験には追加のケーススタディやセクションが存在する場合があります。この試験に含まれるすべての質問を指定された時間内に完了できるように時間を管理する必要があります。
ケーススタディに含まれる質問に答えるには、ケーススタディで提供される情報を参照する必要があります。ケース スタディには、ケース スタディで説明されているシナリオに関する詳細情報を提供する展示やその他のリソースが含まれる場合があります。このケーススタディでは、各質問は他の質問から独立しています。
このケーススタディの最後に、レビュー画面が表示されます。この画面では、試験の次のセクションに進む前に、回答を確認し、変更を加えることができます。新しいセクションを開始した後は、このセクションに戻ることはできません。

ケーススタディを開始するには -
このケーススタディの最初の質問を表示するには、「次へ」ボタンをクリックします。質問に答える前に、左側のペインのボタンを使用してケーススタディの内容を調べてください。これらのボタンをクリックすると、ビジネス要件、既存の環境、問題の説明などの情報が表示されます。ケーススタディに
[すべての情報] タブでは、表示される情報が後続のタブに表示される情報と同じであることに注意してください。質問に答える準備ができたら、「質問」ボタンをクリックして質問に戻ります。

会社概要 -
HipLocal は、近くにいる人々の間のコミュニケーションを促進するように設計されたコミュニティ アプリケーションです。スポーツイベントの企画や開催、企業が地域社会とつながるために利用されています。 HipLocal は最近ダラスのいくつかの地域でサービスを開始し、急速に世界的な現象に成長しています。ハイパーローカルなコミュニティコミュニケーションとビジネスアウトリーチのユニークなスタイルは、世界中で需要があります。

エグゼクティブステートメント -
私たちはナンバーワンのローカルコミュニティアプリです。地域コミュニティ サービスをグローバルに展開する時が来ています。私たちのベンチャー キャピタルの投資家は、メンバーが互いに 10 マイルまたは 10,000 マイル離れていても、急速な成長と、オンラインになる新しいローカル コミュニティや仮想コミュニティに同様の素晴らしい体験を提供したいと考えています。

ソリューションコンセプト -
HipLocal は、世界中の顧客により良いサービスを提供するために、最新の機能を備えた既存のサービスを新しい地域で拡張したいと考えています。彼らは、これらの地域をタイムゾーンでサポートするための新しいチームを雇用してトレーニングしたいと考えています。アプリケーションがスムーズに拡張され、明確な稼働時間データが提供されることを確認する必要があります。

既存の技術環境 -
HipLocal の環境は、オンプレミスのハードウェアと Google Cloud Platform で実行されるインフラストラクチャが混在しています。 HipLocal チームはアプリケーションをよく理解していますが、世界規模のアプリケーションの経験は限られています。現在の技術環境は次のとおりです。
* 既存の API は、GCP でホストされている Compute Engine 仮想マシン インスタンス上で実行されます。
* 状態は GCP の単一インスタンスの MySQL データベースに保存されます。
* データはオンプレミスの Teradata/Vertica データ ウェアハウスにエクスポートされます。
* データ分析はオンプレミスの Hadoop 環境で実行されます。
※アプリケーションにはログ記録がありません。
* 稼働時間の基本的な指標があります。 API が応答しない場合、アラートが頻繁に発生します。

ビジネス要件 -
HipLocal の投資家は、事業展開を拡大し、見られる需要の増加をサポートしたいと考えています。彼らの要件は次のとおりです。
* アプリケーションの利用可能性を新しい地域に拡大します。
* サポートできる同時ユーザー数を増やします。
* ユーザーが異なる地域に旅行する場合でも、一貫したエクスペリエンスを確保します。
* ユーザーのアクティビティ指標を取得して、製品を収益化する方法をより深く理解します。
* 新しい地域の規制 (GDPR など) への準拠を確保します。
* インフラストラクチャ管理の時間とコストを削減します。
* Google が推奨するクラウド コンピューティングのプラクティスを採用します。

技術的要件 -
* アプリケーションとバックエンドは、使用状況のメトリクスとモニタリングを提供する必要があります。
* API には強力な認証と承認が必要です。
* ログ記録を増やし、データをクラウド分析プラットフォームに保存する必要があります。
* 柔軟なスケーリングを容易にするためにサーバーレス アーキテクチャに移行します。
* 安全な方法で内部アプリへの承認されたアクセスを提供します。
HipLocal がアプリケーションの状態を保存し、規定のビジネス要件を満たすためには、どのデータベース サービスに移行する必要がありますか?

  • A. クラウドスパナー
  • B. クラウドデータストア
  • C. キャッシュとしての Cloud Memorystore
  • D. リージョンごとに個別の Cloud SQL クラスタ

Case study -
This is a case study. Case studies are not timed separately. You can use as much exam time as you would like to complete each case. However, there may be additional case studies and sections on this exam. You must manage your time to ensure that you are able to complete all questions included on this exam in the time provided.
To answer the questions included in a case study, you will need to reference information that is provided in the case study. Case studies might contain exhibits and other resources that provide more information about the scenario that is described in the case study. Each question is independent of the other questions in this case study.
At the end of this case study, a review screen will appear. This screen allows you to review your answers and to make changes before you move to the next section of the exam. After you begin a new section, you cannot return to this section.

To start the case study -
To display the first question in this case study, click the Next button. Use the buttons in the left pane to explore the content of the case study before you answer the questions. Clicking these buttons displays information such as business requirements, existing environment, and problem statements. If the case study has an
All Information tab, note that the information displayed is identical to the information displayed on the subsequent tabs. When you are ready to answer a question, click the Question button to return to the question.

Company Overview -
HipLocal is a community application designed to facilitate communication between people in close proximity. It is used for event planning and organizing sporting events, and for businesses to connect with their local communities. HipLocal launched recently in a few neighborhoods in Dallas and is rapidly growing into a global phenomenon. Its unique style of hyper-local community communication and business outreach is in demand around the world.

Executive Statement -
We are the number one local community app; it's time to take our local community services global. Our venture capital investors want to see rapid growth and the same great experience for new local and virtual communities that come online, whether their members are 10 or 10000 miles away from each other.

Solution Concept -
HipLocal wants to expand their existing service, with updated functionality, in new regions to better serve their global customers. They want to hire and train a new team to support these regions in their time zones. They will need to ensure that the application scales smoothly and provides clear uptime data.

Existing Technical Environment -
HipLocal's environment is a mix of on-premises hardware and infrastructure running in Google Cloud Platform. The HipLocal team understands their application well, but has limited experience in global scale applications. Their existing technical environment is as follows:
* Existing APIs run on Compute Engine virtual machine instances hosted in GCP.
* State is stored in a single instance MySQL database in GCP.
* Data is exported to an on-premises Teradata/Vertica data warehouse.
* Data analytics is performed in an on-premises Hadoop environment.
* The application has no logging.
* There are basic indicators of uptime; alerts are frequently fired when the APIs are unresponsive.

Business Requirements -
HipLocal's investors want to expand their footprint and support the increase in demand they are seeing. Their requirements are:
* Expand availability of the application to new regions.
* Increase the number of concurrent users that can be supported.
* Ensure a consistent experience for users when they travel to different regions.
* Obtain user activity metrics to better understand how to monetize their product.
* Ensure compliance with regulations in the new regions (for example, GDPR).
* Reduce infrastructure management time and cost.
* Adopt the Google-recommended practices for cloud computing.

Technical Requirements -
* The application and backend must provide usage metrics and monitoring.
* APIs require strong authentication and authorization.
* Logging must be increased, and data should be stored in a cloud analytics platform.
* Move to serverless architecture to facilitate elastic scaling.
* Provide authorized access to internal apps in a secure manner.
In order for HipLocal to store application state and meet their stated business requirements, which database service should they migrate to?

  • A. Cloud Spanner
  • B. Cloud Datastore
  • C. Cloud Memorystore as a cache
  • D. Separate Cloud SQL clusters for each region

24. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 8724. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 87

問題Question

あなたは、顧客、注文、在庫のデータを Cloud Spanner 内のリレーショナル テーブルとして保存する e コマース アプリケーションを開発しています。最近の負荷テスト中に、Spanner のパフォーマンスが期待どおりに直線的に拡張されていないことがわかりました。原因は次のうちどれですか?

  • A. 32 ビット数値に対する 64 ビット数値型の使用。
  • B. 任意精度の値に対する STRING データ型の使用。
  • C. 単調増加する主キーとしてのバージョン 1 UUID の使用。
  • D. パラメータ化された SQL クエリに STARTS_WITH キーワードの代わりに LIKE を使用する。

You are developing an ecommerce application that stores customer, order, and inventory data as relational tables inside Cloud Spanner. During a recent load test, you discover that Spanner performance is not scaling linearly as expected. Which of the following is the cause?

  • A. The use of 64-bit numeric types for 32-bit numbers.
  • B. The use of the STRING data type for arbitrary-precision values.
  • C. The use of Version 1 UUIDs as primary keys that increase monotonically.
  • D. The use of LIKE instead of STARTS_WITH keyword for parameterized SQL queries.

25. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 8825. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 88

問題Question

あなたは、Pub/Sub サブスクリプションからクレジット カード データを読み取るアプリケーションを開発しています。コードを作成し、単体テストを完了しました。をテストする必要があります
Google Cloud にデプロイする前の Pub/Sub 統合。どうすればいいでしょうか?

  • A. メッセージをパブリッシュするサービスを作成し、Pub/Sub エミュレーターをデプロイします。発行サービスでランダムなコンテンツを生成し、エミュレーターに発行します。
  • B. アプリケーションにメッセージをパブリッシュするサービスを作成します。本番環境の Pub/Sub からメッセージを収集し、発行サービスを通じて再生します。
  • C. メッセージをパブリッシュするサービスを作成し、Pub/Sub エミュレーターをデプロイします。本番環境の Pub/Sub からメッセージを収集し、エミュレーターに発行します。
  • D. メッセージをパブリッシュするサービスを作成し、Pub/Sub エミュレーターをデプロイします。テスト メッセージの標準セットを公開サービスからエミュレータに公開します。

You are developing an application that reads credit card data from a Pub/Sub subscription. You have written code and completed unit testing. You need to test the
Pub/Sub integration before deploying to Google Cloud. What should you do?

  • A. Create a service to publish messages, and deploy the Pub/Sub emulator. Generate random content in the publishing service, and publish to the emulator.
  • B. Create a service to publish messages to your application. Collect the messages from Pub/Sub in production, and replay them through the publishing service.
  • C. Create a service to publish messages, and deploy the Pub/Sub emulator. Collect the messages from Pub/Sub in production, and publish them to the emulator.
  • D. Create a service to publish messages, and deploy the Pub/Sub emulator. Publish a standard set of testing messages from the publishing service to the emulator.

26. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 8926. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 89

問題Question

あなたは、単一の Pub/Sub トピックをサブスクライブしてメッセージを受信し、対応する行をデータベースに挿入するアプリケーションを設計しています。アプリケーションは Linux 上で実行され、プリエンプティブル仮想マシンを活用してコストを削減します。正常なシャットダウンを開始するシャットダウン スクリプトを作成する必要があります。
どうすればいいでしょうか?

  • A. プロセス間信号を使用してアプリケーション プロセスにデータベースから切断するよう通知するシャットダウン スクリプトを作成します。
  • B. ログインしているすべてのユーザーに Compute Engine インスタンスがダウンするというメッセージをブロードキャストし、現在の作業を保存してサインアウトするように指示するシャットダウン スクリプトを作成します。
  • C. アプリケーションによって 5 分ごとにポーリングされる場所にファイルを書き込むシャットダウン スクリプトを作成します。ファイルが読み取られた後、アプリケーションはデータベースから切断されます。
  • D. シャットダウンが進行中であることを通知するメッセージを Pub/Sub トピックにパブリッシュするシャットダウン スクリプトを作成します。アプリケーションはメッセージを読み取った後、データベースから切断します。

You are designing an application that will subscribe to and receive messages from a single Pub/Sub topic and insert corresponding rows into a database. Your application runs on Linux and leverages preemptible virtual machines to reduce costs. You need to create a shutdown script that will initiate a graceful shutdown.
What should you do?

  • A. Write a shutdown script that uses inter-process signals to notify the application process to disconnect from the database.
  • B. Write a shutdown script that broadcasts a message to all signed-in users that the Compute Engine instance is going down and instructs them to save current work and sign out.
  • C. Write a shutdown script that writes a file in a location that is being polled by the application once every five minutes. After the file is read, the application disconnects from the database.
  • D. Write a shutdown script that publishes a message to the Pub/Sub topic announcing that a shutdown is in progress. After the application reads the message, it disconnects from the database.

27. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 9127. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 91

問題Question

あなたのチームは、Google Kubernetes Engine 上で実行されるサービスを開発しています。 Google が推奨する方法を使用してログ データを標準化し、最小限の手順でデータをより有用なものにする必要があります。どうすればいいでしょうか? (2つお選びください。)

  • A. アプリケーション ログの BigQuery への集約エクスポートを作成して、ログ分析を容易にします。
  • B. アプリケーション ログの Cloud Storage への集約エクスポートを作成して、ログ分析を容易にします。
  • C. ログ出力を単一行 JSON として標準出力(stdout)に書き込み、構造化ログとして Cloud Logging に取り込みます。
  • D. 構造化ログを Cloud Logging に書き込むには、アプリケーション コードで Logging API の使用を義務付けます。
  • E. Pub/Sub API の使用を義務付けて、構造化データを Pub/Sub に書き込み、Dataflow ストリーミング パイプラインを作成してログを正規化し、分析のために BigQuery に書き込みます。

Your team develops services that run on Google Kubernetes Engine. You need to standardize their log data using Google-recommended practices and make the data more useful in the fewest number of steps. What should you do? (Choose two.)

  • A. Create aggregated exports on application logs to BigQuery to facilitate log analytics.
  • B. Create aggregated exports on application logs to Cloud Storage to facilitate log analytics.
  • C. Write log output to standard output (stdout) as single-line JSON to be ingested into Cloud Logging as structured logs.
  • D. Mandate the use of the Logging API in the application code to write structured logs to Cloud Logging.
  • E. Mandate the use of the Pub/Sub API to write structured data to Pub/Sub and create a Dataflow streaming pipeline to normalize logs and write them to BigQuery for analytics.

28. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 9328. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 93

問題Question

Cloud Storage API を使用するアプリケーションをサポートしているとします。ログを確認すると、複数の HTTP 503 Service Unavailable エラー応答が
API。アプリケーションはエラーをログに記録し、それ以上のアクションは実行しません。成功率を向上させるために、Google が推奨する再試行ロジックを実装したいと考えています。
どのアプローチを取るべきですか?

  • A. 設定された数の失敗がログに記録された後、バッチで失敗を再試行します。
  • B. 失敗するたびに、設定された時間間隔で最大回数まで再試行します。
  • C. 失敗するたびに、最大試行回数まで間隔をあけて再試行します。
  • D. 失敗するたびに、最大試行回数まで間隔を狭めて再試行します。

You support an application that uses the Cloud Storage API. You review the logs and discover multiple HTTP 503 Service Unavailable error responses from the
API. Your application logs the error and does not take any further action. You want to implement Google-recommended retry logic to improve success rates.
Which approach should you take?

  • A. Retry the failures in batch after a set number of failures is logged.
  • B. Retry each failure at a set time interval up to a maximum number of times.
  • C. Retry each failure at increasing time intervals up to a maximum number of tries.
  • D. Retry each failure at decreasing time intervals up to a maximum number of tries.

29. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 10529. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 105

問題Question

Cloud SQL と通信する Compute Engine インスタンスにアプリケーションをデプロイしています。 Cloud SQL Proxy を使用すると、アプリケーションのインスタンスに関連付けられたサービス アカウントを使用してアプリケーションがデータベースと通信できるようになります。サービス アカウントに割り当てられたロールに最小限のアクセス権を提供するという、Google が推奨するベスト プラクティスに従いたいと考えています。どうすればいいでしょうか?

  • A. プロジェクト編集者の役割を割り当てます。
  • B. プロジェクト所有者の役割を割り当てます。
  • C. Cloud SQL クライアントの役割を割り当てます。
  • D. Cloud SQL 編集者のロールを割り当てます。

You are deploying your application on a Compute Engine instance that communicates with Cloud SQL. You will use Cloud SQL Proxy to allow your application to communicate to the database using the service account associated with the application's instance. You want to follow the Google-recommended best practice of providing minimum access for the role assigned to the service account. What should you do?

  • A. Assign the Project Editor role.
  • B. Assign the Project Owner role.
  • C. Assign the Cloud SQL Client role.
  • D. Assign the Cloud SQL Editor role.

30. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 10830. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 108

問題Question

あなたは、ユーザーがニュース記事を読んだりコメントを投稿したりできるアプリケーションを開発しています。 Firestore を使用してユーザーが投稿したコメントを保存および表示するようにアプリケーションを構成したいと考えています。未知の数のコメントや記事をサポートするには、スキーマをどのように設計すればよいでしょうか?

  • A. 各コメントを記事のサブコレクションに保存します。
  • B. 各コメントを記事の配列プロパティに追加します。
  • C. 各コメントをドキュメントに保存し、コメントのキーを記事の配列プロパティに追加します。
  • D. 各コメントをドキュメントに保存し、コメントのキーをユーザー プロファイルの配列プロパティに追加します。

You are developing an application that will allow users to read and post comments on news articles. You want to configure your application to store and display user-submitted comments using Firestore. How should you design the schema to support an unknown number of comments and articles?

  • A. Store each comment in a subcollection of the article.
  • B. Add each comment to an array property on the article.
  • C. Store each comment in a document, and add the comment's key to an array property on the article.
  • D. Store each comment in a document, and add the comment's key to an array property on the user profile.

31. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 11231. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 112

問題Question

あなたのチームは会社の e コマース プラットフォームを開発しています。ユーザーは Web サイトにログインし、ショッピング カートに商品を追加します。ユーザーは 30 分間操作がないと自動的にログアウトされます。ユーザーが再度ログインすると、ショッピング カートが保存されるはずです。 Google が推奨するベスト プラクティスに従いながら、ユーザーのセッションとショッピング カートの情報をどのように保存する必要がありますか?

  • A. セッション情報を Pub/Sub に保存し、ショッピング カート情報を Cloud SQL に保存します。
  • B. ショッピング カートの情報を Cloud Storage 上のファイルに保存します。ファイル名はセッション ID です。
  • C. セッションとショッピング カートの情報を、複数の Compute Engine インスタンスで実行されている MySQL データベースに保存します。
  • D. セッション情報は Memorystore for Redis または Memorystore for Memcached に保存され、ショッピング カート情報は Firestore に保存されます。

Your team is developing an ecommerce platform for your company. Users will log in to the website and add items to their shopping cart. Users will be automatically logged out after 30 minutes of inactivity. When users log back in, their shopping cart should be saved. How should you store users' session and shopping cart information while following Google-recommended best practices?

  • A. Store the session information in Pub/Sub, and store the shopping cart information in Cloud SQL.
  • B. Store the shopping cart information in a file on Cloud Storage where the filename is the SESSION ID.
  • C. Store the session and shopping cart information in a MySQL database running on multiple Compute Engine instances.
  • D. Store the session information in Memorystore for Redis or Memorystore for Memcached, and store the shopping cart information in Firestore.

32. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 11832. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 118

問題Question

あなたは、クライアントが特定の期間、Web サイトからファイルをダウンロードできるようにするアプリケーションを開発しています。 Google が推奨するベスト プラクティスに従いながら、このタスクを完了するにはアプリケーションをどのように設計すればよいでしょうか?

  • A. ファイルを電子メールの添付ファイルとしてクライアントに送信するようにアプリケーションを構成します。
  • B. ファイルの Cloud Storage 署名付き URL を生成して割り当てます。クライアントがダウンロードできる URL を作成します。
  • C. 有効期限を指定して一時的な Cloud Storage バケットを作成し、そのバケットにダウンロード権限を付与します。ファイルをコピーし、クライアントに送信します。
  • D. 有効期限を指定して HTTP Cookie を生成します。時間が有効な場合は、Cloud Storage バケットからファイルをコピーし、クライアントがそのファイルをダウンロードできるようにします。

You are developing an application that will allow clients to download a file from your website for a specific period of time. How should you design the application to complete this task while following Google-recommended best practices?

  • A. Configure the application to send the file to the client as an email attachment.
  • B. Generate and assign a Cloud Storage-signed URL for the file. Make the URL available for the client to download.
  • C. Create a temporary Cloud Storage bucket with time expiration specified, and give download permissions to the bucket. Copy the file, and send it to the client.
  • D. Generate the HTTP cookies with time expiration specified. If the time is valid, copy the file from the Cloud Storage bucket, and make the file available for the client to download.

33. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 12333. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 123

問題Question

あなたのチームは、Cloud Identity によって維持されるユーザー ID を使用して実行されるアプリケーションを Google Cloud で開発しています。アプリケーションの各ユーザーは、メッセージがパブリッシュされる関連付けられた Pub/Sub トピックと、同じユーザーがパブリッシュされたメッセージを取得する Pub/Sub サブスクリプションを持ちます。承認されたユーザーのみが、自分の特定の Pub/Sub トピックとサブスクリプションをパブリッシュおよびサブスクライブできるようにする必要があります。どうすればいいでしょうか?
image

  • A. ユーザー ID をリソース レベルで pubsub.publisher ロールと pubsub.subscriber ロールにバインドします。
  • B. ユーザー ID に、プロジェクト レベルで pubsub.publisher ロールと pubsub.subscriber ロールを付与します。
  • C. ユーザー ID に、pubsub.topics.create および pubsub.subscriptions.create 権限を含むカスタム ロールを付与します。
  • D. pubsub.publisher ロールと pubsub.subscriber ロールを持つサービス アカウントとして実行するようにアプリケーションを構成します。

Your team is developing an application in Google Cloud that executes with user identities maintained by Cloud Identity. Each of your application's users will have an associated Pub/Sub topic to which messages are published, and a Pub/Sub subscription where the same user will retrieve published messages. You need to ensure that only authorized users can publish and subscribe to their own specific Pub/Sub topic and subscription. What should you do?
image

  • A. Bind the user identity to the pubsub.publisher and pubsub.subscriber roles at the resource level.
  • B. Grant the user identity the pubsub.publisher and pubsub.subscriber roles at the project level.
  • C. Grant the user identity a custom role that contains the pubsub.topics.create and pubsub.subscriptions.create permissions.
  • D. Configure the application to run as a service account that has the pubsub.publisher and pubsub.subscriber roles.

34. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 13034. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 130

問題Question

POST 経由で呼び出される HTTP クラウド関数があります。各送信のリクエスト本文には、数値データとテキスト データを含むフラットなネストされていない JSON 構造があります。クラウド機能が完了すると、収集されたデータは、多くのユーザーが並行して進行中の複雑な分析にすぐに利用できるようになります。提出物をどのように保持する必要がありますか?

  • A. 各 POST リクエストの JSON データをデータストアに直接永続化します。
  • B. POST リクエストの JSON データを変換し、BigQuery にストリーミングします。
  • C. POST リクエストの JSON データを変換し、リージョンの Cloud SQL クラスタに保存します。
  • D. 各 POST リクエストの JSON データを、リクエスト識別子を含むファイル名を持つ個別のファイルとして Cloud Storage 内に保存します。

You have an HTTP Cloud Function that is called via POST. Each submission's request body has a flat, unnested JSON structure containing numeric and text data. After the Cloud Function completes, the collected data should be immediately available for ongoing and complex analytics by many users in parallel. How should you persist the submissions?

  • A. Directly persist each POST request's JSON data into Datastore.
  • B. Transform the POST request's JSON data, and stream it into BigQuery.
  • C. Transform the POST request's JSON data, and store it in a regional Cloud SQL cluster.
  • D. Persist each POST request's JSON data as an individual file within Cloud Storage, with the file name containing the request identifier.

35. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 13535. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 135

問題Question

あなたは、後で購入をキャンセルまたは変更できる顧客からの購入を処理する e コマース アプリケーションを管理します。注文量は非常に変動しており、バックエンドの注文処理システムは一度に 1 つのリクエストしか処理できないことがわかります。使用量に関係なく、顧客にシームレスなパフォーマンスを保証したいと考えています。顧客の注文更新リクエストが生成された順序で実行されることが重要です。どうすればいいでしょうか?

  • A. 購入リクエストと変更リクエストを WebSocket 経由でバックエンドに送信します。
  • B. 購入リクエストと変更リクエストを REST リクエストとしてバックエンドに送信します。
  • C. Pub/Sub サブスクライバーをプル モードで使用し、データ ストアを使用して順序を管理します。
  • D. Pub/Sub サブスクライバーをプッシュ モードで使用し、データ ストアを使用して順序を管理します。

You manage an ecommerce application that processes purchases from customers who can subsequently cancel or change those purchases. You discover that order volumes are highly variable and the backend order-processing system can only process one request at a time. You want to ensure seamless performance for customers regardless of usage volume. It is crucial that customers' order update requests are performed in the sequence in which they were generated. What should you do?

  • A. Send the purchase and change requests over WebSockets to the backend.
  • B. Send the purchase and change requests as REST requests to the backend.
  • C. Use a Pub/Sub subscriber in pull mode and use a data store to manage ordering.
  • D. Use a Pub/Sub subscriber in push mode and use a data store to manage ordering.

36. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 13636. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 136

問題Question

あなたの会社は、顧客の購入履歴を保存し、次の要件を満たすデータベース ソリューションを必要としています。
✑ 顧客は送信後すぐに購入内容を問い合わせることができます。
✑ 購入品はさまざまなフィールドで並べ替えることができます。
✑ 異なるレコード形式を同時に保存できます。
これらの要件を満たすストレージ オプションはどれですか?

  • A. ネイティブ モードの Firestore
  • B. オブジェクト読み取りを使用した Cloud Storage
  • C. SQL SELECT ステートメントを使用した Cloud SQL
  • D. グローバル クエリを使用した Datastore モードの Firestore

Your company needs a database solution that stores customer purchase history and meets the following requirements:
✑ Customers can query their purchase immediately after submission.
✑ Purchases can be sorted on a variety of fields.
✑ Distinct record formats can be stored at the same time.
Which storage option satisfies these requirements?

  • A. Firestore in Native mode
  • B. Cloud Storage using an object read
  • C. Cloud SQL using a SQL SELECT statement
  • D. Firestore in Datastore mode using a global query

37. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 14237. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 142

問題Question

運用チームから、プロジェクト内で実行されている Cloud Bigtable、Memorystore、Cloud SQL データベースを一覧表示するスクリプトを作成するように依頼されました。このスクリプトでは、ユーザーがフィルター式を送信して、表示される結果を制限できるようにする必要があります。データをどのように取得すればよいでしょうか?

  • A. HBase API、Redis API、および MySQL 接続を使用してデータベース リストを取得します。結果を結合し、フィルターを適用して結果を表示します
  • B. HBase API、Redis API、および MySQL 接続を使用してデータベース リストを取得します。結果を個別にフィルタリングし、それらを結合して結果を表示します
  • C. gcloud bigtable インスタンス リスト、gcloud redis インスタンス リスト、gcloud sql データベース リストを実行します。アプリケーション内でフィルターを使用し、結果を表示します
  • D. gcloud bigtable インスタンス リスト、gcloud redis インスタンス リスト、gcloud sql データベース リストを実行します。各コマンドで --filter フラグを使用し、結果を表示します

Your operations team has asked you to create a script that lists the Cloud Bigtable, Memorystore, and Cloud SQL databases running within a project. The script should allow users to submit a filter expression to limit the results presented. How should you retrieve the data?

  • A. Use the HBase API, Redis API, and MySQL connection to retrieve database lists. Combine the results, and then apply the filter to display the results
  • B. Use the HBase API, Redis API, and MySQL connection to retrieve database lists. Filter the results individually, and then combine them to display the results
  • C. Run gcloud bigtable instances list, gcloud redis instances list, and gcloud sql databases list. Use a filter within the application, and then display the results
  • D. Run gcloud bigtable instances list, gcloud redis instances list, and gcloud sql databases list. Use --filter flag with each command, and then display the results

38. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 15538. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 155

問題Question

このアーキテクチャ図は、数千のデバイスからデータをストリーミングするシステムを示しています。データをパイプラインに取り込み、データを保存し、SQL ステートメントを使用してデータを分析したいと考えています。ステップ 1、2、3、4 ではどの Google Cloud サービスを使用する必要がありますか?

image

  • A. 1. アプリエンジン
    2. パブリッシュ/サブスクライブ
    3.ビッグクエリ
    4. ファイヤーストア
  • B. 1. データフロー
    2. パブリッシュ/サブスクライブ
    3. ファイヤーストア
    4.ビッグクエリ
  • C. 1. パブリッシュ/サブスクライブ
    2. データフロー
    3.ビッグクエリ
    4. ファイヤーストア
  • D. 1. パブリッシュ/サブスクライブ
    2. データフロー
    3. ファイヤーストア
    4.ビッグクエリ

This architectural diagram depicts a system that streams data from thousands of devices. You want to ingest data into a pipeline, store the data, and analyze the data using SQL statements. Which Google Cloud services should you use for steps 1, 2, 3, and 4?

image

  • A. 1. App Engine
    2. Pub/Sub
    3. BigQuery
    4. Firestore
  • B. 1. Dataflow
    2. Pub/Sub
    3. Firestore
    4. BigQuery
  • C. 1. Pub/Sub
    2. Dataflow
    3. BigQuery
    4. Firestore
  • D. 1. Pub/Sub
    2. Dataflow
    3. Firestore
    4. BigQuery

39. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 15739. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 157

問題Question

あなたのチームは、Google Cloud 上で実行されるサービスを開発しています。 Pub/Sub トピックに送信されたメッセージを処理して保存したいと考えています。データの重複やデータの競合を避けるために、各メッセージは 1 回だけ処理する必要があります。最も安価で最もシンプルなソリューションを使用する必要があります。どうすればいいでしょうか?

  • A. Dataproc ジョブでメッセージを処理し、出力をストレージに書き込みます。
  • B. Apache Beam の PubSubIO パッケージを使用して Dataflow ストリーミング パイプラインでメッセージを処理し、出力をストレージに書き込みます。
  • C. Cloud Function でメッセージを処理し、結果を BigQuery の場所に書き込み、そこでデータの重複を排除するジョブを実行できます。
  • D. Dataflow ストリーミング パイプラインを使用してメッセージを取得し、Cloud Bigtable に保存し、別の Dataflow ストリーミング パイプラインを使用してメッセージの重複を排除します。

Your team develops services that run on Google Cloud. You want to process messages sent to a Pub/Sub topic, and then store them. Each message must be processed exactly once to avoid duplication of data and any data conflicts. You need to use the cheapest and most simple solution. What should you do?

  • A. Process the messages with a Dataproc job, and write the output to storage.
  • B. Process the messages with a Dataflow streaming pipeline using Apache Beam's PubSubIO package, and write the output to storage.
  • C. Process the messages with a Cloud Function, and write the results to a BigQuery location where you can run a job to deduplicate the data.
  • D. Retrieve the messages with a Dataflow streaming pipeline, store them in Cloud Bigtable, and use another Dataflow streaming pipeline to deduplicate messages.

40. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 15940. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 159

問題Question

ユーザー管理のキーを持つユーザー管理のサービス アカウントを使用して Cloud Storage API に対して認証するオンプレミス アプリケーションがあります。アプリケーションは、専用の相互接続リンク経由で限定公開の Google アクセスを使用して Cloud Storage に接続します。 Cloud Storage バケット内のオブジェクトにアクセスするアプリケーションからのリクエストが、403 Permission Denied エラー コードで失敗していることがわかりました。この問題の考えられる原因は何ですか?

  • A. バケット内のフォルダー構造とオブジェクトのパスが変更されました。
  • B. サービス アカウントの事前定義されたロールの権限が変更されました。
  • C. サービス アカウント キーはローテーションされましたが、アプリケーション サーバー上で更新されていません。
  • D. オンプレミス データセンターから Google Cloud への相互接続リンクで一時的な停止が発生しています。

You have an on-premises application that authenticates to the Cloud Storage API using a user-managed service account with a user-managed key. The application connects to Cloud Storage using Private Google Access over a Dedicated Interconnect link. You discover that requests from the application to access objects in the Cloud Storage bucket are failing with a 403 Permission Denied error code. What is the likely cause of this issue?

  • A. The folder structure inside the bucket and object paths have changed.
  • B. The permissions of the service account’s predefined role have changed.
  • C. The service account key has been rotated but not updated on the application server.
  • D. The Interconnect link from the on-premises data center to Google Cloud is experiencing a temporary outage.

41. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 16041. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 160

問題Question

Cloud クライアント ライブラリを使用して、アプリケーション内の画像を Cloud Storage にアップロードしています。アプリケーションのユーザーは、アップロードが完了せず、クライアント ライブラリが HTTP 504 ゲートウェイ タイムアウト エラーを報告する場合があると報告しています。アプリケーションのエラーに対する耐性を強化したいと考えています。アプリケーションにどのような変更を加える必要がありますか?

  • A. クライアント ライブラリ呼び出しの周りに指数バックオフ プロセスを作成します。
  • B. クライアント ライブラリ呼び出しの周囲に 1 秒の待機時間のバックオフ プロセスを作成します。
  • C. アプリケーションに再試行ボタンを設計し、エラーが発生した場合にユーザーにクリックするよう求めます。
  • D. オブジェクトのキューを作成し、アプリケーションが 10 分後に再試行することをユーザーに通知します。

You are using the Cloud Client Library to upload an image in your application to Cloud Storage. Users of the application report that occasionally the upload does not complete and the client library reports an HTTP 504 Gateway Timeout error. You want to make the application more resilient to errors. What changes to the application should you make?

  • A. Write an exponential backoff process around the client library call.
  • B. Write a one-second wait time backoff process around the client library call.
  • C. Design a retry button in the application and ask users to click if the error occurs.
  • D. Create a queue for the object and inform the users that the application will try again in 10 minutes.

42. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 16142. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 161

問題Question

あなたは、階層データ構造をデータベースに保存するモバイル アプリケーションを構築しています。このアプリケーションを使用すると、オフラインで作業しているユーザーがオンラインに戻ったときに変更を同期できるようになります。バックエンド サービスは、サービス アカウントを使用してデータベース内のデータを強化します。このアプリケーションは非常に人気が高いと予想されており、シームレスかつ安全に拡張する必要があります。どのデータベースと IAM ロールを使用する必要がありますか?

  • A. Cloud SQL を使用し、roles/cloudsql.editor ロールをサービス アカウントに割り当てます。
  • B. Bigtable を使用し、roles/bigtable.viewer ロールをサービス アカウントに割り当てます。
  • C. Firestore をネイティブ モードで使用し、roles/datastore.user ロールをサービス アカウントに割り当てます。
  • D. Firestore をデータストア モードで使用し、roles/datastore.viewer ロールをサービス アカウントに割り当てます。

You are building a mobile application that will store hierarchical data structures in a database. The application will enable users working offline to sync changes when they are back online. A backend service will enrich the data in the database using a service account. The application is expected to be very popular and needs to scale seamlessly and securely. Which database and IAM role should you use?

  • A. Use Cloud SQL, and assign the roles/cloudsql.editor role to the service account.
  • B. Use Bigtable, and assign the roles/bigtable.viewer role to the service account.
  • C. Use Firestore in Native mode and assign the roles/datastore.user role to the service account.
  • D. Use Firestore in Datastore mode and assign the roles/datastore.viewer role to the service account.

43. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 16443. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 164

問題Question

あなたは、ユーザーに属するファイルを Cloud Storage に保存する必要があるアプリケーションを開発しています。各ユーザーが Cloud Storage 内に独自のサブディレクトリを持つようにしたいと考えています。新しいユーザーが作成されると、対応する空のサブディレクトリも作成される必要があります。どうすればいいでしょうか?

  • A. 長さ 0 バイトの末尾のスラッシュ (「/」) で終わるサブディレクトリ名のオブジェクトを作成します。
  • B. サブディレクトリの名前でオブジェクトを作成し、そのサブディレクトリ内のオブジェクトをすぐに削除します。
  • C. 長さが 0 バイトで、WRITER アクセス制御リスト権限を持つサブディレクトリの名前を持つオブジェクトを作成します。
  • D. 長さが 0 バイトのサブディレクトリ名を持つオブジェクトを作成します。 Content-Type メタデータを CLOUDSTORAGE_FOLDER に設定します。

You are developing an application that needs to store files belonging to users in Cloud Storage. You want each user to have their own subdirectory in Cloud Storage. When a new user is created, the corresponding empty subdirectory should also be created. What should you do?

  • A. Create an object with the name of the subdirectory ending with a trailing slash ('/') that is zero bytes in length.
  • B. Create an object with the name of the subdirectory, and then immediately delete the object within that subdirectory.
  • C. Create an object with the name of the subdirectory that is zero bytes in length and has WRITER access control list permission.
  • D. Create an object with the name of the subdirectory that is zero bytes in length. Set the Content-Type metadata to CLOUDSTORAGE_FOLDER.

44. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 17244. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 172

問題Question

あなたは、Google Cloud 上で実行される会社の e コマース プラットフォームの支払いシステムを管理しています。会社は、内部監査の目的でユーザー ログを 1 年間、コンプライアンス要件を満たすために 3 年間保持する必要があります。オンプレミス ストレージの使用量を最小限に抑え、簡単に検索できるようにするには、新しいユーザー ログを Google Cloud に保存する必要があります。ログが正しく保存されるようにしながら、労力を最小限に抑えたいと考えています。どうすればいいでしょうか?

  • A. バケット ロックをオンにして、ログを Cloud Storage バケットに保存します。
  • B. ログは 3 年間の保持期間で Cloud Storage バケットに保存します。
  • C. ログをカスタムの保持期間を持つカスタム ログとして Cloud Logging に保存します。
  • D. ログは 1 年間の保持期間で Cloud Storage バケットに保存します。 1 年後、ログを 2 年間の保持期間を持つ別のバケットに移動します。

You manage your company's ecommerce platform's payment system, which runs on Google Cloud. Your company must retain user logs for 1 year for internal auditing purposes and for 3 years to meet compliance requirements. You need to store new user logs on Google Cloud to minimize on-premises storage usage and ensure that they are easily searchable. You want to minimize effort while ensuring that the logs are stored correctly. What should you do?

  • A. Store the logs in a Cloud Storage bucket with bucket lock turned on.
  • B. Store the logs in a Cloud Storage bucket with a 3-year retention period.
  • C. Store the logs in Cloud Logging as custom logs with a custom retention period.
  • D. Store the logs in a Cloud Storage bucket with a 1-year retention period. After 1 year, move the logs to another bucket with a 2-year retention period.

45. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 18145. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 181

問題Question

あなたのチームは金融機関向けのアプリケーションを構築しています。アプリケーションのフロントエンドは Compute Engine 上で実行され、データは Cloud SQL と 1 つの Cloud Storage バケットに存在します。アプリケーションは PII を含むデータを収集し、Cloud SQL データベースと Cloud Storage バケットに保存されます。 PII データを保護する必要があります。どうすればいいでしょうか?

  • A. 1. フロントエンドのみが Cloud SQL データベースと通信できるように、関連するファイアウォール ルールを作成します。
    2. IAM を使用して、フロントエンド サービス アカウントのみに Cloud Storage バケットへのアクセスを許可します。
  • B. 1. フロントエンドのみが Cloud SQL データベースと通信できるように、関連するファイアウォール ルールを作成します。
    2. プライベート アクセスを有効にして、フロントエンドが Cloud Storage バケットにプライベートにアクセスできるようにします。
  • C. 1. Cloud SQL のプライベート IP アドレスを構成する
    2. VPC-SC を使用してサービス境界を作成する
    3. Cloud SQL データベースと Cloud Storage バケットを同じサービス境界に追加します
  • D. 1. Cloud SQL のプライベート IP アドレスを構成する
    2. VPC-SC を使用してサービス境界を作成する
    3. Cloud SQL データベースと Cloud Storage バケットを別のサービス境界に追加します

Your team is building an application for a financial institution. The application's frontend runs on Compute Engine, and the data resides in Cloud SQL and one Cloud Storage bucket. The application will collect data containing PII, which will be stored in the Cloud SQL database and the Cloud Storage bucket. You need to secure the PII data. What should you do?

  • A. 1. Create the relevant firewall rules to allow only the frontend to communicate with the Cloud SQL database
    2. Using IAM, allow only the frontend service account to access the Cloud Storage bucket
  • B. 1. Create the relevant firewall rules to allow only the frontend to communicate with the Cloud SQL database
    2. Enable private access to allow the frontend to access the Cloud Storage bucket privately
  • C. 1. Configure a private IP address for Cloud SQL
    2. Use VPC-SC to create a service perimeter
    3. Add the Cloud SQL database and the Cloud Storage bucket to the same service perimeter
  • D. 1. Configure a private IP address for Cloud SQL
    2. Use VPC-SC to create a service perimeter
    3. Add the Cloud SQL database and the Cloud Storage bucket to different service perimeters

46. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 18246. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 182

問題Question

あなたは、複数のルームをホストし、各ルームのメッセージ履歴を保持するチャット ルーム アプリケーションを設計しています。データベースとして Firestore を選択しました。 Firestore でデータをどのように表現すべきでしょうか?

  • A. 部屋のコレクションを作成します。ルームごとに、メッセージの内容をリストしたドキュメントを作成します。

    image
  • B. 部屋のコレクションを作成します。ルームごとに、各メッセージのドキュメントを含むコレクションを作成します。

    image
  • C. 部屋のコレクションを作成します。部屋ごとに、ドキュメントのコレクションを含むドキュメントを作成し、各ドキュメントにメッセージを含めます。

    image
  • D. 部屋のコレクションを作成し、部屋ごとにドキュメントを作成します。メッセージごとに 1 つのドキュメントを含む、メッセージ用の別個のコレクションを作成します。各ルームの文書には、メッセージへの参照リストが含まれています。

    image

You are designing a chat room application that will host multiple rooms and retain the message history for each room. You have selected Firestore as your database. How should you represent the data in Firestore?

  • A. Create a collection for the rooms. For each room, create a document that lists the contents of the messages

    image
  • B. Create a collection for the rooms. For each room, create a collection that contains a document for each message

    image
  • C. Create a collection for the rooms. For each room, create a document that contains a collection for documents, each of which contains a message.

    image
  • D. Create a collection for the rooms, and create a document for each room. Create a separate collection for messages, with one document per message. Each room’s document contains a list of references to the messages.

    image

47. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 18647. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 186

問題Question

ケーススタディ -

これはケーススタディです。ケーススタディは個別に時間が設定されるわけではありません。各ケースを完了したいだけ試験時間を費やすことができます。ただし、この試験には追加のケーススタディやセクションが存在する場合があります。この試験に含まれるすべての質問を指定された時間内に完了できるように時間を管理する必要があります。

ケーススタディに含まれる質問に答えるには、ケーススタディで提供される情報を参照する必要があります。ケース スタディには、ケース スタディで説明されているシナリオに関する詳細情報を提供する展示やその他のリソースが含まれる場合があります。このケーススタディでは、各質問は他の質問から独立しています。

このケーススタディの最後に、レビュー画面が表示されます。この画面では、試験の次のセクションに進む前に、回答を確認し、変更を加えることができます。新しいセクションを開始した後は、このセクションに戻ることはできません。


ケーススタディを開始するには -
このケーススタディの最初の質問を表示するには、「次へ」ボタンをクリックします。質問に答える前に、左側のペインのボタンを使用してケーススタディの内容を調べてください。これらのボタンをクリックすると、ビジネス要件、既存の環境、問題の説明などの情報が表示されます。ケーススタディに [すべての情報] タブがある場合、表示される情報は後続のタブに表示される情報と同じであることに注意してください。質問に答える準備ができたら、「質問」ボタンをクリックして質問に戻ります。


会社概要 -
HipLocal は、近くにいる人々の間のコミュニケーションを促進するように設計されたコミュニティ アプリケーションです。スポーツイベントの企画や開催、企業が地域社会とつながるために利用されています。 HipLocal は最近ダラスのいくつかの地域でサービスを開始し、急速に世界的な現象に成長しています。ハイパーローカルなコミュニティコミュニケーションとビジネスアウトリーチのユニークなスタイルは、世界中で需要があります。


エグゼクティブステートメント -
私たちはナンバーワンのローカルコミュニティアプリです。地域コミュニティ サービスをグローバルに展開する時が来ています。私たちのベンチャー キャピタルの投資家は、メンバーが互いに 10 マイルまたは 10,000 マイル離れていても、急速な成長と、オンラインになる新しいローカル コミュニティや仮想コミュニティに同様の素晴らしい体験を提供したいと考えています。


ソリューションコンセプト -
HipLocal は、世界中の顧客により良いサービスを提供するために、最新の機能を備えた既存のサービスを新しい地域で拡張したいと考えています。彼らは、これらの地域をタイムゾーンでサポートするための新しいチームを雇用してトレーニングしたいと考えています。アプリケーションがスムーズに拡張され、明確な稼働時間データが提供されることを確認し、発生した問題を分析して対応する必要があります。


既存の技術環境 -
HipLocal の環境は、オンプレミスのハードウェアと Google Cloud Platform で実行されるインフラストラクチャが混在しています。 HipLocal チームはアプリケーションをよく理解していますが、世界規模のアプリケーションの経験は限られています。現在の技術環境は次のとおりです。
• 既存の API は、GCP でホストされている Compute Engine 仮想マシン インスタンス上で実行されます。
• 状態は、GCP の単一インスタンスの MySQL データベースに保存されます。
• リリース サイクルには、QA テストを可能にする開発の凍結が含まれます。
• アプリケーションにはログが記録されません。
• アプリケーションは、平日の夕方のトラフィックが少ない時間帯に、インフラストラクチャ エンジニアによって手動で展開されます。
• 稼働時間の基本的な指標があります。 API が応答しない場合、アラートが頻繁に発生します。


ビジネス要件 -
HipLocal の投資家は、事業展開を拡大し、見られる需要の増加をサポートしたいと考えています。彼らの要件は次のとおりです。
• アプリケーションの利用可能性を新しい地域に拡大します。
• 10 倍の同時ユーザーをサポートします。
• ユーザーが異なる地域に旅行する場合でも、一貫したエクスペリエンスを確保します。
• ユーザーアクティビティの指標を取得して、製品を収益化する方法をより深く理解します。
• 新しい地域の規制 (GDPR など) への準拠を確保します。
• インフラストラクチャ管理の時間とコストを削減します。
• Google が推奨するクラウド コンピューティングのプラクティスを採用します。
○ アプリケーションのライフサイクル管理に関する標準化されたワークフローとプロセスを開発します。
○ サービス レベル指標 (SLI) とサービス レベル目標 (SLO) を定義します。


技術的要件 -
• オンプレミスのデータセンターとクラウドでホストされているアプリケーションおよびインフラストラクチャの間で安全な通信を提供します。
• アプリケーションは使用状況のメトリクスと監視を提供する必要があります。
• API には認証と認可が必要です。
• 新しい機能のより迅速かつ正確な検証を実装します。
• ロギングとパフォーマンスのメトリクスは、デバッグ情報とアラートを提供できるように実用的な情報を提供する必要があります。
• ユーザーの需要に合わせて拡張する必要があります。


この質問については、HipLocal のケーススタディを参照してください。

HipLocal は、世界中のユーザーに対するサービスの遅延を短縮したいと考えています。ユーザーが存在する場所にデータベースの読み取りレプリカを作成し、それらのレプリカを使用してトラフィックを読み取るようにサービスを構成しました。最小限の労力ですべてのデータベース対話のレイテンシをさらに短縮するにはどうすればよいでしょうか?

  • A. データベースを Bigtable に移行し、それを使用してすべてのグローバル ユーザー トラフィックを処理します。
  • B. データベースを Cloud Spanner に移行し、それを使用してすべてのグローバル ユーザー トラフィックを処理します。
  • C. データベースをデータストア モードの Firestore に移行し、それを使用してすべてのグローバル ユーザー トラフィックを処理します。
  • D. サービスを Google Kubernetes Engine に移行し、ロード バランサ サービスを使用してアプリケーションをより適切にスケーリングします。

Case study -

This is a case study. Case studies are not timed separately. You can use as much exam time as you would like to complete each case. However, there may be additional case studies and sections on this exam. You must manage your time to ensure that you are able to complete all questions included on this exam in the time provided.

To answer the questions included in a case study, you will need to reference information that is provided in the case study. Case studies might contain exhibits and other resources that provide more information about the scenario that is described in the case study. Each question is independent of the other questions in this case study.

At the end of this case study, a review screen will appear. This screen allows you to review your answers and to make changes before you move to the next section of the exam. After you begin a new section, you cannot return to this section.


To start the case study -
To display the first question in this case study, click the Next button. Use the buttons in the left pane to explore the content of the case study before you answer the questions. Clicking these buttons displays information such as business requirements, existing environment, and problem statements. If the case study has an All Information tab, note that the information displayed is identical to the information displayed on the subsequent tabs. When you are ready to answer a question, click the Question button to return to the question.


Company Overview -
HipLocal is a community application designed to facilitate communication between people in close proximity. It is used for event planning and organizing sporting events, and for businesses to connect with their local communities. HipLocal launched recently in a few neighborhoods in Dallas and is rapidly growing into a global phenomenon. Its unique style of hyper-local community communication and business outreach is in demand around the world.


Executive Statement -
We are the number one local community app; it's time to take our local community services global. Our venture capital investors want to see rapid growth and the same great experience for new local and virtual communities that come online, whether their members are 10 or 10000 miles away from each other.


Solution Concept -
HipLocal wants to expand their existing service, with updated functionality, in new regions to better serve their global customers. They want to hire and train a new team to support these regions in their time zones. They will need to ensure that the application scales smoothly and provides clear uptime data, and that they analyze and respond to any issues that occur.


Existing Technical Environment -
HipLocal's environment is a mix of on-premises hardware and infrastructure running in Google Cloud Platform. The HipLocal team understands their application well, but has limited experience in global scale applications. Their existing technical environment is as follows:
• Existing APIs run on Compute Engine virtual machine instances hosted in GCP.
• State is stored in a single instance MySQL database in GCP.
• Release cycles include development freezes to allow for QA testing.
• The application has no logging.
• Applications are manually deployed by infrastructure engineers during periods of slow traffic on weekday evenings.
• There are basic indicators of uptime; alerts are frequently fired when the APIs are unresponsive.


Business Requirements -
HipLocal's investors want to expand their footprint and support the increase in demand they are seeing. Their requirements are:
• Expand availability of the application to new regions.
• Support 10x as many concurrent users.
• Ensure a consistent experience for users when they travel to different regions.
• Obtain user activity metrics to better understand how to monetize their product.
• Ensure compliance with regulations in the new regions (for example, GDPR).
• Reduce infrastructure management time and cost.
• Adopt the Google-recommended practices for cloud computing.
○ Develop standardized workflows and processes around application lifecycle management.
○ Define service level indicators (SLIs) and service level objectives (SLOs).


Technical Requirements -
• Provide secure communications between the on-premises data center and cloud-hosted applications and infrastructure.
• The application must provide usage metrics and monitoring.
• APIs require authentication and authorization.
• Implement faster and more accurate validation of new features.
• Logging and performance metrics must provide actionable information to be able to provide debugging information and alerts.
• Must scale to meet user demand.


For this question refer to the HipLocal case study.

HipLocal wants to reduce the latency of their services for users in global locations. They have created read replicas of their database in locations where their users reside and configured their service to read traffic using those replicas. How should they further reduce latency for all database interactions with the least amount of effort?

  • A. Migrate the database to Bigtable and use it to serve all global user traffic.
  • B. Migrate the database to Cloud Spanner and use it to serve all global user traffic.
  • C. Migrate the database to Firestore in Datastore mode and use it to serve all global user traffic.
  • D. Migrate the services to Google Kubernetes Engine and use a load balancer service to better scale the application.

48. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 18948. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 189

問題Question

ケーススタディ -

これはケーススタディです。ケーススタディは個別に時間が設定されるわけではありません。各ケースを完了したいだけ試験時間を費やすことができます。ただし、この試験には追加のケーススタディやセクションが存在する場合があります。この試験に含まれるすべての質問を指定された時間内に完了できるように時間を管理する必要があります。

ケーススタディに含まれる質問に答えるには、ケーススタディで提供される情報を参照する必要があります。ケース スタディには、ケース スタディで説明されているシナリオに関する詳細情報を提供する展示やその他のリソースが含まれる場合があります。このケーススタディでは、各質問は他の質問から独立しています。

このケーススタディの最後に、レビュー画面が表示されます。この画面では、試験の次のセクションに進む前に、回答を確認し、変更を加えることができます。新しいセクションを開始した後は、このセクションに戻ることはできません。


ケーススタディを開始するには -
このケーススタディの最初の質問を表示するには、「次へ」ボタンをクリックします。質問に答える前に、左側のペインのボタンを使用してケーススタディの内容を調べてください。これらのボタンをクリックすると、ビジネス要件、既存の環境、問題の説明などの情報が表示されます。ケーススタディに [すべての情報] タブがある場合、表示される情報は後続のタブに表示される情報と同じであることに注意してください。質問に答える準備ができたら、「質問」ボタンをクリックして質問に戻ります。


会社概要 -
HipLocal は、近くにいる人々の間のコミュニケーションを促進するように設計されたコミュニティ アプリケーションです。スポーツイベントの企画や開催、企業が地域社会とつながるために利用されています。 HipLocal は最近ダラスのいくつかの地域でサービスを開始し、急速に世界的な現象に成長しています。ハイパーローカルなコミュニティコミュニケーションとビジネスアウトリーチのユニークなスタイルは、世界中で需要があります。


エグゼクティブステートメント -
私たちはナンバーワンのローカルコミュニティアプリです。地域コミュニティ サービスをグローバルに展開する時が来ています。私たちのベンチャー キャピタルの投資家は、メンバーが互いに 10 マイルまたは 10,000 マイル離れていても、急速な成長と、オンラインになる新しいローカル コミュニティや仮想コミュニティに同様の素晴らしい体験を提供したいと考えています。


ソリューションコンセプト -
HipLocal は、世界中の顧客により良いサービスを提供するために、最新の機能を備えた既存のサービスを新しい地域で拡張したいと考えています。彼らは、これらの地域をタイムゾーンでサポートするための新しいチームを雇用してトレーニングしたいと考えています。アプリケーションがスムーズに拡張され、明確な稼働時間データが提供されることを確認し、発生した問題を分析して対応する必要があります。


既存の技術環境 -
HipLocal の環境は、オンプレミスのハードウェアと Google Cloud Platform で実行されるインフラストラクチャが混在しています。 HipLocal チームはアプリケーションをよく理解していますが、世界規模のアプリケーションの経験は限られています。現在の技術環境は次のとおりです。
• 既存の API は、GCP でホストされている Compute Engine 仮想マシン インスタンス上で実行されます。
• 状態は、GCP の単一インスタンスの MySQL データベースに保存されます。
• リリース サイクルには、QA テストを可能にする開発の凍結が含まれます。
• アプリケーションにはログが記録されません。
• アプリケーションは、平日の夕方のトラフィックが少ない時間帯に、インフラストラクチャ エンジニアによって手動で展開されます。
• 稼働時間の基本的な指標があります。 API が応答しない場合、アラートが頻繁に発生します。


ビジネス要件 -
HipLocal の投資家は、事業展開を拡大し、見られる需要の増加をサポートしたいと考えています。彼らの要件は次のとおりです。
• アプリケーションの利用可能性を新しい地域に拡大します。
• 10 倍の同時ユーザーをサポートします。
• ユーザーが異なる地域に旅行する場合でも、一貫したエクスペリエンスを確保します。
• ユーザーアクティビティの指標を取得して、製品を収益化する方法をより深く理解します。
• 新しい地域の規制 (GDPR など) への準拠を確保します。
• インフラストラクチャ管理の時間とコストを削減します。
• Google が推奨するクラウド コンピューティングのプラクティスを採用します。
○ アプリケーションのライフサイクル管理に関する標準化されたワークフローとプロセスを開発します。
○ サービス レベル指標 (SLI) とサービス レベル目標 (SLO) を定義します。


技術的要件 -
• オンプレミスのデータセンターとクラウドでホストされているアプリケーションおよびインフラストラクチャの間で安全な通信を提供します。
• アプリケーションは使用状況のメトリクスと監視を提供する必要があります。
• API には認証と認可が必要です。
• 新しい機能のより迅速かつ正確な検証を実装します。
• ロギングとパフォーマンスのメトリクスは、デバッグ情報とアラートを提供できるように実用的な情報を提供する必要があります。
• ユーザーの需要に合わせて拡張する必要があります。


この質問については、HipLocal のケーススタディを参照してください。

HipLocal は新しい場所に拡大しています。新しいヨーロッパの国でアプリケーションが起動されるたびに、追加のデータを取得する必要があります。これにより、スキーマの継続的な変更と、アプリケーションの変更に対するテストを実施する環境の不足により、開発プロセスに遅れが生じています。ビジネス要件を満たしながら問題を解決するにはどうすればよいでしょうか?

  • A. ヨーロッパと北米でテストとデプロイのために新しい Cloud SQL インスタンスを作成します。開発者にローカル MySQL インスタンスを提供して、アプリケーションの変更に関するテストを実施します。
  • B. データを Bigtable に移行します。 Cloud SDK を使用してローカルの Bigtable 開発環境をエミュレートするように開発チームに指示します。
  • C. Cloud SQL から Compute Engine でホストされる MySQL に移行します。アメリカとヨーロッパのリージョン間でホストをレプリケートします。開発者にローカル MySQL インスタンスを提供して、アプリケーションの変更に関するテストを実施します。
  • D. データをネイティブ モードで Firestore に移行し、ヨーロッパと北米でインスタンスをセットアップします。 Cloud SDK を使用してネイティブ モード開発環境でローカル Firestore をエミュレートするように開発チームに指示します。

Case study -

This is a case study. Case studies are not timed separately. You can use as much exam time as you would like to complete each case. However, there may be additional case studies and sections on this exam. You must manage your time to ensure that you are able to complete all questions included on this exam in the time provided.

To answer the questions included in a case study, you will need to reference information that is provided in the case study. Case studies might contain exhibits and other resources that provide more information about the scenario that is described in the case study. Each question is independent of the other questions in this case study.

At the end of this case study, a review screen will appear. This screen allows you to review your answers and to make changes before you move to the next section of the exam. After you begin a new section, you cannot return to this section.


To start the case study -
To display the first question in this case study, click the Next button. Use the buttons in the left pane to explore the content of the case study before you answer the questions. Clicking these buttons displays information such as business requirements, existing environment, and problem statements. If the case study has an All Information tab, note that the information displayed is identical to the information displayed on the subsequent tabs. When you are ready to answer a question, click the Question button to return to the question.


Company Overview -
HipLocal is a community application designed to facilitate communication between people in close proximity. It is used for event planning and organizing sporting events, and for businesses to connect with their local communities. HipLocal launched recently in a few neighborhoods in Dallas and is rapidly growing into a global phenomenon. Its unique style of hyper-local community communication and business outreach is in demand around the world.


Executive Statement -
We are the number one local community app; it's time to take our local community services global. Our venture capital investors want to see rapid growth and the same great experience for new local and virtual communities that come online, whether their members are 10 or 10000 miles away from each other.


Solution Concept -
HipLocal wants to expand their existing service, with updated functionality, in new regions to better serve their global customers. They want to hire and train a new team to support these regions in their time zones. They will need to ensure that the application scales smoothly and provides clear uptime data, and that they analyze and respond to any issues that occur.


Existing Technical Environment -
HipLocal's environment is a mix of on-premises hardware and infrastructure running in Google Cloud Platform. The HipLocal team understands their application well, but has limited experience in global scale applications. Their existing technical environment is as follows:
• Existing APIs run on Compute Engine virtual machine instances hosted in GCP.
• State is stored in a single instance MySQL database in GCP.
• Release cycles include development freezes to allow for QA testing.
• The application has no logging.
• Applications are manually deployed by infrastructure engineers during periods of slow traffic on weekday evenings.
• There are basic indicators of uptime; alerts are frequently fired when the APIs are unresponsive.


Business Requirements -
HipLocal's investors want to expand their footprint and support the increase in demand they are seeing. Their requirements are:
• Expand availability of the application to new regions.
• Support 10x as many concurrent users.
• Ensure a consistent experience for users when they travel to different regions.
• Obtain user activity metrics to better understand how to monetize their product.
• Ensure compliance with regulations in the new regions (for example, GDPR).
• Reduce infrastructure management time and cost.
• Adopt the Google-recommended practices for cloud computing.
○ Develop standardized workflows and processes around application lifecycle management.
○ Define service level indicators (SLIs) and service level objectives (SLOs).


Technical Requirements -
• Provide secure communications between the on-premises data center and cloud-hosted applications and infrastructure.
• The application must provide usage metrics and monitoring.
• APIs require authentication and authorization.
• Implement faster and more accurate validation of new features.
• Logging and performance metrics must provide actionable information to be able to provide debugging information and alerts.
• Must scale to meet user demand.


For this question, refer to the HipLocal case study.

HipLocal is expanding into new locations. They must capture additional data each time the application is launched in a new European country. This is causing delays in the development process due to constant schema changes and a lack of environments for conducting testing on the application changes. How should they resolve the issue while meeting the business requirements?

  • A. Create new Cloud SQL instances in Europe and North America for testing and deployment. Provide developers with local MySQL instances to conduct testing on the application changes.
  • B. Migrate data to Bigtable. Instruct the development teams to use the Cloud SDK to emulate a local Bigtable development environment.
  • C. Move from Cloud SQL to MySQL hosted on Compute Engine. Replicate hosts across regions in the Americas and Europe. Provide developers with local MySQL instances to conduct testing on the application changes.
  • D. Migrate data to Firestore in Native mode and set up instances in Europe and North America. Instruct the development teams to use the Cloud SDK to emulate a local Firestore in Native mode development environment.

49. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 19049. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 190

問題Question

Go アプリケーションから Cloud Spanner データベースに書き込んでいます。 Google が推奨するベスト プラクティスを使用してアプリケーションのパフォーマンスを最適化したいと考えています。どうすればいいでしょうか?

  • A. Cloud クライアント ライブラリを使用して Cloud Spanner に書き込みます。
  • B. Google API クライアント ライブラリを使用した Cloud Spanner への書き込み
  • C. カスタム gRPC クライアント ライブラリを使用して Cloud Spanner に書き込みます。
  • D. サードパーティの HTTP クライアント ライブラリを使用して Cloud Spanner に書き込みます。

You are writing from a Go application to a Cloud Spanner database. You want to optimize your application’s performance using Google-recommended best practices. What should you do?

  • A. Write to Cloud Spanner using Cloud Client Libraries.
  • B. Write to Cloud Spanner using Google API Client Libraries
  • C. Write to Cloud Spanner using a custom gRPC client library.
  • D. Write to Cloud Spanner using a third-party HTTP client library.

50. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 19750. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 197

問題Question

アプリケーションに単体テストを追加することを計画しています。パブリッシュされた Pub/Sub メッセージがサブスクライバーによって順番に処理されることをアサートできる必要があります。単体テストはコスト効率が高く、信頼性が高いものにしたいと考えています。どうすればいいでしょうか?

  • A. モックフレームワークを実装します。
  • B. 各テスターのトピックとサブスクリプションを作成します。
  • C. テスターに​​よるフィルターをサブスクリプションに追加します。
  • D. Pub/Sub エミュレータを使用します。

You are planning to add unit tests to your application. You need to be able to assert that published Pub/Sub messages are processed by your subscriber in order. You want the unit tests to be cost-effective and reliable. What should you do?

  • A. Implement a mocking framework.
  • B. Create a topic and subscription for each tester.
  • C. Add a filter by tester to the subscription.
  • D. Use the Pub/Sub emulator.

51. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 20151. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 201

問題Question

あなたの会社では、Cloud Logging を使用して大量のログデータを管理しています。ログをサードパーティ アプリケーションにプッシュして処理するリアルタイム ログ分析アーキテクチャを構築する必要があります。どうすればいいでしょうか?

  • A. Pub/Sub への Cloud Logging ログのエクスポートを作成します。
  • B. BigQuery への Cloud Logging ログのエクスポートを作成します。
  • C. Cloud Storage への Cloud Logging ログのエクスポートを作成します。
  • D. Cloud Logging のログエントリを読み取り、サードパーティ アプリケーションに送信する Cloud Function を作成します。

Your company uses Cloud Logging to manage large volumes of log data. You need to build a real-time log analysis architecture that pushes logs to a third-party application for processing. What should you do?

  • A. Create a Cloud Logging log export to Pub/Sub.
  • B. Create a Cloud Logging log export to BigQuery.
  • C. Create a Cloud Logging log export to Cloud Storage.
  • D. Create a Cloud Function to read Cloud Logging log entries and send them to the third-party application.

52. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 20252. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 202

問題Question

あなたは、それぞれの Cloud Storage バケット内のユーザーのオブジェクトのメタデータ内の特定のプロパティを取得する必要がある新しい公開アプリケーションを開発しています。プライバシーとデータの保存場所の要件により、オブジェクト データではなくメタデータのみを取得する必要があります。取得プロセスのパフォーマンスを最大化したいと考えています。メタデータを取得するにはどうすればよいでしょうか?

  • A. パッチ方式を使用します。
  • B. 作成メソッドを使用します。
  • C. コピー方法を使用します。
  • D. フィールドリクエストパラメータを使用します。

You are developing a new public-facing application that needs to retrieve specific properties in the metadata of users’ objects in their respective Cloud Storage buckets. Due to privacy and data residency requirements, you must retrieve only the metadata and not the object data. You want to maximize the performance of the retrieval process. How should you retrieve the metadata?

  • A. Use the patch method.
  • B. Use the compose method.
  • C. Use the copy method.
  • D. Use the fields request parameter.

53. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 22053. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 220

問題Question

あなたは、オンライン e コマース Web サイトを管理する組織で働いています。あなたの会社は世界中に拡大する計画を立てています。ただし、estore は現在、1 つの特定のリージョンにサービスを提供しています。 SQL データベースを選択し、組織の成長に合わせて拡張できるスキーマを構成する必要があります。すべての顧客トランザクションを保存するテーブルを作成し、顧客 (CustomerId) とトランザクション (TransactionId) が一意であることを確認したいと考えています。どうすればいいでしょうか?

  • A. TransactionId と CustomerId が主キーとして構成された Cloud SQL テーブルを作成します。 TransactionId には増分番号を使用します。
  • B. TransactionId と CustomerId が主キーとして構成された Cloud SQL テーブルを作成します。 Transactionid にはランダムな文字列 (UUID) を使用します。
  • C. TransactionId と CustomerId が主キーとして構成された Cloud Spanner テーブルを作成します。 TransactionId にはランダムな文字列 (UUID) を使用します。
  • D. TransactionId と CustomerId が主キーとして構成された Cloud Spanner テーブルを作成します。 TransactionId には増分番号を使用します。

You work for an organization that manages an online ecommerce website. Your company plans to expand across the world; however, the estore currently serves one specific region. You need to select a SQL database and configure a schema that will scale as your organization grows. You want to create a table that stores all customer transactions and ensure that the customer (CustomerId) and the transaction (TransactionId) are unique. What should you do?

  • A. Create a Cloud SQL table that has TransactionId and CustomerId configured as primary keys. Use an incremental number for the TransactionId.
  • B. Create a Cloud SQL table that has TransactionId and CustomerId configured as primary keys. Use a random string (UUID) for the Transactionid.
  • C. Create a Cloud Spanner table that has TransactionId and CustomerId configured as primary keys. Use a random string (UUID) for the TransactionId.
  • D. Create a Cloud Spanner table that has TransactionId and CustomerId configured as primary keys. Use an incremental number for the TransactionId.

54. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 22754. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 227

問題Question

あなたは、MySQL リレーショナル データベース スキーマを使用する、Google Cloud でホストされるアプリケーションを開発しています。アプリケーションではデータベースに対して大量の読み取りと書き込みが行われるため、バックアップと継続的な容量計画が必要になります。チームにはデータベースを完全に管理する時間はありませんが、小規模な管理タスクを引き受けることはできます。データベースをどのようにホストすればよいでしょうか?

  • A. データベースをホストするように Cloud SQL を構成し、スキーマを Cloud SQL にインポートします。
  • B. クライアントを使用して、Google Cloud Marketplace からデータベースに MySQL をデプロイし、スキーマをインポートします。
  • C. データベースをホストするように Bigtable を構成し、データを Bigtable にインポートします。
  • D. データベースをホストするように Cloud Spanner を構成し、スキーマを Cloud Spanner にインポートします。
  • E. データベースをホストするように Firestore を構成し、データを Firestore にインポートします。

You are developing an application hosted on Google Cloud that uses a MySQL relational database schema. The application will have a large volume of reads and writes to the database and will require backups and ongoing capacity planning. Your team does not have time to fully manage the database but can take on small administrative tasks. How should you host the database?

  • A. Configure Cloud SQL to host the database, and import the schema into Cloud SQL.
  • B. Deploy MySQL from the Google Cloud Marketplace to the database using a client, and import the schema.
  • C. Configure Bigtable to host the database, and import the data into Bigtable.
  • D. Configure Cloud Spanner to host the database, and import the schema into Cloud Spanner.
  • E. Configure Firestore to host the database, and import the data into Firestore.

55. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 23155. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 231

問題Question

あなたは金融機関の開発者です。 Cloud Shell を使用して Google Cloud サービスと対話します。現在、ユーザー データは一時ディスクに保存されています。ただし、最近可決された規制により、機密情報を一時ディスクに保存することはできなくなりました。ユーザー データ用に新しいストレージ ソリューションを実装する必要があります。コードの変更を最小限に抑えたい。ユーザーデータをどこに保存する必要がありますか?

  • A. ユーザー データを Cloud Shell ホーム ディスクに保存し、削除されないように少なくとも 120 日ごとにログインします。
  • B. ユーザー データを Compute Engine インスタンスの永続ディスクに保存します。
  • C. ユーザー データを Cloud Storage バケットに保存します。
  • D. ユーザー データを BigQuery テーブルに保存します。

You are a developer at a financial institution. You use Cloud Shell to interact with Google Cloud services. User data is currently stored on an ephemeral disk; however, a recently passed regulation mandates that you can no longer store sensitive information on an ephemeral disk. You need to implement a new storage solution for your user data. You want to minimize code changes. Where should you store your user data?

  • A. Store user data on a Cloud Shell home disk, and log in at least every 120 days to prevent its deletion.
  • B. Store user data on a persistent disk in a Compute Engine instance.
  • C. Store user data in a Cloud Storage bucket.
  • D. Store user data in BigQuery tables.

56. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 23256. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 232

問題Question

あなたは最近、ログ データを Cloud Storage バケットに毎日転送するウェブ アプリケーションを開発しました。認証されたユーザーは、重要なイベントがないか過去 2 週間のログを定期的に確認します。その後、ログは外部監査人によって年に 1 回検査されます。データは 7 年以上の期間保存する必要があります。これらの要件を満たし、コストを最小限に抑えるストレージ ソリューションを提案したいと考えています。どうすればいいでしょうか? (2つお選びください。)

  • A. バケット ロック機能を使用して、データの保持ポリシーを設定します。
  • B. スケジュールされたジョブを実行して、14 日より古いオブジェクトのストレージ クラスを Coldline に設定します。
  • C. Coldline ストレージ バケットにアクセスする必要があるユーザーのために JSON Web トークン (JWT) を作成します。
  • D. ライフサイクル管理ポリシーを作成して、14 日より古いオブジェクトのストレージ クラスを Coldline に設定します。
  • E. ライフサイクル管理ポリシーを作成して、14 日より古いオブジェクトのストレージ クラスを Nearline に設定します。

You recently developed a web application to transfer log data to a Cloud Storage bucket daily. Authenticated users will regularly review logs from the prior two weeks for critical events. After that, logs will be reviewed once annually by an external auditor. Data must be stored for a period of no less than 7 years. You want to propose a storage solution that meets these requirements and minimizes costs. What should you do? (Choose two.)

  • A. Use the Bucket Lock feature to set the retention policy on the data.
  • B. Run a scheduled job to set the storage class to Coldline for objects older than 14 days.
  • C. Create a JSON Web Token (JWT) for users needing access to the Coldline storage buckets.
  • D. Create a lifecycle management policy to set the storage class to Coldline for objects older than 14 days.
  • E. Create a lifecycle management policy to set the storage class to Nearline for objects older than 14 days.

57. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 23357. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 233

問題Question

あなたのチームは、Cloud Storage イベントによってトリガーされる Cloud Function を開発しています。 Google が推奨するベスト プラクティスに従いながら、Cloud Function のテストと開発を加速したいと考えています。どうすればいいでしょうか?

  • A. Cloud Audit Logs が元の Cloud Functions の Cloudfunctions.functions.sourceCodeSet オペレーションを検出したときにトリガーされる新しい Cloud Function を作成します。新しい関数にモック リクエストを送信して、機能を評価します。
  • B. Cloud Function のコピーを作成し、HTTP によってトリガーされるようにコードを書き換えます。 HTTP エンドポイントをトリガーして、新しいバージョンを編集およびテストします。新しい関数にモック リクエストを送信して、機能を評価します。
  • C. Functions Frameworks ライブラリをインストールし、ローカルホスト上で Cloud Function を構成します。関数のコピーを作成し、新しいバージョンを編集します。 Curl を使用して新しいバージョンをテストします。
  • D. Google Cloud コンソールで Cloud Function のコピーを作成します。 Cloud コンソールのインライン エディタを使用して、新しい関数のソース コードを変更します。新しい関数を呼び出すように Web アプリケーションを変更し、運用環境で新しいバージョンをテストします。

Your team is developing a Cloud Function triggered by Cloud Storage events. You want to accelerate testing and development of your Cloud Function while following Google-recommended best practices. What should you do?

  • A. Create a new Cloud Function that is triggered when Cloud Audit Logs detects the cloudfunctions.functions.sourceCodeSet operation in the original Cloud Function. Send mock requests to the new function to evaluate the functionality.
  • B. Make a copy of the Cloud Function, and rewrite the code to be HTTP-triggered. Edit and test the new version by triggering the HTTP endpoint. Send mock requests to the new function to evaluate the functionality.
  • C. Install the Functions Frameworks library, and configure the Cloud Function on localhost. Make a copy of the function, and make edits to the new version. Test the new version using curl.
  • D. Make a copy of the Cloud Function in the Google Cloud console. Use the Cloud console's in-line editor to make source code changes to the new function. Modify your web application to call the new function, and test the new version in production

58. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 23858. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 238

問題Question

あなたは、Datastore モードの Cloud Run と Firestore で実行される新しい小売システムに取り組んでいる主任開発者です。 Web UI の要件は、ユーザーがシステムにアクセスしたときにシステムが利用可能な製品のリストを表示し、ユーザーがすべての製品を参照できることです。この要件は、Firestore に保存されているすべての利用可能な製品のリストを返すことによって、Minimum Viable Product (MVP) フェーズで実装されました。

本番稼働から数か月後、繁忙時に Cloud Run インスタンスが「HTTP 500: Container Instances are Overcememory Limits」エラーで終了していることに気付きました。このエラーは、データストア エンティティの読み取り数の急増と同時に発生します。 Cloud Run のクラッシュを防ぎ、データストア エンティティの読み取り数を減らす必要があります。システムのパフォーマンスを最適化するソリューションを使用したいと考えています。どうすればいいでしょうか?

  • A. 整数オフ​​セットを使用して製品リストを返すクエリを変更します。
  • B. 制限を使用して製品リストを返すクエリを変更します。
  • C. Cloud Run 構成を変更してメモリ制限を増やします。
  • D. カーソルを使用して製品リストを返すクエリを変更します。

You are a lead developer working on a new retail system that runs on Cloud Run and Firestore in Datastore mode. A web UI requirement is for the system to display a list of available products when users access the system and for the user to be able to browse through all products. You have implemented this requirement in the minimum viable product (MVP) phase by returning a list of all available products stored in Firestore.

A few months after go-live, you notice that Cloud Run instances are terminated with HTTP 500: Container instances are exceeding memory limits errors during busy times. This error coincides with spikes in the number of Datastore entity reads. You need to prevent Cloud Run from crashing and decrease the number of Datastore entity reads. You want to use a solution that optimizes system performance. What should you do?

  • A. Modify the query that returns the product list using integer offsets.
  • B. Modify the query that returns the product list using limits.
  • C. Modify the Cloud Run configuration to increase the memory limits.
  • D. Modify the query that returns the product list using cursors.

59. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 24259. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 242

問題Question

アプリケーションは顧客のコンテンツを Cloud Storage バケットに保存し、各オブジェクトは顧客の暗号鍵で暗号化されます。 Cloud Storage 内の各オブジェクトのキーは、顧客によってアプリケーションに入力されます。 Cloud Storage からオブジェクトを読み取るときに、アプリケーションが HTTP 4xx エラーを受信して​​いることがわかりました。このエラーの考えられる原因は何ですか?

  • A. 顧客のbase64でエンコードされたキーを使用して、オブジェクトに対して読み取り操作を試行しました。
  • B. 暗号化キーの Base64 でエンコードされた SHA256 ハッシュを使用せずに読み取り操作を試行しました。
  • C. 読み取り操作を試行するときに、顧客が指定したのと同じ暗号化アルゴリズムを入力しました。
  • D. 顧客のキーの Base64 でエンコードされた SHA256 ハッシュを使用して、オブジェクトに対して読み取り操作を試行しました。

Your application stores customers’ content in a Cloud Storage bucket, with each object being encrypted with the customer's encryption key. The key for each object in Cloud Storage is entered into your application by the customer. You discover that your application is receiving an HTTP 4xx error when reading the object from Cloud Storage. What is a possible cause of this error?

  • A. You attempted the read operation on the object with the customer's base64-encoded key.
  • B. You attempted the read operation without the base64-encoded SHA256 hash of the encryption key.
  • C. You entered the same encryption algorithm specified by the customer when attempting the read operation.
  • D. You attempted the read operation on the object with the base64-encoded SHA256 hash of the customer's key.

60. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 26160. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 261

問題Question

メッセージを Pub/Sub にパブリッシュする Web アプリケーションがあります。新しいバージョンのアプリケーションをローカルでビルドする予定で、新しいビルドごとに Pub/Sub 統合を迅速にテストしたいと考えています。ローカルテストをどのように構成すればよいでしょうか?

  • A. Cloud Code を統合開発環境 (IDE) にインストールします。 Cloud APIs に移動し、有効な Google プロジェクト ID に対して Pub/Sub を有効にします。ローカルで開発する場合は、pubsub.googleapis.com を呼び出すようにアプリケーションを構成します。
  • B. gcloud を使用して Pub/Sub エミュレータをインストールし、有効な Google プロジェクト ID を使用してエミュレータを起動します。ローカルで開発する場合は、${gcloud betaエミュレータ pubsub env-init} でローカル エミュレータを使用するようにアプリケーションを構成します。
  • C. Google Cloud コンソールで API ライブラリに移動し、Pub/Sub API を有効にします。ローカルで開発する場合は、pubsub.googleapis.com を呼び出すようにアプリケーションを構成します。
  • D. gcloud を使用して Pub/Sub エミュレータをインストールし、有効な Google プロジェクトでエミュレータを起動します。ローカルで開発する場合は、PUBSUB_EMULATOR_HOST 変数をエクスポートして、ローカル エミュレータを使用するようにアプリケーションを構成します。

You have a web application that publishes messages to Pub/Sub. You plan to build new versions of the application locally and want to quickly test Pub/Sub integration for each new build. How should you configure local testing?

  • A. Install Cloud Code on the integrated development environment (IDE). Navigate to Cloud APIs, and enable Pub/Sub against a valid Google Project ID. When developing locally, configure your application to call pubsub.googleapis.com.
  • B. Install the Pub/Sub emulator using gcloud, and start the emulator with a valid Google Project ID. When developing locally, configure your application to use the local emulator with ${gcloud beta emulators pubsub env-init}.
  • C. In the Google Cloud console, navigate to the API Library, and enable the Pub/Sub API. When developing locally, configure your application to call pubsub.googleapis.com.
  • D. Install the Pub/Sub emulator using gcloud, and start the emulator with a valid Google Project IWhen developing locally, configure your application to use the local emulator by exporting the PUBSUB_EMULATOR_HOST variable.

61. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 26361. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 263

問題Question

あなたは新しいアプリケーションを開発しています。 Cloud Storage バケット内の特定のファイルが更新された場合にのみアプリケーションがトリガーされるようにしたいと考えています。トリガーは変更される可能性があるため、プロセスはさまざまな種類のトリガーをサポートする必要があります。将来的に複数のチームメンバーがトリガーを更新できるように、構成をシンプルにする必要があります。どうすればいいでしょうか?

  • A. Pub/Sub に送信されるように Cloud Storage イベントを構成し、Pub/Sub イベントを使用してアプリケーションを実行する Cloud Build ジョブをトリガーします。
  • B. 特定のファイル名について Cloud Storage バケットをモニタリングする Eventarc トリガーを作成し、ターゲットを Cloud Run として設定します。
  • C. アプリケーションを実行し、Cloud Storage でオブジェクトが更新されたときにトリガーされる Cloud Function を構成します。
  • D. アプリケーションを実行し、Cloud Storage でオブジェクトが更新されたときにトリガーされる Firebase 関数を構成します。

You are developing a new application. You want the application to be triggered only when a given file is updated in your Cloud Storage bucket. Your trigger might change, so your process must support different types of triggers. You want the configuration to be simple so that multiple team members can update the triggers in the future. What should you do?

  • A. Configure Cloud Storage events to be sent to Pub/Sub, and use Pub/Sub events to trigger a Cloud Build job that executes your application.
  • B. Create an Eventarc trigger that monitors your Cloud Storage bucket for a specific filename, and set the target as Cloud Run.
  • C. Configure a Cloud Function that executes your application and is triggered when an object is updated in Cloud Storage.
  • D. Configure a Firebase function that executes your application and is triggered when an object is updated in Cloud Storage.

62. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 26962. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 269

問題Question

あなたは、メイン データストアとして Cloud Spanner に依存するアプリケーションに取り組んでいます。アプリケーションの新しい機能により、パフォーマンスの低下が発生することがあります。コミットごとに Cloud Build で自動パフォーマンス テストを実行することで、パフォーマンスの問題を防止したいと考えています。複数のコミットが同時に行われた場合、テストが同時に実行される可能性があります。どうすればいいでしょうか?

  • A. ビルドごとにランダムな名前で新しいプロジェクトを作成します。必要なデータをロードします。テストの実行後にプロジェクトを削除します。
  • B. ビルドごとに新しい Cloud Spanner インスタンスを作成します。必要なデータをロードします。テストの実行後に Cloud Spanner インスタンスを削除します。
  • C. Cloud Spanner インスタンスと必要なデータを含むプロジェクトを作成します。テストの実行後にデータが自動的に以前の状態に復元されるように Cloud Build ビルド ファイルを調整します。
  • D. Cloud Spanner エミュレータをローカルで起動します。必要なデータをロードします。テストの実行後、エミュレータをシャットダウンします。

You work on an application that relies on Cloud Spanner as its main datastore. New application features have occasionally caused performance regressions. You want to prevent performance issues by running an automated performance test with Cloud Build for each commit made. If multiple commits are made at the same time, the tests might run concurrently. What should you do?

  • A. Create a new project with a random name for every build. Load the required data. Delete the project after the test is run.
  • B. Create a new Cloud Spanner instance for every build. Load the required data. Delete the Cloud Spanner instance after the test is run.
  • C. Create a project with a Cloud Spanner instance and the required data. Adjust the Cloud Build build file to automatically restore the data to its previous state after the test is run.
  • D. Start the Cloud Spanner emulator locally. Load the required data. Shut down the emulator after the test is run.

63. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 27163. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 271

問題Question

あなたは最近、多数の株価を監視するアプリケーションを開発しました。メッセージを受信し、メモリ内データベース内の現在の株価を更新するには、Pub/Sub を構成する必要があります。ダウンストリーム サービスが株式取引トランザクションを実行するには、メモリ内データベースに最新の価格が必要です。各メッセージには次の 3 つの部分または情報が含まれます。

• 銘柄記号
• 株価
• アップデートのタイムスタンプ

Pub/Sub サブスクリプションはどのように設定すればよいでしょうか?

  • A. 1 回限りの配信を有効にしてプッシュ サブスクリプションを作成します。
  • B. 注文と 1 回限りの配信の両方をオフにして、プル サブスクリプションを作成します。
  • C. 株式記号を順序キーとして使用して、順序を有効にしてプル サブスクリプションを作成します。
  • D. 注文と 1 回限りの配信の両方をオフにして、プッシュ サブスクリプションを作成します。

You recently developed an application that monitors a large number of stock prices. You need to configure Pub/Sub to receive messages and update the current stock price in an in-memory database. A downstream service needs the most up-to-date prices in the in-memory database to perform stock trading transactions. Each message contains three pieces or information:

• Stock symbol
• Stock price
• Timestamp for the update

How should you set up your Pub/Sub subscription?

  • A. Create a push subscription with exactly-once delivery enabled.
  • B. Create a pull subscription with both ordering and exactly-once delivery turned off.
  • C. Create a pull subscription with ordering enabled, using the stock symbol as the ordering key.
  • D. Create a push subscription with both ordering and exactly-once delivery turned off.

64. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 27264. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 272

問題Question

あなたはソーシャル メディア会社の開発者です。同社はソーシャル メディア Web サイトをオンプレミスで運営しており、ユーザー プロファイルとユーザーの投稿を保存するバックエンドとして MySQL を使用しています。あなたの会社は Google Cloud への移行を計画しており、ユーザー プロフィール情報を Firestore に移行する予定です。あなたには、Firestore コレクションを設計する任務が与えられています。どうすればいいでしょうか?

  • A. ユーザー プロファイル用に 1 つのルート コレクションを作成し、ユーザーの投稿用に 1 つのルート コレクションを作成します。
  • B. ユーザー プロファイル用に 1 つのルート コレクションを作成し、ユーザーの投稿ごとに 1 つのサブコレクションを作成します。
  • C. ユーザー プロファイルのルート コレクションを 1 つ作成し、各ユーザーの投稿をネストされたリストとしてユーザー プロファイル ドキュメントに保存します。
  • D. ユーザーの投稿に対してルート コレクションを 1 つ作成し、ユーザーのプロファイルごとにサブコレクションを 1 つ作成します。

You are a developer at a social media company. The company runs their social media website on-premises and uses MySQL as a backend to store user profiles and user posts. Your company plans to migrate to Google Cloud, and your learn will migrate user profile information to Firestore. You are tasked with designing the Firestore collections. What should you do?

  • A. Create one root collection for user profiles, and create one root collection for user posts.
  • B. Create one root collection for user profiles, and create one subcollection for each user's posts.
  • C. Create one root collection for user profiles, and store each user's post as a nested list in the user profile document.
  • D. Create one root collection for user posts, and create one subcollection for each user's profile.

65. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 27465. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 274

問題Question

あなたは、Cloud Function を使用してサードパーティのメール サービス プロバイダに確認メールを送信する、Google Cloud 上でマイクロサービス ベースの e コマース プラットフォームを管理しています。あなたの会社はマーケティング キャンペーンを開始したばかりですが、一部の顧客から注文確認メールが届かないと報告を受けています。 Cloud Function をトリガーするサービスが HTTP 500 エラーを受信して​​いることがわかります。電子メールの損失を最小限に抑えるには、電子メールの処理方法を変更する必要があります。どうすればいいでしょうか?

  • A. Cloud Function のタイムアウトを 9 分に増やします。
  • B. メッセージ内の送信電子メールを Pub/Sub トピックに公開するように送信者アプリケーションを構成します。 Pub/Sub キューを使用するように Cloud Function 構成を更新します。
  • C. 電子メールを Memorystore に書き込み、Cloud Function をトリガーするように送信側アプリケーションを構成します。関数がトリガーされると、Memorystore から電子メールの詳細を読み取り、電子メール サービスに送信します。
  • D. リクエストが失敗した場合に、Cloud Function の実行を 1 秒ごとに再試行するように送信側アプリケーションを構成します。

You manage a microservice-based ecommerce platform on Google Cloud that sends confirmation emails to a third-party email service provider using a Cloud Function. Your company just launched a marketing campaign, and some customers are reporting that they have not received order confirmation emails. You discover that the services triggering the Cloud Function are receiving HTTP 500 errors. You need to change the way emails are handled to minimize email loss. What should you do?

  • A. Increase the Cloud Function's timeout to nine minutes.
  • B. Configure the sender application to publish the outgoing emails in a message to a Pub/Sub topic. Update the Cloud Function configuration to consume the Pub/Sub queue.
  • C. Configure the sender application to write emails to Memorystore and then trigger the Cloud Function. When the function is triggered, it reads the email details from Memorystore and sends them to the email service.
  • D. Configure the sender application to retry the execution of the Cloud Function every one second if a request fails.

66. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 27566. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 275

問題Question

メッセージを Pub/Sub にパブリッシュする Web アプリケーションがあります。新しいバージョンのアプリケーションをローカルでビルドする予定で、新しいビルドごとに Pub/Sub 統合を迅速にテストする必要があるとします。ローカルテストをどのように構成すればよいでしょうか?

  • A. Google Cloud コンソールで API ライブラリに移動し、Pub/Sub API を有効にします。ローカルで開発する場合は、pubsub.googleapis.com を呼び出すようにアプリケーションを構成します。
  • B. gcloud を使用して Pub/Sub エミュレータをインストールし、有効な Google プロジェクト ID を使用してエミュレータを起動します。ローカルで開発する場合は、PUBSUB_EMULATOR_HOST 変数をエクスポートして、ローカル エミュレーターを使用するように applicat.cn を構成します。
  • C. アプリケーションを開始する前に、 gcloud config set api_endpoint_overrides/pubsub https://pubsubemulator.googleapis.com.com/ コマンドを実行して、Pub/Sub エンドポイントを変更します。
  • D. Cloud Code を統合開発環境 (IDE) にインストールします。 Cloud APIs に移動し、有効な Google プロジェクトに対して Pub/Sub を有効にします。ローカルで開発する場合は、pubsub.googleapis.com を呼び出すようにアプリケーションを構成します。

You have a web application that publishes messages to Pub/Sub. You plan to build new versions of the application locally and need to quickly test Pub/Sub integration for each new build. How should you configure local testing?

  • A. In the Google Cloud console, navigate to the API Library, and enable the Pub/Sub API. When developing locally configure your application to call pubsub.googleapis.com.
  • B. Install the Pub/Sub emulator using gcloud, and start the emulator with a valid Google Project ID. When developing locally, configure your applicat.cn to use the local emulator by exporting the PUBSUB_EMULATOR_HOST variable.
  • C. Run the gcloud config set api_endpoint_overrides/pubsub https://pubsubemulator.googleapis.com.com/ command to change the Pub/Sub endpoint prior to starting the application.
  • D. Install Cloud Code on the integrated development environment (IDE). Navigate to Cloud APIs, and enable Pub/Sub against a valid Google Project IWhen developing locally, configure your application to call pubsub.googleapis.com.

67. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 27667. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 276

問題Question

あなたは最近、多数の株価を監視するアプリケーションを開発しました。大量のメッセージを受信し、単一の大規模なメモリ内データベースで現在の株価を更新するように Pub/Sub を構成する必要があります。ダウンストリーム サービスが株式取引トランザクションを実行するには、メモリ内データベースに最新の価格が必要です。各メッセージには次の 3 つの部分または情報が含まれます。
• 銘柄記号
• 株価
• アップデートのタイムスタンプ

Pub/Sub サブスクリプションはどのように設定すればよいでしょうか?

  • A. 1 回限りの配信を有効にしてプル サブスクリプションを作成します。
  • B. 注文と 1 回限りの配信の両方をオフにして、プッシュ サブスクリプションを作成します。
  • C. 1 回限りの配信を有効にしてプッシュ サブスクリプションを作成します。
  • D. 注文と 1 回限りの配信の両方をオフにして、プル サブスクリプションを作成します。

You recently developed an application that monitors a large number of stock prices. You need to configure Pub/Sub to receive a high volume messages and update the current stock price in a single large in-memory database. A downstream service needs the most up-to-date prices in the in-memory database to perform stock trading transactions. Each message contains three pieces or information:
• Stock symbol
• Stock price
• Timestamp for the update

How should you set up your Pub/Sub subscription?

  • A. Create a pull subscription with exactly-once delivery enabled.
  • B. Create a push subscription with both ordering and exactly-once delivery turned off.
  • C. Create a push subscription with exactly-once delivery enabled.
  • D. Create a pull subscription with both ordering and exactly-once delivery turned off.

68. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 27968. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 279

問題Question

あなたは花の注文アプリケーションを開発しています。現在、3 つのマイクロサービスがあります。
・オーダーサービス(注文を受け付ける)
• 注文フルフィルメント サービス (注文を処理します)
• 通知サービス (注文が完了すると顧客に通知します)

サービスが相互に通信する方法を決定する必要があります。受信した注文を迅速に処理する必要があり、フルフィルメントのために注文情報を収集する必要があります。また、サービス間で注文が失われず、非同期通信できることを確認する必要もあります。リクエストはどのように処理されるべきですか?

  • A. image
  • B. image
  • C. image
  • D. image

You are developing a flower ordering application. Currently you have three microservices:
• Order Service (receives the orders)
• Order Fulfillment Service (processes the orders)
• Notification Service (notifies the customer when the order is filled)

You need to determine how the services will communicate with each other. You want incoming orders to be processed quickly and you need to collect order information for fulfillment. You also want to make sure orders are not lost between your services and are able to communicate asynchronously. How should the requests be processed?

  • A. image
  • B. image
  • C. image
  • D. image

69. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 28269. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 282

問題Question

あなたは、Cloud Run、Bigtable、Pub/Sub を含むマイクロサービス アーキテクチャを使用するアプリケーションを開発しています。テストとデバッグのプロセスをできるだけ早く実行して、最小限のコストで実行可能な最小限の製品を作成したいと考えています。どうすればいいでしょうか?

  • A. Cloud Shell エディタと Cloud Shell を使用してアプリケーションをデプロイし、プロジェクトで Google Cloud コンソールを使用して機能をテストします。
  • B. エミュレータを使用してクラウド リソースの機能をローカルでテストし、コードを Google Cloud プロジェクトにデプロイします。
  • C. Cloud Build を使用してパイプラインを作成し、単体テスト ステージと手動承認ステージを追加します。コードを Google Cloud プロジェクトにデプロイします。
  • D. Cloud Code を使用して、マイクロサービス リソースを開発、デプロイ、テストします。 Cloud Logging を使用してリソース ログを確認します。

You are developing an application that uses microservices architecture that includes Cloud Run, Bigtable, and Pub/Sub. You want to conduct the testing and debugging process as quickly as possible to create a minimally viable product with minimal cost. What should you do?

  • A. Use Cloud Shell Editor and Cloud Shell to deploy the application, and test the functionality by using the Google Cloud console in the project.
  • B. Use emulators to test the functionality of cloud resources locally, and deploy the code to your Google Cloud project.
  • C. Use Cloud Build to create a pipeline, and add the unit testing stage and the manual approval stage. Deploy the code to your Google Cloud project.
  • D. Use Cloud Code to develop, deploy, and test microservices resources. Use Cloud Logging to review the resource logs.

70. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 28570. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 285

問題Question

あなたは、Google Cloud にデータを保存する Node.js ベースのモバイル ニュース フィード アプリケーションを設計しています。アプリケーションのデータベースを選択する必要があります。データベースには、すぐに使用できるゾーン復元力、低遅延応答、ACID 準拠、オプションの中間層、半構造化データ ストレージ、ネットワーク パーティション トレラントおよびオフライン モードのクライアント ライブラリが必要です。どうすればいいでしょうか?

  • A. Firestore を構成し、アプリで Firestore クライアント ライブラリを使用します。
  • B. Bigtable を構成し、アプリで Bigtable クライアントを使用します。
  • C. Cloud SQL を構成し、アプリで Cloud SQL 用の Google クライアント ライブラリを使用します。
  • D. BigQuery を構成し、アプリで BigQuery REST API を使用します。

You are designing a Node.js-based mobile news feed application that stores data on Google Cloud. You need to select the application's database. You want the database to have zonal resiliency out of the box, low latency responses, ACID compliance, an optional middle tier, semi-structured data storage, and network-partition-tolerant and offline-mode client libraries. What should you do?

  • A. Configure Firestore and use the Firestore client library in the app.
  • B. Configure Bigtable and use the Bigtable client in the app.
  • C. Configure Cloud SQL and use the Google Client Library for Cloud SQL in the app.
  • D. Configure BigQuery and use the BigQuery REST API in the app.

71. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 28671. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 286

問題Question

あなたは、ユーザー行動データを取得し、そのデータを BigQuery にストリーミングするアプリケーション コンポーネントを開発しています。 BigQuery Storage Write API を使用する予定です。 BigQuery に到着するデータに重複がないことを確認する必要があります。これを実現するには、最も単純な操作方法を使用する必要があります。どうすればいいでしょうか?

  • A. デフォルトのタイプで書き込みストリームを作成します。
  • B. コミットされたタイプで書き込みストリームを作成します。
  • C. Kafka クラスターを構成します。重複メッセージにはプライマリの汎用一意識別子 (UUID) を使用します。
  • D. Pub/Sub トピックを構成します。 Cloud Functions を使用してトピックをサブスクライブし、重複を削除します。

You are developing an application component to capture user behavior data and stream the data to BigQuery. You plan to use the BigQuery Storage Write API. You need to ensure that the data that arrives in BigQuery does not have any duplicates. You want to use the simplest operational method to achieve this. What should you do?

  • A. Create a write stream in the default type.
  • B. Create a write stream in the committed type.
  • C. Configure a Kafka cluster. Use a primary universally unique identifier (UUID) for duplicate messages.
  • D. Configure a Pub/Sub topic. Use Cloud Functions to subscribe to the topic and remove any duplicates.

72. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 28872. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 288

問題Question

あなたは、ユーザーが To Do リストを作成および管理できるモバイル アプリケーションを開発しています。アプリケーションには次の要件があります。

• 異なるモバイル デバイス間でデータを保存および同期します。
• オフライン アクセスをサポートします。
• 各ユーザーのデバイスにリアルタイムの更新を提供します。

運用労力を最小限に抑えながらデータベース ソリューションを実装する必要があります。どのアプローチを使用する必要がありますか?

  • A. Cloud SQL for MySQL インスタンスを作成します。 To Do リスト情報を保存するデータ モデルを実装します。最も頻繁に使用されるクエリのインデックスを作成します。
  • B. Bigtable インスタンスを作成します。データの書き込み時にホットスポットを回避するようにデータベース スキーマを設計します。 Bigtable 変更ストリームを使用してデータ変更をキャプチャします。
  • C. データベースとして Firestore を使用します。 Firestore データのコピーをキャッシュするように Firestore オフライン永続性を構成します。ドキュメントの変更をリッスンして、ドキュメントが変更されるたびにアプリケーションを更新します。
  • D. 各ユーザーのデバイスに SQLite データベースを実装します。スケジュールされたジョブを使用して、各デバイス データベースを Cloud Storage に保存されているコピーと同期します。

You are developing a mobile application that allows users to create and manage to-do lists. Your application has the following requirements:

• Store and synchronize data between different mobile devices.
• Support offline access.
• Provide real-time updates on each user's device.

You need to implement a database solution while minimizing operational effort. Which approach should you use?

  • A. Create a Cloud SQL for MySQL instance. Implement a data model to store to-do list information. Create indexes for the most heavily and frequently used queries.
  • B. Create a Bigtable instance. Design a database schema to avoid hotspots when writing data. Use a Bigtable change stream to capture data changes.
  • C. Use Firestore as the database. Configure Firestore offline persistence to cache a copy of the Firestore data. Listen to document changes to update applications whenever there are document changes.
  • D. Implement a SQLite database on each user's device. Use a scheduled job to synchronize each device database with a copy stored in Cloud Storage.

73. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 29673. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 296

問題Question

あなたのチームは、最近 Google Cloud に移行されたビデオと画像のアプリケーションに Cloud Storage を使用しています。ウイルスの急増を受けて、ユーザーはアプリケーションの不安定性を報告しており、同時に Cloud Storage API からの HTTP 429 エラー コードが 10 倍に増加しています。エラーを解決し、長期的な解決策を確立する必要があります。将来負荷が再び増加した場合でも、アプリケーションが安定した状態を維持できるようにしたいと考えています。どうすればいいでしょうか?

  • A. アプリケーション コードを最適化して、Cloud Storage API への不要な呼び出しを減らし、HTTP 429 エラーを防ぎます。
  • B. ビデオ ファイルと画像ファイルを圧縮してサイズを削減し、ストレージ コストと帯域幅の使用量を最小限に抑えます。同時 API 呼び出しの数を制限するカスタム スロットル メカニズムをアプリケーションに実装します。
  • C. すべての画像とビデオのデータを Firestore に移行します。アプリケーション コード内の Cloud Storage API を新しい Firestore データベースに置き換えます。
  • D. HTTP 429 エラーが発生したリクエストに対して指数バックオフを使用した再試行戦略を実装します。

Your team uses Cloud Storage for a video and image application that was recently migrated to Google Cloud. Following a viral surge, users are reporting application instability, coinciding with a 10x increase in HTTP 429 error codes from Cloud Storage APIs. You need to resolve the errors and establish a long-term solution. You want to ensure that the application remains stable if the load increases again in the future. What should you do?

  • A. Optimize the application code to reduce unnecessary calls to Cloud Storage APIs to prevent HTTP 429 errors.
  • B. Compress the video and images files to reduce their size, and minimize storage costs and bandwidth usage. Implement a custom throttling mechanism in the application that limits the number of concurrent API calls.
  • C. Migrate all image and video data to Firestore. Replace the Cloud Storage APIs in the application code with the new Firestore database.
  • D. Implement a retry strategy with exponential backoff for requests that encounter HTTP 429 errors.

74. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 29874. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 298

問題Question

あなたは、e コマース Web サイトを運営する会社の開発者です。ウェブサイトは顧客の注文データを Cloud SQL for PostgreSQL データベースに保存します。マーケティング チームのデータ サイエンティストは、このデータにアクセスしてレポートを作成します。これらのレポートを実行するたびに、Web サイトのパフォーマンスが悪影響を受けます。 Web サイトに影響を与えることなく、最新の顧客注文データセットへのアクセスを提供したいと考えています。どうすればいいでしょうか?

  • A. Cloud SQL データベースからデータを CSV 形式にエクスポートし、そのデータを Cloud Storage バケットに送信する Cloud Function を時間ごとに実行するように Cloud Scheduler を構成します。
  • B. データ サイエンス チーム用に Bigtable テーブルをセットアップします。 Cloud SQL と Bigtable の両方への二重書き込みを同時に実行するようにアプリケーションを構成します。
  • C. データ サイエンス チーム用に BigQuery データセットをセットアップします。関連する Cloud SQL テーブルを BigQuery にレプリケートするように Datastream を構成します。
  • D. データ サイエンス チーム用に PostgreSQL データベース インスタンスのクローンを作成します。 15 分ごとに新しいクローンを作成するジョブをスケジュールします。

You are a developer at a company that operates an ecommerce website. The website stores the customer order data in a Cloud SQL for PostgreSQL database. Data scientists on the marketing team access this data to run their reports. Every time they run these reports, the website's performance is negatively affected. You want to provide access to up-to-date customer order datasets without affecting your website. What should you do?

  • A. Configure Cloud Scheduler to run an hourly Cloud Function that exports the data from the Cloud SQL database into CSV format and sends the data to a Cloud Storage bucket.
  • B. Set up a Bigtable table for the data science team. Configure the application to perform dual writes to both Cloud SQL and Bigtable simultaneously.
  • C. Set up a BigQuery dataset for the data science team. Configure Datastream to replicate the relevant Cloud SQL tables in BigQuery.
  • D. Create a clone of the PostgreSQL database instance for the data science team. Schedule a job to create a new clone every 15 minutes.

75. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 31175. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 311

問題Question

あなたは安全なドキュメント共有プラットフォームを開発しています。このプラットフォームを使用すると、ユーザーは組織外の他のユーザーとドキュメントを共有できます。これらのドキュメントへのアクセスは、設定可能な期間の経過後に取り消す必要があります。ドキュメントはクラウド ストレージに保存されます。この機能をサポートするには Cloud Storage をどのように構成すればよいですか?

  • A. Cloud Storage バケット上に署名済みのポリシー文書を作成します。
  • B. アクセス制御リスト(ACL)権限を Cloud Storage バケットに適用します。
  • C. ユーザーが共有したいドキュメントごとに署名付き URL を生成します。
  • D. 認証されたすべてのユーザーにストレージ オブジェクト ビューア IAM ロールを付与します。

You are developing a secure document sharing platform. The platform allows users to share documents with other users who may be external to their organization. Access to these documents should be revoked after a configurable time period. The documents are stored in Cloud Storage. How should you configure Cloud Storage to support this functionality?

  • A. Create signed policy documents on the Cloud Storage bucket.
  • B. Apply access control list (ACL) permissions to the Cloud Storage bucket.
  • C. Generate a signed URL for each document the user wants to share.
  • D. Grant the Storage Object Viewer IAM role to all authenticated users.

76. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 31576. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 315

問題Question

あなたのチームは現在、データベース バックエンドとして Bigtable を使用しています。アプリケーションのアプリ プロファイルでは、Bigtable クラスターへの接続が単一クラスター ルーティングとして指定されており、クラスターが使用できない場合に手動フェイルオーバーを実行するようにクラスターの接続ロジックが構成されていることがわかります。アプリケーション コードを最適化して、より効率的で可用性の高い Bigtable 接続を実現したいと考えています。どうすればいいでしょうか?

  • A. クエリが最初にキャッシュ レイヤーにヒットし、キャッシュ ミスが発生した場合に Bigtable からデータを自動的に取得するように Memcached を設定します。
  • B. Bigtable クライアントの接続プール サイズを増やします。
  • C. Dataflow テンプレートを構成し、Beam コネクタを使用してデータ変更をストリーミングします。
  • D. マルチクラスター ルーティングを使用するようにアプリ プロファイルを構成します。

Your team currently uses Bigtable as their database backend. In your application's app profile, you notice that the connection to the Bigtable cluster is specified as single-cluster routing, and the cluster’s connection logic is configured to conduct manual failover when the cluster is unavailable. You want to optimize the application code to have more efficient and highly available Bigtable connectivity. What should you do?

  • A. Set up Memcached so that queries hit the cache layer first and automatically get data from Bigtable in the event of a cache miss.
  • B. Increase the Bigtable client’s connection pool size.
  • C. Configure a Dataflow template, and use a Beam connector to stream data changes.
  • D. Configure the app profile to use multi-cluster routing.

77. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 33077. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 330

問題Question

あなたの会社は、株式データを内部データベースに取り込むアプリケーションを管理しています。リアルタイムの株式データをユーザーに提供する API を作成する必要があります。あなたは在庫データをできるだけ早くユーザーに返したいと考えており、ソリューションの拡張性が高いことを望んでいます。どうすればいいでしょうか?

  • A. 内部データベースとして機能する BigQuery データセットとテーブルを作成します。ユーザーリクエストを受信したときにテーブルをクエリします。
  • B. すべての株式市場データを保存するための Memorystore for Redis インスタンスを作成します。ユーザー要求を受信したときに、このデータベースにクエリを実行します。
  • C. Bigtable インスタンスを作成します。ユーザーリクエストを受信したときにテーブルをクエリします。 API が応答するユーザー リクエストをキューに入れるように Pub/Sub トピックを構成します。
  • D. Memorystore for Redis インスタンスを作成し、このデータベースを使用して最もアクセスされる株式データを保存します。ユーザーリクエストを受信すると、最初にこのインスタンスにクエリを実行し、内部データベースにフォールバックします。

Your company manages an application that captures stock data in an internal database. You need to create an API that provides real-time stock data to users. You want to return stock data to users as quickly as possible, and you want your solution to be highly scalable. What should you do?

  • A. Create a BigQuery dataset and table to act as the internal database. Query the table when user requests are received.
  • B. Create a Memorystore for Redis instance to store all stock market data. Query this database when user requests are received.
  • C. Create a Bigtable instance. Query the table when user requests are received. Configure a Pub/Sub topic to queue user requests that your API will respond to.
  • D. Create a Memorystore for Redis instance, and use this database to store the most accessed stock data. Query this instance first when user requests are received, and fall back to the internal database.

78. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 33378. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 333

問題Question

あなたは最近、Cloud Run でホストされるアプリケーションを開発しました。負荷テストを実施する必要があります。負荷テストのログを秒ご​​とに分析して、急速なトラフィックの急増に対する Cloud Run サービスの応答を理解したいと考えています。労力を最小限に抑えたいと考えています。ログをどのように分析すればよいでしょうか?

  • A. 推定を使用して、概要監視チャートからパフォーマンスを推定します。
  • B. BigQuery のログ データを分析するには、アプリケーションに適切な包含フィルタを使用して BigQuery ログ シンクを構成します。
  • C. 分析には Cloud Monitoring のデフォルトのログ コンソールを使用します。
  • D. ログを Pub/Sub トピックにプッシュして、Cloud SQL for PostgreSQL のログデータを分析します。 Dataflow を使用してログを処理し、取り込みます。

You recently developed an application that will be hosted on Cloud Run. You need to conduct a load test. You want to analyze the load test logs second by second to understand your Cloud Run service's response to rapid traffic spikes. You want to minimize effort. How should you analyze the logs?

  • A. Use estimation to extrapolate performance from summary monitoring charts.
  • B. Analyze the log data in BigQuery by configuring a BigQuery log sink with the appropriate inclusion filter for your application.
  • C. Use Cloud Monitoring’s default log console for analysis.
  • D. Analyze the log data in Cloud SQL for PostgreSQL by pushing logs to a Pub/Sub topic. Use Dataflow to process and ingest the logs.

79. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 33479. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 334

問題Question

あなたは、Cloud Run 上に構築された新しい顧客対応ヘルプ デスク チャット サービスの開発者です。顧客はサポートを受けるために Web サイトのチャット オプションを使用します。アプリケーションは、各トランスクリプトを一意の識別子を持つテキスト ファイルとして Cloud Storage バケットに保存します。会話が終了し、チャット ウィンドウが閉じる前に、顧客はチャット記録へのリンクを受け取ります。チャット記録リンクへのアクセスを 2 時間提供したいと考えています。このアクセスは、セキュリティを優先し、Google が推奨する方法に従うアプローチを使用して設定する必要があります。どうすればいいでしょうか?

  • A. Cloud Storage バケットに ACL 権限を設定します。各テキスト ファイルの権限を READER アクセスを持つ allUsers に設定します。各テキスト ファイルは作成後 2 時間後に削除します。
  • B. テキスト ファイルを含む Cloud Storage バケットの権限を allUsers に設定します。各テキスト ファイルは作成後 2 時間後に削除します。
  • C. ユーザーごとに新しい Cloud Storage バケットを作成します。 2 時間後に期限切れになる条件付き IAM ロールを使用して、ユーザーにバケットへのアクセスを許可します。
  • D. テキスト ファイルごとに、2 時間後に期限切れになる署名付き URL を作成します。

You are a developer of a new customer-facing help desk chat service that is built on Cloud Run. Your customers use the chat option on your website to get support. The application saves each transcript as a text file with a unique identifier in a Cloud Storage bucket. After the conversation is done and before the chat window is closed, the customer receives a link to the chat transcript. You want to provide access to the chat transcript link for 2 hours. You need to configure this access using an approach that prioritizes security and follows Google-recommended practices. What should you do?

  • A. Set the ACL permission on the Cloud Storage bucket. Set the permission of each text file to allUsers with READER access. Delete each text file 2 hours after itis created.
  • B. Set the permission on the Cloud Storage bucket with the text files to allUsers. Delete each text file 2 hours after itis created.
  • C. Create a new Cloud Storage bucket for each user. Grant the user access to the bucket with a conditional IAM role that expires after 2 hours.
  • D. Create a signed URL for each text file that expires after 2 hours.

80. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 33880. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 338

問題Question

あなたは、世界中のエンド ユーザーが最大 20 MB の画像をアップロードでき、画像は 10 日後に自動的に削除される、短期の画像ホスティング サービスを開発しています。コストを最小限に抑えながら画像を保存する方法を決定する必要があります。画像はどうやって保存すればいいのでしょうか?

  • A. イメージを Cloud Storage バケットに書き込みます。作成日から 10 日経過したオブジェクトを削除するライフサイクル構成を作成します。
  • B. 画像をSpannerに書き込みます。作成日から 10 日経過した行を削除する行削除ポリシーをテーブルに構成します。
  • C. イメージを Firestore に書き込みます。今日の 10 日前に作成されたドキュメントをクエリして削除する、Cloud Scheduler によって呼び出される Cloud Run サービスをデプロイします。
  • D. 画像を Bigtable に書き込みます。作成日より 10 日古いセルを削除する列ファミリーのガベージ コレクション ポリシーを構成します。

You are developing a short-term image hosting service where end users around the world can upload images that are up to 20MB, and the images will be automatically deleted after 10 days. You need to determine how the images should be stored while minimizing cost. How should you store the images?

  • A. Write the image to a Cloud Storage bucket. Create a lifecycle configuration that deletes objects 10 days older than their creation date.
  • B. Write the images to Spanner. Configure a row deletion policy on the table that deletes rows 10 days older than their creation date.
  • C. Write the images to Firestore. Deploy a Cloud Scheduler-invoked Cloud Run service that queries for documents written 10 days prior to today and deletes them.
  • D. Write the images to Bigtable. Configure a garbage collection policy for the column family that deletes cells 10 days older than their creation date.

81. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 33981. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 339

問題Question

あなたは会社のために新しい e コマース Web サイトを開発しています。顧客が注文したときに、カスタマイズされた電子メール通知を受信できるようにしたいと考えています。導入の労力を最小限に抑えながら、この電子メール サービスを構成する必要があります。どうすればいいでしょうか?

  • A. Firestore の作成タイプ イベントによってトリガーされる Cloud Function を作成します。
  • B. Compute Engine でホストされ、HTTP リクエストによって呼び出されるメール送信アプリケーションを作成します。
  • C. 電子メール通知チャネルを作成し、作成タイプのイベントからのログ メトリックに基づくアラート ポリシーを設定します。
  • D. Pub/Sub を使用して、orders/API が 200 OK の HTTP 応答を返したときに電子メールを送信します。

You are developing a new ecommerce website for your company. You want customers to receive a customized email notification when they place an order. You need to configure this email service while minimizing deployment effort. What should you do?

  • A. Create a Cloud Function that is triggered by a create type event in Firestore,
  • B. Create an email-sending application hosted on Compute Engine that is invoked by an HTTP request.
  • C. Create an email notification channel, and set up an alerting policy that is based on log metrics from a create type event.
  • D. Use Pub/Sub to send an email when the orders/ API returns an HTTP response of 200 OK.

82. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 34882. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 348

問題Question

あなたは、アーティファクト分析によって特定されたイメージの特定のセットの脆弱性メタデータに関するコンプライアンス レポートを編集しています。 30 日以上前にスキャンされた画像のメタデータがコンプライアンス レポートから欠落しています。これらの古いイメージの脆弱性メタデータにアクセスする必要があります。どうすればいいでしょうか?

  • A. Artifact Analysis トピックからプルするための Pub/Sub サブスクリプションを作成します。
  • B. Cloud Storage の Artifact Analysis ストレージ バケットを確認します。
  • C. Artifact Registry からイメージをプッシュまたはプルします。
  • D. Cloud Trace ログでアーティファクト分析の結果を確認します。

You are compiling a compliance report on vulnerability metadata for a specific set of images identified by Artifact Analysis. Metadata from images scanned more than 30 days ago are missing from the compliance report. You need to access the vulnerability metadata for these older images. What should you do?

  • A. Create a Pub/Sub subscription to pull from Artifact Analysis topics.
  • B. Check Artifact Analysis storage buckets in Cloud Storage.
  • C. Push or pull the images from Artifact Registry.
  • D. Check Cloud Trace logs for Artifact Analysis findings.

83. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 34983. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 349

問題Question

あなたのチームは、Cloud Storage バケットに保存されている数百万の顧客記録ファイルを読み取る Python ジョブを実行します。規制要件に準拠するには、ジョブが完了したら顧客データが直ちに削除されるようにする必要があります。このタスクを完了するのに必要な時間を最小限に抑えたいと考えています。どうすればいいでしょうか?

  • A. Cloud Storage API へのバッチ リクエストを使用して、バケット内のすべてのオブジェクトを一括削除するジョブの最終ステップを追加します。
  • B. Cloud Storage バケットでオブジェクト ライフサイクル管理を構成し、ジョブ実行の終了時にバケット内のすべてのオブジェクトを削除します。
  • C. ジョブが完了したら、Google Cloud コンソールからバケットを削除します
  • D. gcloud CLI を使用して、gcloud storage rm --recursive gs://BUCKET_NAME/ コマンドを実行します。

Your team runs a Python job that reads millions of customer record files stored in a Cloud Storage bucket. To comply with regulatory requirements, you need to ensure that customer data is immediately deleted once the job is completed. You want to minimize the time required to complete this task. What should you do?

  • A. Add a final step in the job that deletes all the objects in the bucket in bulk by using batch requests to the Cloud Storage API.
  • B. Configure Object Lifecycle Management on the Cloud Storage bucket that deletes all the objects in the bucket at the end of the job execution.
  • C. Remove the bucket from the Google Cloud console when the job is completed
  • D. Use the gcloud CLI to execute the gcloud storage rm --recursive gs://BUCKET_NAME/ command.

84. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 35484. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 354

問題Question

あなたは e コマース会社で働いています。次の要件を持つ新しいアプリケーションを開発しています。
• アプリケーションは常に最新のデータにアクセスできる必要があります。
• 会社のポリシーにより、30 日を超えたデータは自動的に削除される必要があります。

どのサービスがデータベースをホストするか、およびデータ削除の構成方法を決定する必要があります。最も効率的なソリューションを使用したいと考えています。どうすればいいでしょうか?

  • A. データベースをホストするように Spanner を構成します。 Data Catalog を使用して、30 日より古いデータを削除します。
  • B. データベースをホストするように Spanner を構成します。 30 日を超えたデータを削除する有効期限ポリシーを作成します。
  • C. データベースをホストするように Bigtable を構成します。 30 日を超えたデータを削除する有効期限ポリシーを作成します。
  • D. データベースをホストするように Bigtable を構成します。 30 日より古いデータを削除するガベージ コレクション ポリシーを Bigtable に作成します。

You work for an ecommerce company. You are developing a new application with the following requirements:
• The application must have access to the most up-to-date data at all times.
• Due to company policy, data older than 30 days must be automatically deleted.

You need to determine which service should host the database, and how to configure the data deletion. You want to use the most efficient solution. What should you do?

  • A. Configure Spanner to host the database. Use Data Catalog to delete data older than 30 days.
  • B. Configure Spanner to host the database. Create a time-to-live policy that deletes data older than 30 days.
  • C. Configure Bigtable to host the database. Create a time-to-live policy that deletes data older than 30 days.
  • D. Configure Bigtable to host the database. Create a garbage collection policy in Bigtable that deletes data older than 30 days.

85. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 35685. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 356

問題Question

あなたのチームは複数のマイクロサービスの開発を担当します。これらのマイクロサービスは Cloud Run にデプロイされ、Cloud SQL インスタンスに接続されます。通常、新しい機能を展開する前に、ローカル環境でテストを実施します。ただし、外部 IP が最近 Cloud SQL インスタンスから削除されたため、テストを実行できません。最新のデータを使用してテストを実行するには、データベースに接続する必要があります。 Google が推奨する慣行に従いたいと考えています。どうすればいいでしょうか?

  • A. データベースから Cloud Storage バケットにデータをエクスポートします。パソコン上にデータベースを作成し、データをインポートします。
  • B. コンピュータから Google Cloud プロジェクトへの Cloud VPN トンネルを作成し、Cloud SQL インスタンスに接続します。
  • C. Cloud SQL インスタンス上の承認済みネットワークとして IP を追加します。
  • D. Cloud SQL インスタンスと同じ VPC に VM を作成します。 TCP 転送に Identity-Aware Proxy を使用して VM に接続します。 Cloud SQL Auth Proxy をインストールして構成します。

Your team is responsible for developing multiple microservices. These microservices are deployed in Cloud Run and connected to a Cloud SQL instance. You typically conduct tests in a local environment prior to deploying new features. However, the external IP was recently removed from your Cloud SQL instance, and you are unable to perform the tests. You need to connect to the database to conduct tests with the most updated data. You want to follow Google-recommended practices. What should you do?

  • A. Export the data from the database to a Cloud Storage bucket. Create a database on your computer and import the data.
  • B. Create a Cloud VPN tunnel from your computer to your Google Cloud project, and connect to the Cloud SQL instance.
  • C. Add your IP as an authorized network on the Cloud SQL instance.
  • D. Create a VM in the same VPC as the Cloud SQL instance. Connect to the VM by using Identity-Aware Proxy for TCP forwarding. Install and configure the Cloud SQL Auth Proxy.

86. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 35886. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 358

問題Question

あなたは e コマース会社の開発者です。あなたは、モバイル クライアントとデスクトップ クライアントの両方で、ログイン ユーザー向けにグローバルに一貫したショッピング カートを開発する任務を負っています。ユーザーのカートに追加されたアイテムがどのように保存されるかを構成する必要があります。このカート サービスをどのように設定すればよいでしょうか?

  • A. カートを別の Memorystore for Redis インスタンスに保存し、各ユーザーの IP アドレスをキーとして構成します。
  • B. カートを別の Firestore ドキュメントに保存し、各ユーザー ID をドキュメントのキーとして構成します。
  • C. カートを別の Spanner テーブルに挿入し、各ユーザーの暗号化されたパスワードを主キーとして構成します。
  • D. カートを作成し、ショッピング カート HTTP Cookie に保存します。

You are a developer at an ecommerce company. You are tasked with developing a globally consistent shopping cart for logged-in users across both mobile and desktop clients. You need to configure how the items that are added to users’ carts are stored. How should you configure this cart service?

  • A. Store the carts in a separate Memorystore for Redis instance, and configure each user's IP address as the key.
  • B. Store the carts in a separate Firestore document, and configure each user ID as the document's key.
  • C. Insert the carts in a separate Spanner table, and configure each user's encrypted password as the primary key.
  • D. Create and store the carts in the shopping-cart HTTP cookie.

87. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 36787. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 367

問題Question

カスタム ジョブ スケジューラを開発しています。このジョブ スケジューラには、実行状態(削除、停止、一時停止されていない)すべての Compute Engine VM のエントリを含む永続キャッシュが必要です。ジョブ スケジューラはこのキャッシュをチェックし、キャッシュ内の利用可能な Compute Engine VM にのみジョブを送信します。使用可能な Compute Engine インスタンスのキャッシュが古くないことを確認する必要があります。どうすればいいでしょうか?

  • A. Compute Engine の監査ログ イベントをキャプチャするためのフィルタを使用して、組織レベルの Cloud Storage ログシンクを設定します。 Cloud Storage バケットが更新されたときに実行され、これらのイベントをアプリケーションに送信してキャッシュを更新する Eventarc トリガーを構成します。
  • B. アセット タイプ フィルタを compute.googleapis.com/Instance に設定して、挿入および削除イベントの Cloud Asset Inventory リアルタイム フィードを設定します。これらのイベントをアプリケーションに送信してキャッシュを更新する Eventarc トリガーを構成します。
  • C. Compute Engine の監査ログ イベントをキャプチャするためのフィルタを使用して、組織レベルの Pub/Sub ログ シンクを設定します。これらのイベントをアプリケーションに送信してキャッシュを更新する Eventarc トリガーを構成します。
  • D. 組織レベルの BigQuery ログシンクを設定します。この BigQuery テーブルに毎分クエリを実行して、直前のイベントを取得し、キャッシュを更新するようにアプリケーションを構成します。

You are developing a custom job scheduler that must have a persistent cache containing entries of all Compute Engine VMs that are in a running state (not deleted, stopped, or suspended). The job scheduler checks this cache and only sends jobs to the available Compute Engine VMs in the cache. You need to ensure that the available Compute Engine instance cache is not stale. What should you do?

  • A. Set up an organization-level Cloud Storage log sink with a filter to capture the audit log events for Compute Engine. Configure an Eventarc trigger that executes when the Cloud Storage bucket is updated and sends these events to the application to update the cache.
  • B. Set up a Cloud Asset Inventory real-time feed of insert and delete events with the asset types filter set to compute.googleapis.com/Instance. Configure an Eventarc trigger that sends these events to the application to update the cache.
  • C. Set up an organization-level Pub/Sub log sink with a filter to capture the audit log events for Compute Engine. Configure an Eventarc trigger that sends these events to the application to update the cache.
  • D. Set up an organization-level BigQuery log sink. Configure the application to query this BigQuery table every minute to retrieve the last minute’s events and update the cache.

88. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 37088. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 370

問題Question

あなたは、マイクロサービスのセットとして GKE と Cloud Run にデプロイされる新しいモバイル ゲームを開発しています。現時点では、ゲームのユーザー数の予測はありません。

次のデータ型を保存する必要があります。
• データタイプ 1: リーダーボードデータ
• データタイプ 2: プレイヤープロフィール、チャット、ニュースフィード
• データ タイプ 3: BI のプレーヤー クリックストリーム データ

使いやすく、コスト効率が高く、拡張性があり、ユーザーのデバイスでのオフライン キャッシュをサポートするデータ ストレージ ソリューションを特定する必要があります。さまざまなデータ型に対してどのデータ ストレージ オプションを選択する必要がありますか?

  • A. • データタイプ 1: メモリストア
    • データタイプ 2: Firestore
    • データタイプ 3: BigQuery
  • B. • データタイプ 1: メモリストア
    • データタイプ 2: スパナ
    • データタイプ 3: Bigtable
  • C. • データタイプ 1: Firestore
    • データタイプ 2: Cloud SQL
    • データタイプ 3: BigQuery
  • D. • データタイプ 1: Firestore
    • データタイプ 2: Firestore
    • データタイプ 3: BigQuery

You are developing a new mobile game that will be deployed on GKE and Cloud Run as a set of microservices. Currently, there are no projections for the game’s user volume.

You need to store the following data types:
• Data type 1: leaderboard data
• Data type 2: player profiles, chats, and news feed
• Data type 3: player clickstream data for BI

You need to identify a data storage solution that is easy to use, cost-effective, scalable, and supports offline caching on the user’s device. Which data storage option should you choose for the different data types?

  • A. • Data type 1: Memorystore
    • Data type 2: Firestore
    • Data type 3: BigQuery
  • B. • Data type 1: Memorystore
    • Data type 2: Spanner
    • Data type 3: Bigtable
  • C. • Data type 1: Firestore
    • Data type 2: Cloud SQL
    • Data type 3: BigQuery
  • D. • Data type 1: Firestore
    • Data type 2: Firestore
    • Data type 3: BigQuery

89. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 37189. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 371

問題Question

あなたのチームは、多数のプレイヤーが同時に参加できる Web ベースのゲームを開発しました。最近、リーダーボードの上位スコアの集計が遅すぎるとユーザーが不満を言い始めました。この問題を調査したところ、アプリケーション スタックが現在 Cloud SQL for PostgreSQL を使用していることがわかりました。より良いユーザー エクスペリエンスを提供するために、リーダーボードのパフォーマンスを可能な限り改善したいと考えています。どうすればいいでしょうか?

  • A. Memorystore for Redis に保存されるリーダーボード データを再実装します。
  • B. SQL クエリを最適化して、実行速度の遅いクエリを最小限に抑えます。
  • C. データベースを移行し、データを AlloyDB に保存します。
  • D. Cloud SQL for PostgreSQL を最新バージョンに更新します。

Your team developed a web-based game that has many simultaneous players. Recently, users have started to complain that the leaderboard tallies the top scores too slowly. You investigated the issue and discovered that the application stack is currently using Cloud SQL for PostgreSQL. You want to improve the leaderboard performance as much as possible to provide a better user experience. What should you do?

  • A. Re-implement the leaderboard data to be stored in Memorystore for Redis.
  • B. Optimize the SQL queries to minimize slow-running queries.
  • C. Migrate the database and store the data in AlloyDB.
  • D. Update Cloud SQL for PostgreSQL to the latest version.

90. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 37590. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 375

問題Question

最近、ホテルの客室リクエストを処理する API をデプロイしました。受信 API リクエストに対して、各顧客による予約が成功するたびに 1000 件以下の API 検索リクエストを許可するクォータを適用する必要があります。クォータを 24 時間ごとにリセットしたいとします。すべての予約に対してちょうど 1000 件の検索を許可するよりも、API の速度を優先したいと考えています。どうすればいいでしょうか?

  • A. Synchronous 設定を false に設定して Apigee Quota ポリシーを構成します。予約ごと、または 24 時間が経過したときに割り当てをリセットします。
  • B. 顧客 ID をキーとして使用するクエリ カウンターを Firestore ドキュメントに保存します。予約が発生するか、24 時間が経過すると、カウンターをゼロにリセットします。ユーザーのカウンタが 1000 を超えている場合、検索リクエストを拒否します。
  • C. 各顧客による検索リクエストの数をカウントするクエリ カウンターをメモリに保存します。予約が発生するか、24 時間が経過すると、カウンターをゼロにリセットします。ユーザーのカウンタが 1000 を超えている場合、検索リクエストを拒否します。
  • D. BigQuery では、検索リクエストと予約リクエストごとに顧客 ID と現在時刻とともにテーブル行を保存します。過去 24 時間に行われた以前の検索リクエストと予約リクエストの数をテーブルにクエリします。以前の検索リクエストの数が以前の予約リクエストの数の 1000 倍である場合、検索リクエストを拒否します。

You recently deployed an API to process hotel room requests. You need to enforce a quota on incoming API requests that allows no more than 1000 API search requests by each customer for every successful booking by that customer. You want the quota to reset every 24 hours. You want to prioritize the speed of the API over allowing exactly 1000 searches for every booking. What should you do?

  • A. Configure an Apigee Quota policy with the Synchronous setting set to false. Reset the quota on every booking or when 24 hours have passed.
  • B. Store a query counter in a Firestore document that uses the customer ID as the key. Reset the counter to zero when a booking occurs or 24 hours have passed. Deny a search request if the user’s counter is over 1000.
  • C. Store a query counter in memory that counts the number of search requests by each customer. Reset the counter to zero when a booking occurs or 24 hours have passed. Deny a search request if the user’s counter is over 1000.
  • D. In BigQuery, store a table row for each search and booking request along with the customer ID and current time. Query the table for the number of prior search and booking requests made in the last 24 hours. Deny the search request if the number of prior search requests is 1000 times more than the number of prior booking requests.

91. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 37791. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 377

問題Question

頻繁にアクセスされるデータを Memorystore for Redis Cluster インスタンスに保存するアプリケーションを構築しています。アプリケーションをネットワークの問題に対して回復力のあるものにしたいと考えています。中断を最小限に抑え、アプリケーションの安定性を確保するには、アプリケーションが Redis インスタンスからのクライアントの切断を適切に処理するようにする必要があります。どうすればいいでしょうか?

  • A. Redis の切断を検出するとアプリケーション インスタンスを直ちに終了して強制的に再起動し、アプリケーションが使用可能になるとすぐにクライアントがキャッシュに再接続するのを待ちます。
  • B. 60 秒の固定遅延後に再接続するように Redis クライアントを構成します。
  • C. Memorystore の自動フェイルオーバー メカニズムを使用して、Redis キャッシュをセカンダリ ゾーンで利用できるようにします。
  • D. 切断後の再接続時にジッターを伴う指数バックオフを実装します。クライアント側のキャッシュを構成して、短時間の停止中にデータを提供します。

You are building an application that will store frequently accessed data in a Memorystore for Redis Cluster instance. You would like to make the application resilient to network issues. You need to ensure that the application handles client disconnections from a Redis instance gracefully to minimize disruption and ensure stability of the application. What should you do?

  • A. Immediately terminate the application instance upon detecting a Redis disconnection to force a restart, and wait for clients to reconnect to the cache as soon as the application becomes available.
  • B. Configure the Redis client to reconnect after a fixed delay of 60 seconds.
  • C. Use Memorystore’s automatic failover mechanisms to make the Redis cache available in a secondary zone.
  • D. Implement exponential backoff with a jitter when reconnecting after a disconnection. Configure client-side caching to serve data during brief outages.

92. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 37892. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 378

問題Question

組織のコンプライアンス ルールに基づいてバケット名を検証するアプリケーションを Cloud Run で実行しています。新しい Cloud Storage バケットが作成されるたびに、Cloud Run アプリケーションができるだけ早く通知を受信し、バケット名が準拠していない場合はプロジェクト オーナーにアラートを送信するようにしたいと考えています。 Google が推奨する方法に従って通知を設定する必要があります。どうすればいいでしょうか?

  • A. Webhook を使用して通知を Cloud Run エンドポイントに送信するアラート ポリシーを含むログベースの指標を作成します。
  • B. Cloud Run エンドポイントに通知を送信する storage.buckets.create フィルタを使用して Eventarc トリガーを構成します。
  • C. Cloud Run Webhook に通知を送信する監査ログの storage.buckets.create フィルタを使用して、ログベースのアラート ポリシーを構成します。
  • D. Cloud Run サービスにプッシュされる Pub/Sub トピックに通知を送信する監査ログの storage.buckets.create フィルタを使用して、ログベースのアラート ポリシーを構成します。

You have an application running in Cloud Run that validates bucket names based on your organization’s compliance rule. You want the Cloud Run application to receive a notification as quickly as possible each time a new Cloud Storage bucket is created, and send an alert to the project owner if the bucket name is not in compliance. You need to configure the notification while following Google-recommended practices. What should you do?

  • A. Create a log-based metric with an alerting policy that sends a notification using the webhook to the Cloud Run endpoint.
  • B. Configure an Eventarc trigger using the storage.buckets.create filter that sends a notification to the Cloud Run endpoint.
  • C. Configure a log-based alerting policy using the storage.buckets.create filter in the audit logs that sends a notification to the Cloud Run webhook.
  • D. Configure a log-based alerting policy using the storage.buckets.create filter in the audit logs that sends a notification to a Pub/Sub topic that is pushed to the Cloud Run service.