Google Professional Cloud Developer API とイベントの統合Google Professional Cloud Developer APIs and Event Integration

API、イベント、バックグラウンド タスク、ワークフロー調整 (API Gateway、Cloud Endpoints、Apigee、Eventarc、タスク、スケジューラ、ワークフローなど) を介したサービスの統合に使用します。Use for integrating services through APIs, eventing, background tasks, and workflow coordination such as API Gateway, Cloud Endpoints, Apigee, Eventarc, Tasks, Scheduler, and Workflows.

試験Exams
PROFESSIONAL-CLOUD-DEVELOPER
問題数Questions
18
コメント数Comments
88
1 18

表示中 18 / 18 問

1. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 181. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 18

問題Question

Android および iOS アプリで使用される API を構築しています。 API は次のことを行う必要があります。
* HTTPをサポート
* 帯域幅コストを最小限に抑える
* モバイルアプリと簡単に統合
どの API アーキテクチャを使用する必要がありますか?

  • A. RESTful API
  • B. API 用の MQTT
  • C. gRPC ベースの API
  • D. SOAPベースのAPI

You are building an API that will be used by Android and iOS apps. The API must:
* Support HTTPs
* Minimize bandwidth cost
* Integrate easily with mobile apps
Which API architecture should you use?

  • A. RESTful APIs
  • B. MQTT for APIs
  • C. gRPC-based APIs
  • D. SOAP-based APIs

2. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 262. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 26

問題Question

XMLHttpRequest を使用してコンテンツのサードパーティ API と通信するユーザー インターフェイスを備えた単一ページの Web アプリケーションを作成しています。 API 結果によって UI に表示されるデータは、同じ Web ページに表示される他のデータほど重要ではないため、一部のリクエストでは API データが UI に表示されなくても許容されます。ただし、API に対する呼び出しによって、ユーザー インターフェイスの他の部分のレンダリングが遅延してはなりません。 API 応答がエラーまたはタイムアウトの場合でも、アプリケーションが適切に動作するようにしたいと考えています。
どうすればいいでしょうか?

  • A. API へのリクエストの非同期オプションを false に設定し、タイムアウトまたはエラーが発生したときに API 結果を表示するウィジェットを省略します。
  • B. API へのリクエストの非同期オプションを true に設定し、タイムアウトまたはエラーが発生したときに API 結果を表示するウィジェットを省略します。
  • C. API 呼び出しからタイムアウトまたはエラー例外をキャッチし、API 応答が成功するまで指数関数的バックオフで試行を続けます。
  • D. API 呼び出しからタイムアウトまたはエラー例外をキャッチし、UI ウィジェットにエラー応答を表示します。

You are writing a single-page web application with a user-interface that communicates with a third-party API for content using XMLHttpRequest. The data displayed on the UI by the API results is less critical than other data displayed on the same web page, so it is acceptable for some requests to not have the API data displayed in the UI. However, calls made to the API should not delay rendering of other parts of the user interface. You want your application to perform well when the API response is an error or a timeout.
What should you do?

  • A. Set the asynchronous option for your requests to the API to false and omit the widget displaying the API results when a timeout or error is encountered.
  • B. Set the asynchronous option for your request to the API to true and omit the widget displaying the API results when a timeout or error is encountered.
  • C. Catch timeout or error exceptions from the API call and keep trying with exponential backoff until the API response is successful.
  • D. Catch timeout or error exceptions from the API call and display the error response in the UI widget.

3. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 1073. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 107

問題Question

あなたは最近、モノリシック アプリケーションをマイクロサービスに分割して Google Cloud に移行しました。マイクロサービスの 1 つはクラウドを使用してデプロイされます
機能。アプリケーションを最新化すると、下位互換性のないサービスの API に変更が加えられます。元の API を使用する既存の呼び出し元と、新しい API を使用する新しい呼び出し元の両方をサポートする必要があります。どうすればいいでしょうか?

  • A. 元の Cloud Function をそのままにして、新しい API を使用して 2 番目の Cloud Function をデプロイします。ロード バランサを使用して、バージョン間で呼び出しを分散します。
  • B. 元の Cloud Function をそのままにして、変更された API のみを含む 2 番目の Cloud Function をデプロイします。通話は自動的に適切な機能にルーティングされます。
  • C. 元の Cloud Function をそのままにして、新しい API を使用して 2 番目の Cloud Function をデプロイします。 Cloud Endpoints を使用して、バージョン管理された API を公開する API ゲートウェイを提供します。
  • D. 新しい API をサポートするためにコードを変更した後、Cloud Function を再デプロイします。 API の両方のバージョンに対するリクエストは、呼び出しに含まれるバージョン識別子に基づいて実行されます。

You recently migrated a monolithic application to Google Cloud by breaking it down into microservices. One of the microservices is deployed using Cloud
Functions. As you modernize the application, you make a change to the API of the service that is backward-incompatible. You need to support both existing callers who use the original API and new callers who use the new API. What should you do?

  • A. Leave the original Cloud Function as-is and deploy a second Cloud Function with the new API. Use a load balancer to distribute calls between the versions.
  • B. Leave the original Cloud Function as-is and deploy a second Cloud Function that includes only the changed API. Calls are automatically routed to the correct function.
  • C. Leave the original Cloud Function as-is and deploy a second Cloud Function with the new API. Use Cloud Endpoints to provide an API gateway that exposes a versioned API.
  • D. Re-deploy the Cloud Function after making code changes to support the new API. Requests for both versions of the API are fulfilled based on a version identifier included in the call.

4. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 1194. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 119

問題Question

開発チームは、既存のモノリシック アプリケーションを構成可能なマイクロサービスのセットにリファクタリングするように依頼されました。新しいアプリケーションにはどの設計面を実装する必要がありますか? (2つお選びください。)

  • A. マイクロサービスの呼び出し元が使用するのと同じプログラミング言語でマイクロサービス コードを開発します。
  • B. マイクロサービス実装とマイクロサービス呼び出し元の間で API 契約合意を作成します。
  • C. すべてのマイクロサービス実装とマイクロサービス呼び出し元の間に非同期通信が必要です。
  • D. パフォーマンス要件を満たすのに十分なマイクロサービスのインスタンスが実行されていることを確認してください。
  • E. 現在のインターフェースと互換性がない可能性のある将来の変更を許可するために、バージョン管理スキームを実装します。

Your development team has been asked to refactor an existing monolithic application into a set of composable microservices. Which design aspects should you implement for the new application? (Choose two.)

  • A. Develop the microservice code in the same programming language used by the microservice caller.
  • B. Create an API contract agreement between the microservice implementation and microservice caller.
  • C. Require asynchronous communications between all microservice implementations and microservice callers.
  • D. Ensure that sufficient instances of the microservice are running to accommodate the performance requirements.
  • E. Implement a versioning scheme to permit future changes that could be incompatible with the current interface.

5. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 1695. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 169

問題Question

ケーススタディ -

これはケーススタディです。ケーススタディは個別に時間が設定されるわけではありません。各ケースを完了したいだけ試験時間を費やすことができます。ただし、この試験には追加のケーススタディやセクションが存在する場合があります。この試験に含まれるすべての質問を指定された時間内に完了できるように時間を管理する必要があります。

ケーススタディに含まれる質問に答えるには、ケーススタディで提供される情報を参照する必要があります。ケース スタディには、ケース スタディで説明されているシナリオに関する詳細情報を提供する展示やその他のリソースが含まれる場合があります。このケーススタディでは、各質問は他の質問から独立しています。

このケーススタディの最後に、レビュー画面が表示されます。この画面では、試験の次のセクションに進む前に、回答を確認し、変更を加えることができます。新しいセクションを開始した後は、このセクションに戻ることはできません。


ケーススタディを開始するには -
このケーススタディの最初の質問を表示するには、「次へ」ボタンをクリックします。質問に答える前に、左側のペインのボタンを使用してケーススタディの内容を調べてください。これらのボタンをクリックすると、ビジネス要件、既存の環境、問題の説明などの情報が表示されます。ケーススタディに [すべての情報] タブがある場合、表示される情報は後続のタブに表示される情報と同じであることに注意してください。質問に答える準備ができたら、「質問」ボタンをクリックして質問に戻ります。


会社概要 -
HipLocal は、近くにいる人々の間のコミュニケーションを促進するように設計されたコミュニティ アプリケーションです。スポーツイベントの企画や開催、企業が地域社会とつながるために利用されています。 HipLocal は最近ダラスのいくつかの地域でサービスを開始し、急速に世界的な現象に成長しています。ハイパーローカルなコミュニティコミュニケーションとビジネスアウトリーチのユニークなスタイルは、世界中で需要があります。


エグゼクティブステートメント -
私たちはナンバーワンのローカルコミュニティアプリです。地域コミュニティ サービスをグローバルに展開する時が来ました。私たちのベンチャー キャピタルの投資家は、メンバーが互いに 10 マイルまたは 10,000 マイル離れていても、急速な成長と、オンラインになる新しいローカル コミュニティや仮想コミュニティに同様の素晴らしい体験を提供したいと考えています。


ソリューションコンセプト -
HipLocal は、世界中の顧客により良いサービスを提供するために、最新の機能を備えた既存のサービスを新しい地域で拡張したいと考えています。彼らは、これらの地域をタイムゾーンでサポートするための新しいチームを雇用してトレーニングしたいと考えています。アプリケーションがスムーズに拡張され、明確な稼働時間データが提供されることを確認し、発生した問題を分析して対応する必要があります。


既存の技術環境 -
HipLocal の環境は、オンプレミスのハードウェアと Google Cloud Platform で実行されるインフラストラクチャが混在しています。 HipLocal チームはアプリケーションをよく理解していますが、世界規模のアプリケーションの経験は限られています。現在の技術環境は次のとおりです。
• 既存の API は、GCP でホストされている Compute Engine 仮想マシン インスタンス上で実行されます。
• 状態は、GCP の単一インスタンスの MySQL データベースに保存されます。
• リリース サイクルには、QA テストを可能にする開発の凍結が含まれます。
• アプリケーションにはログが記録されません。
• アプリケーションは、平日の夕方のトラフィックが少ない時間帯に、インフラストラクチャ エンジニアによって手動で展開されます。
• 稼働時間の基本的な指標があります。 API が応答しない場合、アラートが頻繁に発生します。


ビジネス要件 -
HipLocal の投資家は、事業展開を拡大し、見られる需要の増加をサポートしたいと考えています。彼らの要件は次のとおりです。
• アプリケーションの利用可能性を新しい地域に拡大します。
• 10 倍の同時ユーザーをサポートします。
• ユーザーが異なる地域に旅行する場合でも、一貫したエクスペリエンスを確保します。
• ユーザーアクティビティの指標を取得して、製品を収益化する方法をより深く理解します。
• 新しい地域の規制 (GDPR など) への準拠を確保します。
• インフラストラクチャ管理の時間とコストを削減します。
• Google が推奨するクラウド コンピューティングのプラクティスを採用します。
○ アプリケーションのライフサイクル管理に関する標準化されたワークフローとプロセスを開発します。
○ サービス レベル指標 (SLI) とサービス レベル目標 (SLO) を定義します。


技術的要件 -
• オンプレミスのデータセンターとクラウドでホストされているアプリケーションおよびインフラストラクチャの間で安全な通信を提供します。
• アプリケーションは使用状況のメトリクスと監視を提供する必要があります。
• API には認証と認可が必要です。
• 新しい機能のより迅速かつ正確な検証を実装します。
• ロギングとパフォーマンスのメトリクスは、デバッグ情報とアラートを提供できるように実用的な情報を提供する必要があります。
• ユーザーの需要に合わせて拡張する必要があります。


この質問については、HipLocal のケーススタディを参照してください。

HipLocal のアプリケーションは、Cloud クライアント ライブラリを使用して Google Cloud と対話します。 HipLocal は、アプリケーションに最小特権アクセスを実装するために、クラウド クライアント ライブラリで認証と認可を構成する必要があります。彼らは何をすべきでしょうか?

  • A. APIキーを作成します。 API キーを使用して Google Cloud とやり取りします。
  • B. デフォルトのコンピューティング サービス アカウントを使用して、Google Cloud とやり取りします。
  • C. アプリケーションのサービス アカウントを作成します。アプリケーションの秘密キーをエクスポートしてデプロイします。サービス アカウントを使用して Google Cloud とやり取りします。
  • D. アプリケーションと、アプリケーションで使用される各 Google Cloud API のサービス アカウントを作成します。アプリケーションで使用される秘密キーをエクスポートして展開します。 1 つの Google Cloud API でサービス アカウントを使用して、Google Cloud と対話します。

Case study -

This is a case study. Case studies are not timed separately. You can use as much exam time as you would like to complete each case. However, there may be additional case studies and sections on this exam. You must manage your time to ensure that you are able to complete all questions included on this exam in the time provided.

To answer the questions included in a case study, you will need to reference information that is provided in the case study. Case studies might contain exhibits and other resources that provide more information about the scenario that is described in the case study. Each question is independent of the other questions in this case study.

At the end of this case study, a review screen will appear. This screen allows you to review your answers and to make changes before you move to the next section of the exam. After you begin a new section, you cannot return to this section.


To start the case study -
To display the first question in this case study, click the Next button. Use the buttons in the left pane to explore the content of the case study before you answer the questions. Clicking these buttons displays information such as business requirements, existing environment, and problem statements. If the case study has an All Information tab, note that the information displayed is identical to the information displayed on the subsequent tabs. When you are ready to answer a question, click the Question button to return to the question.


Company Overview -
HipLocal is a community application designed to facilitate communication between people in close proximity. It is used for event planning and organizing sporting events, and for businesses to connect with their local communities. HipLocal launched recently in a few neighborhoods in Dallas and is rapidly growing into a global phenomenon. Its unique style of hyper-local community communication and business outreach is in demand around the world.


Executive Statement -
We are the number one local community app; it's time to take our local community services global. Our venture capital investors want to see rapid growth and the same great experience for new local and virtual communities that come online, whether their members are 10 or 10000 miles away from each other.


Solution Concept -
HipLocal wants to expand their existing service, with updated functionality, in new regions to better serve their global customers. They want to hire and train a new team to support these regions in their time zones. They will need to ensure that the application scales smoothly and provides clear uptime data, and that they analyze and respond to any issues that occur.


Existing Technical Environment -
HipLocal's environment is a mix of on-premises hardware and infrastructure running in Google Cloud Platform. The HipLocal team understands their application well, but has limited experience in global scale applications. Their existing technical environment is as follows:
• Existing APIs run on Compute Engine virtual machine instances hosted in GCP.
• State is stored in a single instance MySQL database in GCP.
• Release cycles include development freezes to allow for QA testing.
• The application has no logging.
• Applications are manually deployed by infrastructure engineers during periods of slow traffic on weekday evenings.
• There are basic indicators of uptime; alerts are frequently fired when the APIs are unresponsive.


Business Requirements -
HipLocal's investors want to expand their footprint and support the increase in demand they are seeing. Their requirements are:
• Expand availability of the application to new regions.
• Support 10x as many concurrent users.
• Ensure a consistent experience for users when they travel to different regions.
• Obtain user activity metrics to better understand how to monetize their product.
• Ensure compliance with regulations in the new regions (for example, GDPR).
• Reduce infrastructure management time and cost.
• Adopt the Google-recommended practices for cloud computing.
○ Develop standardized workflows and processes around application lifecycle management.
○ Define service level indicators (SLIs) and service level objectives (SLOs).


Technical Requirements -
• Provide secure communications between the on-premises data center and cloud-hosted applications and infrastructure.
• The application must provide usage metrics and monitoring.
• APIs require authentication and authorization.
• Implement faster and more accurate validation of new features.
• Logging and performance metrics must provide actionable information to be able to provide debugging information and alerts.
• Must scale to meet user demand.


For this question, refer to the HipLocal case study.

HipLocal's application uses Cloud Client Libraries to interact with Google Cloud. HipLocal needs to configure authentication and authorization in the Cloud Client Libraries to implement least privileged access for the application. What should they do?

  • A. Create an API key. Use the API key to interact with Google Cloud.
  • B. Use the default compute service account to interact with Google Cloud.
  • C. Create a service account for the application. Export and deploy the private key for the application. Use the service account to interact with Google Cloud.
  • D. Create a service account for the application and for each Google Cloud API used by the application. Export and deploy the private keys used by the application. Use the service account with one Google Cloud API to interact with Google Cloud.

6. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 1936. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 193

問題Question

あなたは、機密の非構造化データ オブジェクトを Cloud Storage バケットに保存してアクセスするアプリケーションを開発しています。規制要件に準拠するには、すべてのデータ オブジェクトが最初に作成されてから少なくとも 7 年間は利用可能であることを確認する必要があります。 3 年以上前に作成されたオブジェクトは、アクセスされる頻度が非常に低い (1 年に 1 回未満)。ストレージコストが最適化されるようにしながら、オブジェクトストレージを構成する必要があります。どうすればいいでしょうか? (2つお選びください。)

  • A. バケットに 7 年間の保持ポリシーを設定します。
  • B. IAM 条件を使用して、オブジェクト作成日から 7 年後のオブジェクトへのアクセスを提供します。
  • C. オブジェクトのバージョニングを有効にすると、オブジェクトの作成後 7 年間、オブジェクトが誤って削除されるのを防ぐことができます。
  • D. 3 年後にオブジェクトを標準ストレージからアーカイブ ストレージに移動するオブジェクト ライフサイクル ポリシーをバケットに作成します。
  • E. バケット内の各オブジェクトの経過時間をチェックし、3 年以上古いオブジェクトを Archive Storage クラスを使用して 2 番目のバケットに移動する Cloud Function を実装します。 Cloud Scheduler を使用して、毎日のスケジュールで Cloud Function をトリガーします。

You are developing an application that will store and access sensitive unstructured data objects in a Cloud Storage bucket. To comply with regulatory requirements, you need to ensure that all data objects are available for at least 7 years after their initial creation. Objects created more than 3 years ago are accessed very infrequently (less than once a year). You need to configure object storage while ensuring that storage cost is optimized. What should you do? (Choose two.)

  • A. Set a retention policy on the bucket with a period of 7 years.
  • B. Use IAM Conditions to provide access to objects 7 years after the object creation date.
  • C. Enable Object Versioning to prevent objects from being accidentally deleted for 7 years after object creation.
  • D. Create an object lifecycle policy on the bucket that moves objects from Standard Storage to Archive Storage after 3 years.
  • E. Implement a Cloud Function that checks the age of each object in the bucket and moves the objects older than 3 years to a second bucket with the Archive Storage class. Use Cloud Scheduler to trigger the Cloud Function on a daily schedule.

7. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 2817. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 281

問題Question

あなたは e コマース会社で働いています。あなたは、Apigee を通じて公開される新しい Orders API を設計しています。 Apigee 組織に、orders-test とorders-prod という名前の 2 つの新しい環境を作成しました。各環境で test.lnk-42.com/api/v1/orders および Ink-42.com/api/v1/orders という名前の一意の URL を使用する予定です。各環境が割り当てられた URL のみを使用するようにする必要があります。どうすればいいでしょうか?

  • A. 1.orders-test およびorders-prod をorders 環境グループにアタッチします。
    2. 各ホスト名を適切な環境に追加します。
  • B. 1.orders-test およびorders-prod をorders 環境グループにアタッチします。
    2. 各ホスト名をorders環境グループに追加します。
  • C. 1.orders-test をテスト環境グループにアタッチし、orders-prod を実稼働環境グループにアタッチします。
    2. 各ホスト名を適切な環境に追加します。
  • D. 1.orders-test をテスト環境グループにアタッチし、orders-prod を実稼働環境グループにアタッチします。
    2. 各ホスト名を適切な環境グループに追加します。

You work for an ecommerce company. You are designing a new Orders API that will be exposed through Apigee. In your Apigee organization, you created two new environments named orders-test and orders-prod. You plan to use unique URLs named test.lnk-42.com/api/v1/orders and Ink-42.com/api/v1/orders for each environment. You need to ensure that each environment only uses the assigned URL. What should you do?

  • A. 1. Attach orders-test and orders-prod to the orders environment group.
    2. Add each hostname to the appropriate environment.
  • B. 1. Attach orders-test and orders-prod to the orders environment group.
    2. Add each hostname to the orders environment group.
  • C. 1. Attach orders-test to the test environment group, and attach orders-prod to the production environment group.
    2. Add each hostname to the appropriate environment.
  • D. 1. Attach orders-test to the test environment group, and attach orders-prod to the production environment group.
    2. Add each hostname to the appropriate environment group.

8. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 2908. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 290

問題Question

あなたは e コマース Web サイトを運営する会社で働いています。あなたは、注文後のすべての注文履行ステップを管理する新しい統合を開発しています。各注文を処理するために複数の Cloud Functions を作成しました。各関数の出力を使用してフローを決定し、関数の実行を調整する必要があります。このプロセスの待ち時間を最小限に抑えたいと考えています。どうすればいいでしょうか?

  • A. ワークフローを使用して関数を呼び出し、コールバックを使用して実行ロジックを処理します。
  • B. ワークフローを使用して関数を呼び出し、条件付きジャンプを使用して実行ロジックを処理します。
  • C. Cloud Composer を使用して関数を呼び出し、Apache Airflow HTTP オペレーターを使用して実行ロジックを処理します。
  • D. Cloud Composer を使用して関数を呼び出し、Apache Airflow オペレータを使用して実行ロジックを処理します。

You work for a company that operates an ecommerce website. You are developing a new integration that will manage all order fulfillment steps after orders are placed. You have created multiple Cloud Functions to process each order. You need to orchestrate the execution of the functions, using the output of each function to determine the flow. You want to minimize the latency of this process. What should you do?

  • A. Use Workflows to call the functions, and use callbacks to handle the execution logic.
  • B. Use Workflows to call the functions, and use conditional jumps to handle the execution logic.
  • C. Use Cloud Composer to call the functions, and use an Apache Airflow HTTP operator to handle the execution logic.
  • D. Use Cloud Composer to call the functions, and use an Apache Airflow operator to handle the execution logic.

9. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 2949. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 294

問題Question

あなたは e コマース会社で働いており、複数の API のデプロイと管理を担当しています。運用チームは、orders-prod 環境と users-prod 環境のトラフィック パターンを確認したいと考えています。これらは、store-prod 環境グループ内の唯一の環境です。 Google が推奨する慣行に従いたいと考えています。どうすればいいでしょうか?

  • A. 両方の環境の運用チームに Apigee Analytics Viewer IAM ロールを割り当てます。 Cloud Monitoring を使用してトラフィック パターンを確認します。
  • B. 両方の環境の運用チームに Apigee Analytics Viewer IAM ロールを割り当てます。 Apigee API Analytics を使用してトラフィック パターンを確認します。
  • C. 両方の環境の運用チームの各ユーザーに Apigee API Reader IAM ロールを割り当てます。 Cloud Monitoring を使用してトラフィック パターンを確認します。
  • D. 両方の環境の運用チームの各ユーザーに Apigee API Reader IAM ロールを割り当てます。 Apigee API Analytics を使用してトラフィック パターンを確認します。

You work for an ecommerce company, and you are responsible for deploying and managing multiple APIs. The operations team wants to review the traffic patterns in the orders-prod and users-prod environments. These are the only environments in the store-prod environment group. You want to follow Google-recommended practices. What should you do?

  • A. Assign the Apigee Analytics Viewer IAM role to the operations team for both environments. Use Cloud Monitoring to review traffic patterns.
  • B. Assign the Apigee Analytics Viewer IAM role to the operations team for both environments. Use Apigee API Analytics to review traffic patterns.
  • C. Assign the Apigee API Reader IAM role to each user of the operations team for both environments. Use Cloud Monitoring to review traffic patterns.
  • D. Assign the Apigee API Reader IAM role to each user of the operations team for both environments. Use Apigee API Analytics to review traffic patterns.

10. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 30210. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 302

問題Question

あなたは、画像のサイズ変更、トリミング、透かし入れなどのさまざまなタスクを処理する必要がある新しい画像処理アプリケーションを開発しています。また、ワークフローを監視し、大量の画像がある場合にワークフローが効率的に拡張されることを確認する必要もあります。画像処理タスクとワークフロー監視を最小限の労力で自動化したいと考えています。どうすればいいでしょうか?

  • A. Cloud Composer を使用して画像処理ワークフローを管理します。ワークフローのモニタリングと分析には Dataproc を使用します。
  • B. Cloud Run を使用して画像処理機能をデプロイします。 Apigee を使用して API を公開します。ワークフローのモニタリングには Cloud Logging を使用します。
  • C. ワークフローを実装して画像処理タスクを調整します。ワークフローのモニタリングには Cloud Logging を使用します。
  • D. Cloud Build を使用して、画像処理タスクの Cloud Functions をトリガーします。ワークフローのモニタリングには Cloud Monitoring を使用します。

You are developing a new image processing application that needs to handle various tasks, such as resizing, cropping, and watermarking images. You also need to monitor the workflow and ensure that it scales efficiently when there are large volumes of images. You want to automate the image processing tasks and workflow monitoring with the least effort. What should you do?

  • A. Employ Cloud Composer to manage the image processing workflows. Use Dataproc for workflow monitoring and analytics.
  • B. Use Cloud Run to deploy the image processing functions. Use Apigee to expose the API. Use Cloud Logging for workflow monitoring.
  • C. Implement Workflows to orchestrate the image processing tasks. Use Cloud Logging for workflow monitoring.
  • D. Use Cloud Build to trigger Cloud Functions for the image processing tasks. Use Cloud Monitoring for workflow monitoring.

11. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 30311. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 303

問題Question

あなたは、Cloud Run 上の本番環境にデプロイされるウェブ アプリケーションを開発しています。アプリケーションは複数のマイクロサービスで構成されており、その一部は一般にアクセス可能であり、その他は Google ID による認証後にのみアクセス可能になります。アプリケーションのパブリック サービスへの無制限のアクセスを許可しながら、認証されたユーザーのみが制限されたサービスにアクセスできるようにする必要があります。管理のオーバーヘッドと複雑さを最小限に抑えながら、最も安全なアプローチを使用したいと考えています。アクセスをどのように設定すればよいでしょうか?

  • A. すべてのマイクロサービスに対して Identity-Aware Proxy (IAP) を有効にします。各アプリケーションの認証要件をチェックし、それぞれのサービスへのアクセスを制御する新しいマイクロサービスを開発します。
  • B. すべてのマイクロサービスに対して Identity-Aware Proxy (IAP) を有効にします。制限されたサービスのアクセス制御リスト (ACL) を管理し、パブリック サービスへの allAuthenticatedUsers アクセスを構成します。
  • C. すべてのマイクロサービスに対して Firebase Authentication を備えたクラウド エンドポイントを使用します。 Firebase ルールを構成してサービスごとにアクセス制御リスト (ACL) を管理し、パブリック サービスへのアクセスを許可します。
  • D. パブリック マイクロサービスと制限付きマイクロサービスに対して個別の Cloud Run サービスを構成します。制限されたサービスに対してのみ Identity-Aware Proxy (IAP) を有効にし、Cloud Run の上り設定を「内部およびクラウド負荷分散」に構成します。

You are developing a web application that will be deployed to production on Cloud Run. The application consists of multiple microservices, some of which will be publicly accessible and others that will only be accessible after authentication by Google identities. You need to ensure that only authenticated users can access the restricted services, while allowing unrestricted access to the public services of the application. You want to use the most secure approach while minimizing management overhead and complexity. How should you configure access?

  • A. Enable Identity-Aware Proxy (IAP) for all microservices. Develop a new microservice that checks the authentication requirements for each application and controls access to the respective services.
  • B. Enable Identity-Aware Proxy (IAP) for all microservices. Manage access control lists (ACLs) for the restricted services, and configure allAuthenticatedUsers access to the public services.
  • C. Use Cloud Endpoints with Firebase Authentication for all microservices. Configure Firebase rules to manage access control lists (ACLs) for each service, allowing access to the public services.
  • D. Configure separate Cloud Run services for the public and restricted microservices. Enable Identity-Aware Proxy (IAP) only for the restricted services, and configure the Cloud Run ingress settings to ‘Internal and Cloud Load Balancing’.

12. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 31312. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 313

問題Question

インフラストラクチャ チームは、Compute Engine VM の作成と管理を担当します。チームは Google Cloud コンソールと gcloud CLI を使用して、開発環境にリソースをプロビジョニングします。コンプライアンス上の理由から、すべての Compute Engine VM に正しくラベルが付けられていることを確認する必要があります。ラベルが欠落している場合は、現在の展開プロセスを変更せずにラベルが適切に構成されるように、修正アクションを実装する必要があります。最もスケーラブルなアプローチを使用したいと考えています。どうすればいいでしょうか?

  • A. Compute Engine VM の作成時に Cloud Audit Logs トリガーを使用して Cloud Function を呼び出します。不足しているラベルがないか確認し、必要に応じてラベルを割り当てます。
  • B. Terraform を使用してリソースをデプロイします。 gcloud terraform vet コマンドをポリシーとともに使用して、Terraform によってプロビジョニングされるすべての Compute Engine VM にラベルが設定されていることを確認します。
  • C. Cloud Scheduler を使用して、すべての Compute Engine VM でラベルが欠落していないか定期的にチェックするスクリプトを作成します。スクリプトを使用してラベルを割り当てます。
  • D. すべての Compute Engine VM でラベルが欠落していないか定期的に確認してください。コンソールを使用してラベルを割り当てます。

Your infrastructure team is responsible for creating and managing Compute Engine VMs. Your team uses the Google Cloud console and gcloud CLI to provision resources for the development environment. You need to ensure that all Compute Engine VMs are labeled correctly for compliance reasons. In case of missing labels, you need to implement corrective actions so the labels are configured accordingly without changing the current deployment process. You want to use the most scalable approach. What should you do?

  • A. Use a Cloud Audit Logs trigger to invoke a Cloud Function when a Compute Engine VM is created. Check for missing labels and assign them if necessary.
  • B. Deploy resources with Terraform. Use the gcloud terraform vet command with a policy to ensure that every Compute Engine VM that is provisioned by Terraform has labels set.
  • C. Write a script to check all Compute Engine VMs for missing labels regularly by using Cloud Scheduler. Use the script to assign the labels.
  • D. Check all Compute Engine VMs for missing labels regularly. Use the console to assign the labels.

13. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 32813. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 328

問題Question

あなたのチームは、GKE クラスタでホストされるアプリケーションを作成しました。 2 つの異なるリージョンの 2 つの GKE クラスタにデプロイされている REST サービスにアプリケーションを接続する必要があります。接続とヘルスチェックをどのように設定すればよいでしょうか? (2つお選びください。)

  • A. Cloud Service Mesh とサイドカー プロキシを使用して、アプリケーションを REST サービスに接続します。
  • B. Cloud Service Mesh とプロキシレス gRPC を使用して、アプリケーションを REST サービスに接続します。
  • C. GKE サービスの IP 範囲からのヘルスチェックを許可するように REST サービスのファイアウォールを構成します。
  • D. GKE コントロール プレーンの IP 範囲からのヘルスチェックを許可するように REST サービスのファイアウォールを構成します。
  • E. GKE チェック プローブの IP 範囲からのヘルスチェックを許可するように REST サービスのファイアウォールを構成します。

Your team has created an application that is hosted on a GKE cluster. You need to connect the application to a REST service that is deployed in two GKE clusters in two different regions. How should you set up the connection and health checks? (Choose two.)

  • A. Use Cloud Service Mesh with sidecar proxies to connect the application to the REST service.
  • B. Use Cloud Service Mesh with proxyless gRPC to connect the application to the REST service.
  • C. Configure the REST service's firewall to allow health checks originating from the GKE service’s IP ranges.
  • D. Configure the REST service's firewall to allow health checks originating from the GKE control plane’s IP ranges.
  • E. Configure the REST service's firewall to allow health checks originating from the GKE check probe’s IP ranges.

14. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 33114. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 331

問題Question

あなたは、Cloud Run にデプロイされる新しいアプリケーションのマイクロサービス アーキテクチャを設計しています。アプリケーションでは、内部マイクロサービス間の高スループット通信が必要です。このアプリケーションには、最も効果的で遅延が最も短い通信プロトコルを使用したいと考えています。どうすればいいでしょうか?

  • A. HTTP/2 を使用するように Cloud Run サービスを構成します。マイクロサービス間の通信には gRPC を実装します。大量のデータを送信する必要がある場合は、ストリーミング gRPC を使用します。
  • B. REST API 通信プロトコルを使用してマイクロサービスを実装します。レート制限を備えた Apigee を使用して、優先度の高いサービスに最適な QoS を提供します。
  • C. SOAP を使用してマイクロサービス API を構築し、マイクロサービス間の通信のデータ形式として XML を使用します。マイクロサービスごとに SOAP データ コントラクトを定義します。
  • D. HTTP REST を使用して、マイクロサービス間で通信します。ページネーションを実装し、データベースにインデックスを追加します。

You are designing a microservices architecture for a new application that will be deployed on Cloud Run. The application requires high-throughput communication between the internal microservices. You want to use the most effective, lowest latency communication protocol for this application. What should you do?

  • A. Configure the Cloud Run service to use HTTP/2. Implement gRPC for communication between the microservices. Use streaming gRPCs when a large amount of data has to be sent.
  • B. Implement the microservices with the REST API communication protocol. Use Apigee with rate-limiting to provide the best QoS for high-priority services.
  • C. Use SOAP to build the microservices API, and use XML as the data format for communication across the microservices. Define SOAP data contracts for each microservice.
  • D. Use HTTP REST to communicate across the microservices. Implement pagination and add indexing to your database.

15. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 33615. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 336

問題Question

あなたは、Cloud Functions を使用する新しい e コマース アプリケーションを開発しています。高レベルのセキュリティを維持しながら、アプリケーションの API を一般ユーザーに公開したいと考えています。承認されたユーザーのみが API にアクセスできるようにし、すべての API トラフィックが暗号化され、不正なアクセスから保護されるようにする必要があります。最もスケーラブルで安全なアプローチを使用したいと考えています。どうすればいいでしょうか?

  • A. Cloud Load Balancing の背後に Cloud Functions をデプロイし、Cloud Armor を使用して分散型サービス拒否 (DDoS) 攻撃から API を保護します。
  • B. Security Command Center を有効にして Cloud Functions をデプロイし、IAM を使用して API へのアクセスを管理します。
  • C. Cloud Functions を Apigee プロキシの背後にデプロイし、Apigee の認証および認可機能を使用して API を保護します。
  • D. Cloud Functions を Cloud API Gateway プロキシの背後にデプロイします。 API キーを作成して使用し、ユーザーに API へのアクセスを許可します。

You are developing a new ecommerce application that uses Cloud Functions. You want to expose your application's APIs to public users while maintaining a high level of security. You need to ensure that only authorized users can access your APIs and that all API traffic is encrypted and protected from unauthorized access. You want to use the most scalable and secure approach. What should you do?

  • A. Deploy your Cloud Functions behind Cloud Load Balancing, and use Cloud Armor to protect your APIs from distributed denial of service (DDoS) attacks.
  • B. Deploy your Cloud Functions with Security Command Center enabled, and use IAM to manage access to your APIs.
  • C. Deploy your Cloud Functions behind an Apigee proxy and use Apigee’s authentication and authorization features to secure your APIs.
  • D. Deploy your Cloud Functions behind a Cloud API Gateway proxy. Create and use an API key to authorize users to access your APIs.

16. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 36316. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 363

問題Question

あなたは、Cloud Run にデプロイする必要がある新しい Python 3 API を開発しています。 Cloud Run サービスは Apigee プロキシの背後にあります。 Cloud Run サービスが、すでにデプロイされた Apigee プロキシで実行されていることを確認する必要があります。このテストはできるだけ早く実施したいと考えています。どうすればいいでしょうか?

  • A. サービス コードを zip ファイルとして Cloud Storage バケットに保存します。 gcloud rundeploy --source コマンドを使用してアプリケーションをデプロイし、Apigee を Cloud Run に指定して統合をテストします。
  • B. Cloud Run エミュレータを使用して、アプリケーションをローカルでテストします。 Apigee をローカルの Cloud Run エミュレータに指定して、統合をテストします。
  • C. コンテナー イメージをローカルで構築し、そのイメージを Artifact Registry にプッシュします。イメージを Cloud Run にデプロイし、Apigee を Cloud Run に指定して統合をテストします。
  • D. gcloud rundeploy --source コマンドを使用して現在のディレクトリからアプリケーションを直接デプロイし、Apigee を Cloud Run に指定して統合をテストします。

You are developing a new Python 3 API that needs to be deployed to Cloud Run. Your Cloud Run service sits behind an Apigee proxy. You need to ensure that the Cloud Run service is running with the already deployed Apigee proxy. You want to conduct this testing as quickly as possible. What should you do?

  • A. Store the service code as a zip file in a Cloud Storage bucket. Deploy your application by using the gcloud run deploy --source command, and test the integration by pointing Apigee to Cloud Run.
  • B. Use the Cloud Run emulator to test your application locally. Test the integration by pointing Apigee to your local Cloud Run emulator.
  • C. Build a container image locally, and push the image to Artifact Registry. Deploy the Image to Cloud Run, and test the integration by pointing Apigee to Cloud Run.
  • D. Deploy your application directly from the current directory by using the gcloud run deploy --source command, and test the integration by pointing Apigee to Cloud Run.

17. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 36517. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 365

問題Question

あなたは、アプリケーションの複雑なデータ分析を処理するためのワークフローを構築しています。 Google が推奨するプラクティスに従い、ワークフローを使用して Cloud Run ジョブを実行する予定です。どうすればいいでしょうか?

  • A. Pub/Sub トピックを作成し、Cloud Run ジョブをトピックにサブスクライブします。
  • B. Cloud Run ジョブを呼び出すように Eventarc トリガーを構成し、そのトリガーをワークフローのステップに含めます。
  • C. Cloud Run Admin API コネクタを使用して、ワークフロー内で Cloud Run ジョブを実行します。
  • D. Cloud Run ジョブのエントリ ポイントを決定し、ワークフローから HTTP リクエストを送信します。

You are building a Workflow to process complex data analytics for your application. You plan to use the Workflow to execute a Cloud Run job while following Google-recommended practices. What should you do?

  • A. Create a Pub/Sub topic, and subscribe the Cloud Run job to the topic.
  • B. Configure an Eventarc trigger to invoke the Cloud Run job, and include the trigger in a step of the Workflow.
  • C. Use the Cloud Run Admin API connector to execute the Cloud Run job within the Workflow.
  • D. Determine the entry point of the Cloud Run job, and send an HTTP request from the Workflow.

18. PROFESSIONAL-CLOUD-DEVELOPER トピック 1 問題 37418. PROFESSIONAL-CLOUD-DEVELOPER Topic 1 Question 374

問題Question

あなたは地元のコンサート会場で働く開発者です。顧客は会社の Web サイトを使用してイベントのチケットを購入します。選択した座席が予約された場合は、顧客にすぐに確認を提供する必要があります。チケット注文プロセスをどのように設計すればよいでしょうか?

  • A. 座席予約を Cloud Storage バケットにアップロードすると、座席予約を処理するバックエンド サービスへのイベントがトリガーされます。
  • B. HTTP POST リクエストで座席予約を Application Load Balancer に送信します。座席予約を処理するバックエンド サービスにリクエストを分散するように Application Load Balancer を構成します。
  • C. 座席予約をクラウド タスク キューに追加すると、ワークフローがトリガーされて座席予約が処理されます。
  • D. 座席予約を Pub/Sub トピックに公開します。座席予約を処理するトピックをサブスクライブするようにバックエンド サービスを構成します。

You are a developer that works for a local concert venue. Customers use your company’s website to purchase tickets for events. You need to provide customers with immediate confirmation when a selected seat has been reserved. How should you design the ticket ordering process?

  • A. Upload the seat reservation to a Cloud Storage bucket, which triggers an event to the backend service that processes the seat reservation.
  • B. Submit the seat reservation in an HTTP POST request to an Application Load Balancer. Configure the Application Load Balancer to distribute the request to the backend service that processes the seat reservation.
  • C. Add the seat reservation to a Cloud Tasks queue, which triggers Workflows to process the seat reservation.
  • D. Publish the seat reservation to a Pub/Sub topic. Configure the backend service to subscribe to the topic to process the seat reservation.