Rey Sánchez Guillermo Antonio
メンバー加入日: 2024
ダイヤモンド リーグ
48065 ポイント
メンバー加入日: 2024
This course will teach you how to build conversational experiences for Conversational Agents using Generative Playbooks. You'll start with an introduction to playbooks and learn how to set up your first one. You'll also learn about the importance of testing, as well as key production considerations like quota limits and integration. The course concludes with a case study that shows how to use playbooks for generative steering.
Google が持つ検索と AI の専門知識を Agentspace と融合させましょう。Agentspace は、従業員が単一の検索バーでドキュメント ストレージ、メール、チャット、チケット発行システム、その他のデータソースから特定の情報を検索できるよう設計された企業向けのツールです。また、Agentspace アシスタントは、ブレインストーミング、調査、ドキュメントの概要作成、カレンダーの予定への同僚の招待といったアクションの実行を支援し、あらゆる種類の知識労働や共同作業を加速させます。
「生成 AI エージェント: 組織の変革」は、生成 AI リーダー学習プログラムの最後となる 5 番目のコースです。このコースでは、組織でカスタム生成 AI エージェントを使用して特定のビジネス課題に対処する方法を学習します。基本的な生成 AI エージェントを構築する実践演習を行うとともに、モデル、推論ループ、ツールなどのエージェントの構成要素について見ていきます。
「生成 AI アプリ: 働き方を変革する」は、生成 AI リーダー学習プログラムの 4 つ目のコースです。このコースでは、Gemini for Workspace や NotebookLM など、Google の生成 AI アプリケーションを紹介します。グラウンディング、検索拡張生成、効果的なプロンプトの作成、自動化されたワークフローの構築などのコンセプトについて学びます。
「生成 AI: 現在の状況を知る」は、生成 AI リーダー学習プログラムの 3 つ目のコースです。生成 AI は、私たちの働き方や、私たちを取り巻く世界との関わり方を変えています。リーダーは、実際のビジネス成果に結びつけるために、生成 AI の力をどのように活用できるでしょうか?このコースでは、生成 AI ソリューションの構築におけるさまざまなレイヤ、Google Cloud のサービス、ソリューションを選択する際に考慮すべき要素について学びます。
「生成 AI: 基本概念の理解」は、生成 AI リーダー学習プログラムの 2 つ目のコースです。このコースでは、AI、ML、生成 AI の違いを探り、さまざまなデータタイプが生成 AI によるビジネス課題への対処を可能にする仕組みを理解することで、生成 AI の基本概念を習得します。また、基盤モデルの限界に対処するための Google Cloud の戦略、および責任ある安全な AI の開発と導入における重要な課題に関するインサイトも得られます。
「生成 AI: chatbot を超えて」は、生成 AI リーダー学習プログラムの最初のコースで、前提条件はありません。このコースは、chatbot の基礎的な理解をさらに広げ、組織で実現できる生成 AI の真の可能性を把握することを目的としています。基盤モデルおよびプロンプト エンジニアリングなど、生成 AI の力を活用するうえで重要な概念も紹介します。また、このコースでは、組織において優れた生成 AI 戦略を策定する場合に検討するべき重要事項も見ていきます。
このコースでは、Google Cloud におけるデータ エンジニアリング、データ エンジニアの役割と責任、それらが Google Cloud の各サービスにどのように対応しているかについて学びます。また、データ エンジニアリングの課題に対処する方法も学習します。
このコースでは、BigQuery の生成 AI タスクで AI / ML モデルを使用する方法をご紹介します。顧客管理を含む実際のユースケースを通して、Gemini モデルを使用してビジネス上の問題を解決するワークフローを学びます。また、理解を深めるために、このコースでは SQL クエリと Python ノートブックの両方を使用したコーディング ソリューションの詳細な手順も提供しています。
このコースでは、データを AI 活用へつなげるためのワークフローに役立つ AI 搭載の機能スイート、Gemini in BigQuery について説明します。この機能スイートには、データの探索と準備、コード生成とトラブルシューティング、ワークフローの検出と可視化などが含まれます。このコースでは、概念の説明、実際のユースケース、ハンズオンラボを通じて、データ実務者が生産性を高め、開発パイプラインを迅速化できるよう支援します。
「Dataplex を使用したデータメッシュの構築」入門コースを修了してスキルバッジを獲得すると、Dataplex を使用してデータメッシュを構築し、 Google Cloud 上のデータ セキュリティ、ガバナンス、検出を強化するスキルを実証できます。このコースでは、Dataplex でアセットにタグを付け、IAM ロールを割り当て、データ品質を評価する方法を練習し、そのスキルをテストします。
BigQuery ML を使用した予測モデリング向けのデータ エンジニアリング」のスキルバッジを獲得できる中級コースを修了すると、 Dataprep by Trifacta を使用した BigQuery へのデータ変換パイプラインの構築、 Cloud Storage、Dataflow、BigQuery を使用した抽出、変換、読み込み(ETL)ワークフローの構築、 BigQuery ML を使用した ML モデルの構築に関するスキルを実証できます。
「BigQuery でデータ ウェアハウスを構築する」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。 スキルバッジは、Google Cloud の プロダクトとサービスに関する習熟度を示す Google Cloud 発行の限定デジタルバッジです。 これは、インタラクティブなハンズオン環境での知識の応用力を 証明するものです。このスキルバッジ コースと最終評価チャレンジラボを修了し、 デジタルバッジを獲得してネットワークで共有しましょう。
「Google Cloud の ML API 用にデータを準備」コースの入門スキルバッジを獲得できるアクティビティを修了すると、 Dataprep by Trifacta を使用したデータのクリーニング、Dataflow でのデータ パイプラインの実行、Dataproc でのクラスタの作成と Apache Spark ジョブの実行、 Cloud Natural Language API、Google Cloud Speech-to-Text API、Video Intelligence API などの ML API の呼び出しに関するスキルを証明できます。
Dataflow シリーズの最後のコースでは、Dataflow 運用モデルのコンポーネントを紹介します。パイプラインのパフォーマンスのトラブルシューティングと最適化に役立つツールと手法を検証した後で、Dataflow パイプラインのテスト、デプロイ、信頼性に関するベスト プラクティスについて確認します。最後に、数百人のユーザーがいる組織に対して Dataflow パイプラインを簡単に拡張するためのテンプレートについても確認します。これらの内容を習得することで、データ プラットフォームの安定性を保ち、予期せぬ状況に対する回復力を確保できるようになります。
Dataflow コースシリーズの 2 回目である今回は、Beam SDK を使用したパイプラインの開発について詳しく説明します。まず、Apache Beam のコンセプトについて復習します。次に、ウィンドウ、ウォーターマーク、トリガーを使用したストリーミング データの処理について説明します。さらに、パイプラインのソースとシンクのオプション、構造化データを表現するためのスキーマ、State API と Timer API を使用してステートフル変換を行う方法について説明します。続いて、パイプラインのパフォーマンスを最大化するためのベスト プラクティスを再確認します。コースの終盤では、Beam でビジネス ロジックを表現するための SQL と DataFrame、および Beam ノートブックを使用してパイプラインを反復的に開発する方法を説明します。
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
ストリーミングによって企業が事業運営に関するリアルタイムの指標を取得できるようになり、ストリーミング データの処理を行う機会が増えてきました。このコースでは、Google Cloud でストリーミング データ パイプラインを構築する方法について学習します。受信ストリーミング データの処理のために Pub/Sub について説明します。また、このコースでは、Dataflow を使用してストリーミング データの集計や変換を行う方法、処理済みのレコードを分析用に BigQuery や Bigtable に保存する方法についても説明します。さらに、Qwiklabs を使用して Google Cloud でストリーミング データ パイプラインのコンポーネントを構築する実践演習を行います。
Google Cloud 上の Gemini 1.0 Pro モデルとアプリケーションの統合に関する短いコースです。ここでは、Gemini API とその生成 AI モデルについて学習し、Gemini 1.0 Pro モデルと Gemini 1.0 Pro Vision モデルにコードからアクセスする方法を学びます。これらのモデルの機能は、アプリからのテキスト、画像、動画のプロンプトを使用してテストできます。
「Gemini と Imagen を使用した実際の AI アプリケーションの構築」入門スキルバッジを取得して、画像認識、自然言語処理、 Google の強力な Gemini モデルと Imagen モデルを使用した画像生成、Vertex AI プラットフォームへのアプリケーションのデプロイなどのスキルを証明しましょう。
通常、データ パイプラインは、「抽出、読み込み(EL)」、「抽出、読み込み、変換(ELT)」、「抽出、変換、読み込み(ETL)」のいずれかの考え方に分類できます。このコースでは、バッチデータではどの枠組みを、どのような場合に使用するのかについて説明します。本コースではさらに、BigQuery、Dataproc 上での Spark の実行、Cloud Data Fusion のパイプラインのグラフ、Dataflow でのサーバーレスのデータ処理など、データ変換用の複数の Google Cloud テクノロジーについて説明します。また、Qwiklabs を使用して Google Cloud でデータ パイプラインのコンポーネントを構築する実践演習を行います。
Google Cloud での Kubernetes アプリケーションのデプロイ コースの中級スキルバッジを獲得できるアクティビティを修了すると、 Docker コンテナ イメージの構成とビルド、Google Kubernetes Engine(GKE)クラスタの作成と管理、kubectl を活用した効率的な クラスタ管理、堅牢な継続的デリバリー(CD)による Kubernetes アプリケーションのデプロイ手法といったスキルを実証できます。
すべてのデータ パイプラインには、データレイクとデータ ウェアハウスという 2 つの主要コンポーネントがあります。このコースでは、各ストレージ タイプのユースケースを紹介し、Google Cloud で利用可能なデータレイクとデータ ウェアハウスのソリューションを技術的に詳しく説明します。また、データ エンジニアの役割や、効果的なデータ パイプラインが事業運営にもたらすメリットについて確認し、クラウド環境でデータ エンジニアリングを行うべき理由を説明します。 これは「Data Engineering on Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Google Cloud でのバッチデータ パイプラインの構築」コースに登録してください。
このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。