Thota Sai Prasad
メンバー加入日: 2022
シルバーリーグ
24210 ポイント
メンバー加入日: 2022
Welcome to Cloud Composer, where we discuss how to orchestrate data lake workflows with Cloud Composer.
Demonstrate your ability to implement updated prompt engineering techniques and utilize several of Gemini's key capacilities including multimodal understanding and function calling. Then integrate generative AI into a RAG application deployed to Cloud Run. This course contains labs that are to be used as a test environment. They are deployed to test your understanding as a learner with a limited scope. These technologies can be used with fewer limitations in a real world environment.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
Do you want to keep your users engaged by suggesting content they'll love? This course equips you with the skills to build a cutting-edge recommendations app using your own data with no prior machine learning knowledge. You learn to leverage AI Applications to build recommendation applications so that audiences can discover more personalized content, like what to watch or read next, with Google-quality results customized using optimization objectives.
This on-demand course provides partners the skills required to design, deploy, and monitor Vertail AI Search for Commerce solutions including retail search and recommendation AI for enterprise customers.
This course explores the different products and capabilities of Customer Engagement Suite (CES) and Conversational agents. Additionally, it covers the foundational principles of conversation design to craft engaging and effective experiences that emulate human-like experiences specific to the Chat channel.
(Previously named "Developing apps with Vertex AI Agent Builder: Search". Please note there maybe instances in this course where previous product names and titles are used) Enterprises of all sizes have trouble making their information readily accessible to employees and customers alike. Internal documentation is frequently scattered across wikis, file shares, and databases. Similarly, consumer-facing sites often offer a vast selection of products, services, and information, but customers are frustrated by ineffective site search and navigation capabilities. This course teaches you to use AI Applications to integrate enterprise-grade generative AI search.
このコースでは、データを AI 活用へつなげるためのワークフローに役立つ AI 搭載の機能スイート、Gemini in BigQuery について説明します。この機能スイートには、データの探索と準備、コード生成とトラブルシューティング、ワークフローの検出と可視化などが含まれます。このコースでは、概念の説明、実際のユースケース、ハンズオンラボを通じて、データ実務者が生産性を高め、開発パイプラインを迅速化できるよう支援します。
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
「Vertex AI におけるプロンプト設計」スキルバッジを獲得できる入門コースを修了すると、 Vertex AI のプロンプト エンジニアリング、画像分析、マルチモーダル生成手法のスキルを実証できます。効果的なプロンプトを作成する方法、目的どおりの生成 AI 出力を生成する方法、 Gemini モデルを実際のマーケティング シナリオに適用する方法を学びます。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。このスキル バッジ コースと最終評価チャレンジラボを完了し、スキルバッジを獲得して ネットワークで共有しましょう。
企業における AI と ML の利用が拡大し続けるなか、責任を持ってそれを構築することの重要性も増しています。多くの企業にとっての課題は、責任ある AI と口で言うのは簡単でも、それを実践するのは難しいということです。このコースは、責任ある AI を組織で運用化する方法を学びたい方に最適です。 このコースでは、Google Cloud が責任ある AI を現在どのように運用化しているかを、ベスト プラクティスや教訓と併せて学び、責任ある AI に対する独自のアプローチを構築するためのフレームワークとして活用できるようにします。
このコースでは、生成 AI モデルとのやりとり、ビジネス アイデアのプロトタイプ作成、本番環境へのリリースを行うツールである Vertex AI Studio をご紹介します。現実感のあるユースケースや、興味深い講義、ハンズオンラボを通して、プロンプトの作成から成果の実現に至るまでのライフサイクルを詳細に学び、Gemini マルチモーダル アプリケーションの開発、プロンプトの設計、モデルのチューニングに Vertex AI を活用する方法を学習します。Vertex AI Studio を利用することで、生成 AI をプロジェクトに最大限に活かせるようになることを目指します。
A Business Leader in Generative AI can articulate the capabilities of core cloud Generative AI products and services and understand how they benefit organizations. This course provides an overview of the types of opportunities and challenges that companies often encounter in their digital transformation journey and how they can leverage Google Cloud's generative AI products to overcome these challenges.
このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。
この入門レベルのマイクロラーニング コースでは、責任ある AI の概要と重要性、および Google が責任ある AI を自社プロダクトにどのように実装しているのかについて説明します。また、Google の AI に関する 7 つの原則についても説明します。
このコースは、大規模言語モデル(LLM)とは何か、どのようなユースケースで活用できるのか、プロンプトのチューニングで LLM のパフォーマンスを高めるにはどうすればよいかについて学習する、入門レベルのマイクロ ラーニング コースです。独自の生成 AI アプリを開発する際に利用できる Google ツールも紹介します。
このコースでは、Transformer アーキテクチャと Bidirectional Encoder Representations from Transformers(BERT)モデルの概要について説明します。セルフアテンション機構をはじめとする Transformer アーキテクチャの主要コンポーネントと、それが BERT モデルの構築にどのように使用されているのかについて学習します。さらに、テキスト分類、質問応答、自然言語推論など、BERT を適用可能なその他のタスクについても学習します。このコースの推定所要時間は約 45 分です。
このコースでは、機械翻訳、テキスト要約、質問応答などのシーケンス ツー シーケンス タスクに対応する、強力かつ広く使用されている ML アーキテクチャである Encoder-Decoder アーキテクチャの概要を説明します。Encoder-Decoder アーキテクチャの主要なコンポーネントと、これらのモデルをトレーニングして提供する方法について学習します。対応するラボのチュートリアルでは、詩を生成するための Encoder-Decoder アーキテクチャの簡単な実装を、TensorFlow で最初からコーディングします。
このコースでは、アテンション機構について学習します。アテンション機構とは、ニューラル ネットワークに入力配列の重要な部分を認識させるための高度な技術です。アテンションの仕組みと、アテンションを活用して機械翻訳、テキスト要約、質問応答といったさまざまな ML タスクのパフォーマンスを改善する方法を説明します。
このコースでは拡散モデルについて説明します。拡散モデルは ML モデル ファミリーの一つで、最近、画像生成分野での有望性が示されました。拡散モデルは物理学、特に熱力学からインスピレーションを得ています。ここ数年、拡散モデルは研究と産業界の両方で広まりました。拡散モデルは、Google Cloud の最先端の画像生成モデルやツールの多くを支える技術です。このコースでは、拡散モデルの背景にある理論と、モデルを Vertex AI でトレーニングしてデプロイする方法について説明します。
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについて説明します。独自の生成 AI アプリを作成する際に利用できる Google ツールも紹介します。
This course continues to explore the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Dataflow.
In this course, you will receive technical training for Enterprise Data Warehouses solutions using BigQuery based on the best practices developed internally by Google’s technical sales and services organizations. The course will also provide guidance and training on key technical challenges that can arise when migrating existing Enterprise Data Warehouses and ETL pipelines to Google Cloud. You will get hands-on experience with real migration tasks, such as data migration, schema optimization, and SQL Query conversion and optimization. The course will also cover key aspects of ETL pipeline migration to Dataproc as well as using Pub/Sub, Dataflow, and Cloud Data Fusion, giving you hands-on experience using all of these tools for Data Warehouse ETL pipelines.
This skill badge aims to evaluate a partner's ability to utilize BigQuery's features and capabilities to manage and analyze large datasets. Learners will gain hands-on experience through labs and achieve solid understanding of BigQuery's foundational concepts and features.
This workload aims to upskill Google Cloud partners to perform specific tasks associated with priority workloads. Learners will perform the tasks of Migration from Teradata to BigQuery using the Data Transfer Service and the Teradata TPT Export Utility. Sample Data will be used during both methods. Learners will complete a challenge lab that focuses on the process of transferring both schema, data and SQL from a Teradata data warehouse to BigQuery.
This skill badge aims to provide partners an introduction to BigQuery Data Transfer Service and Migration Service, two powerful tools for managing and migrating data in the cloud. Learners will learn how to leverage these tools to efficiently migrate and manage data, and gain hands-on experience through labs.
In this course, you explore the four components that make up the BigQuery Migration Service. They are Migration Assessment, SQL Translation, Data Transfer Service, and Data Validation. You will use each of these tools to perform a migration using to BigQuery.
データ ウェアハウスの構築または最適化を検討している場合は、BigQuery を使ったデータの抽出、変換、Google Cloud への読み込みに関するおすすめの方法を学びます。この一連のインタラクティブなラボでは、各種の大規模な BigQuery 一般公開データセットを使って独自のデータ ウェアハウスを作成、最適化します。BigQuery は、Google が低料金で提供する NoOps のフルマネージド分析データベースです。インフラストラクチャを所有して管理したり、データベース管理者を配置したりすることなく、テラバイト単位の大規模なデータでクエリを実行できます。また、SQL が採用されており、従量課金制モデルでご利用いただけます。このような特徴を活かし、お客様は有用な情報を得るためのデータ分析に専念できます。
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
ストリーミングによって企業が事業運営に関するリアルタイムの指標を取得できるようになり、ストリーミング データの処理を行う機会が増えてきました。このコースでは、Google Cloud でストリーミング データ パイプラインを構築する方法について学習します。受信ストリーミング データの処理のために Pub/Sub について説明します。また、このコースでは、Dataflow を使用してストリーミング データの集計や変換を行う方法、処理済みのレコードを分析用に BigQuery や Bigtable に保存する方法についても説明します。さらに、Qwiklabs を使用して Google Cloud でストリーミング データ パイプラインのコンポーネントを構築する実践演習を行います。
「BigQuery でデータ ウェアハウスを構築する」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。 スキルバッジは、Google Cloud の プロダクトとサービスに関する習熟度を示す Google Cloud 発行の限定デジタルバッジです。 これは、インタラクティブなハンズオン環境での知識の応用力を 証明するものです。このスキルバッジ コースと最終評価チャレンジラボを修了し、 デジタルバッジを獲得してネットワークで共有しましょう。
「BigQuery のデータから分析情報を引き出す」の入門スキルバッジを獲得すると、 SQL クエリの作成、一般公開テーブルに対するクエリの実行、BigQuery へのサンプルデータの読み込み、BigQuery でのクエリ バリデータを使用した一般的な構文エラーのトラブルシューティング、 BigQuery データへの接続による Looker Studio でのレポート作成といったスキルを実証できます。
通常、データ パイプラインは、「抽出、読み込み(EL)」、「抽出、読み込み、変換(ELT)」、「抽出、変換、読み込み(ETL)」のいずれかの考え方に分類できます。このコースでは、バッチデータではどの枠組みを、どのような場合に使用するのかについて説明します。本コースではさらに、BigQuery、Dataproc 上での Spark の実行、Cloud Data Fusion のパイプラインのグラフ、Dataflow でのサーバーレスのデータ処理など、データ変換用の複数の Google Cloud テクノロジーについて説明します。また、Qwiklabs を使用して Google Cloud でデータ パイプラインのコンポーネントを構築する実践演習を行います。
すべてのデータ パイプラインには、データレイクとデータ ウェアハウスという 2 つの主要コンポーネントがあります。このコースでは、各ストレージ タイプのユースケースを紹介し、Google Cloud で利用可能なデータレイクとデータ ウェアハウスのソリューションを技術的に詳しく説明します。また、データ エンジニアの役割や、効果的なデータ パイプラインが事業運営にもたらすメリットについて確認し、クラウド環境でデータ エンジニアリングを行うべき理由を説明します。 これは「Data Engineering on Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Google Cloud でのバッチデータ パイプラインの構築」コースに登録してください。
このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。
「Google Cloud における Terraform を使用したインフラストラクチャの構築」の中級スキルバッジを獲得すると、 Terraform を使用した Infrastructure as Code(IaC)の原則、Terraform 構成を使用した Google Cloud リソースのプロビジョニングと管理、 状態の効果的な管理(ローカルおよびリモート)、組織内での再利用性を念頭に置いた Terraform コードのモジュール化といったスキルを実証できます。
「Google Cloud ネットワークの構築」コースを修了してスキルバッジを獲得しましょう。このコースでは、 アプリケーションをデプロイしてモニタリングするための複数の方法について学びます。具体的には、IAM ロールの確認とプロジェクト アクセスの追加 / 削除、 VPC ネットワークの作成、Compute Engine VM のデプロイとモニタリング、 SQL クエリの記述、Compute Engine での VM のデプロイとモニタリング、Kubernetes を使用した複数のデプロイ アプローチによるアプリケーションのデプロイなどです。
Compute Engine でのロード バランシングの実装 スキルバッジを獲得できる入門コースを修了すると、次のスキルを実証できます: gcloud コマンドの記述と Cloud Shell の使用、Compute Engine における仮想マシンの作成とデプロイ、 ネットワーク ロードバランサと HTTP ロードバランサの構成。 スキルバッジは、Google Cloud の プロダクトとサービスに関する習熟度を示す Google Cloud 発行の限定デジタルバッジです。 これは、インタラクティブなハンズオン環境での知識の応用力を 証明するものです。この入門コースと最終評価チャレンジラボを完了し、 スキルバッジを獲得しましょう。このスキルバッジはネットワークで共有できます。
「Google Cloud におけるアプリ開発環境の設定」コースを完了すると、スキルバッジを獲得できます。このコースでは、 Cloud Storage、Identity and Access Management、Cloud Functions、Pub/Sub のテクノロジーの基本機能を使用して、ストレージ中心のクラウド インフラストラクチャを構築し接続する方法を学びます。
「Google Kubernetes Engine を使ってみる」コースへようこそ。Kubernetes にご興味をお持ちいただきありがとうございます。Kubernetes は、アプリケーションとハードウェア インフラストラクチャとの間にあるソフトウェア レイヤです。Google Kubernetes Engine は、Google Cloud 上のマネージド サービスとしての Kubernetes を提供します。 このコースでは、Google Kubernetes Engine(一般に GKE と呼ばれています)の基礎と、Google Cloud でアプリケーションをコンテナ化して実行する方法を学びます。このコースでは、まず Google Cloud の基本事項を確認します。続けて、コンテナ、Kubernetes、Kubernetes アーキテクチャ、Kubernetes オペレーションの概要について学びます。
このオンデマンド速習コースでは、Google Cloud が提供する包括的で柔軟なインフラストラクチャとプラットフォーム サービスについて紹介します。動画講義、デモ、ハンズオンラボを通してさまざまなソリューションの要素について学び、実際にデプロイしてみます。これにはセキュリティを維持しながらネットワークを相互接続する方法や、ロード バランシング、自動スケーリング、インフラストラクチャの自動化、マネージド サービスも含まれます。
Google Cloud の基礎: コア インストラクチャ では、Google Cloud に関する重要なコンセプトと用語について説明します。このコースでは動画とハンズオンラボを通じて学習を進めていきます。Google Cloud の多数のコンピューティング サービスとストレージ サービス、そしてリソースとポリシーを管理するための重要なツールについて比較しながら説明します。
このオンデマンド速習コースでは、Google Cloud で提供される包括的かつ柔軟なインフラストラクチャとプラットフォームのサービスについて、Compute Engine を中心に紹介します。受講者は、動画講義、デモ、ハンズオンラボを通してソリューションの各要素について学習し、演習を行います。これらの要素には、ネットワーク、システム、アプリケーション サービスなどのインフラストラクチャ コンポーネントが含まれます。また、実践的なソリューションの実装も取り上げ、顧客指定の暗号鍵、セキュリティとアクセス管理、割り当てと課金、リソース モニタリングなどについても学習します。
このオンデマンド速習コースでは、Google Cloud で提供される包括的かつ柔軟なインフラストラクチャとプラットフォームのサービスについて、Compute Engine を中心に紹介します。受講者は、動画講義、デモ、ハンズオンラボを通してさまざまなソリューションの各要素について学習し、実際のデプロイを演習します。これらの要素には、ネットワークや仮想マシン、アプリケーション サービスなどのインフラストラクチャ コンポーネントが含まれます。コンソールと Cloud Shell を使用して Google Cloud を運用する方法についても学習します。また、クラウド アーキテクトの役割、インフラストラクチャ設計の方法、Virtual Private Cloud(VPC)を使用した仮想ネットワークの構成、プロジェクト、ネットワーク、サブネットワーク、IP アドレス、ルート、ファイアウォール ルールについても学習します。
このコースでは、Associate Cloud Engineer 認定試験の合格を目指す方が受験の準備を進めることができます。試験範囲に含まれる Google Cloud ドメインの概要と、ドメインに関する知識を高めるための学習計画の作成方法について学習します。