Kumar Manoj
メンバー加入日: 2022
ゴールドリーグ
40420 ポイント
メンバー加入日: 2022
「Gemini と Imagen を使用した実際の AI アプリケーションの構築」入門スキルバッジを取得して、画像認識、自然言語処理、 Google の強力な Gemini モデルと Imagen モデルを使用した画像生成、Vertex AI プラットフォームへのアプリケーションのデプロイなどのスキルを証明しましょう。
「生成 AI アプリ: 働き方を変革する」は、生成 AI リーダー学習プログラムの 4 つ目のコースです。このコースでは、Gemini for Workspace や NotebookLM など、Google の生成 AI アプリケーションを紹介します。グラウンディング、検索拡張生成、効果的なプロンプトの作成、自動化されたワークフローの構築などのコンセプトについて学びます。
「生成 AI: 現在の状況を知る」は、生成 AI リーダー学習プログラムの 3 つ目のコースです。生成 AI は、私たちの働き方や、私たちを取り巻く世界との関わり方を変えています。リーダーは、実際のビジネス成果に結びつけるために、生成 AI の力をどのように活用できるでしょうか?このコースでは、生成 AI ソリューションの構築におけるさまざまなレイヤ、Google Cloud のサービス、ソリューションを選択する際に考慮すべき要素について学びます。
「生成 AI: 基本概念の理解」は、生成 AI リーダー学習プログラムの 2 つ目のコースです。このコースでは、AI、ML、生成 AI の違いを探り、さまざまなデータタイプが生成 AI によるビジネス課題への対処を可能にする仕組みを理解することで、生成 AI の基本概念を習得します。また、基盤モデルの限界に対処するための Google Cloud の戦略、および責任ある安全な AI の開発と導入における重要な課題に関するインサイトも得られます。
「Vertex AI におけるプロンプト設計」スキルバッジを獲得できる入門コースを修了すると、 Vertex AI のプロンプト エンジニアリング、画像分析、マルチモーダル生成手法のスキルを実証できます。効果的なプロンプトを作成する方法、目的どおりの生成 AI 出力を生成する方法、 Gemini モデルを実際のマーケティング シナリオに適用する方法を学びます。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。このスキル バッジ コースと最終評価チャレンジラボを完了し、スキルバッジを獲得して ネットワークで共有しましょう。
Google Cloud : Prompt Engineering Guide examines generative AI tools, how they work. We'll explore how to combine Google Cloud knowledge with prompt engineering to improve Gemini responses.
「生成 AI: chatbot を超えて」は、生成 AI リーダー学習プログラムの最初のコースで、前提条件はありません。このコースは、chatbot の基礎的な理解をさらに広げ、組織で実現できる生成 AI の真の可能性を把握することを目的としています。基盤モデルおよびプロンプト エンジニアリングなど、生成 AI の力を活用するうえで重要な概念も紹介します。また、このコースでは、組織において優れた生成 AI 戦略を策定する場合に検討するべき重要事項も見ていきます。
「生成 AI エージェント: 組織の変革」は、生成 AI リーダー学習プログラムの最後となる 5 番目のコースです。このコースでは、組織でカスタム生成 AI エージェントを使用して特定のビジネス課題に対処する方法を学習します。基本的な生成 AI エージェントを構築する実践演習を行うとともに、モデル、推論ループ、ツールなどのエージェントの構成要素について見ていきます。
In this course, we’ll show you how organizations are aligning their BI strategy to most effectively achieve business outcomes with Looker. We'll follow four iterative steps: Plan, Build, Launch, Grow, and provide resources to take into your own services delivery to build Looker with the goal of achieving business outcomes.
By the end of this course, you should be able to articulate Looker's value propositions and what makes it different from other analytics tools in the market. You should also be able to explain how Looker works, and explain the standard components of successful service delivery.
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
An LLM-based application can process language in a way that resembles thought. But if you want to extend its capabilities to take actions by running other functions you have coded, you will need to use function calling. This can also be referred to as tool use. Additionally, you can give a model the ability to search Google or search a data store of documents to ground its responses. In other words, to base its answers on that information. In this course, you’ll explore these concepts.
Welcome to Intro to Data Lakes, where we discuss how to create a scalable and secure data lake on Google Cloud that allows enterprises to ingest, store, process, and analyze any type or volume of full fidelity data.
このコースでは、Google Cloud の生成 AI を活用したコラボレーターである Gemini が、管理者によるインフラストラクチャのプロビジョニングにどのように役立つかについて学習します。Gemini にプロンプトを入力して、インフラストラクチャの説明、GKE クラスタのデプロイ、既存のインフラストラクチャの更新についての情報を取得する方法を学びます。ハンズオン ラボでは、Gemini を使用することで GKE のデプロイ ワークフローがどのように向上するかを体験します。 Duet AI は、Google の次世代モデルである Gemini に名称変更されました。
このコースでは、生成 AI を活用した Google Cloud のコラボレーター、Gemini が、デベロッパーのアプリケーション構築にどのように役立つかについて学びます。コードの説明、Google Cloud サービスの提案、アプリケーションのコード生成を Gemini に指示する方法について学びます。ハンズオンラボを使用して、Gemini でアプリケーション開発ワークフローがどのように向上するかを体験します。 Duet AI は、次世代モデルである Gemini に名称変更されました。
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
Welcome to Data Governance, where we discuss how to implement data governance on Google Cloud.
このコースでは、Transformer アーキテクチャと Bidirectional Encoder Representations from Transformers(BERT)モデルの概要について説明します。セルフアテンション機構をはじめとする Transformer アーキテクチャの主要コンポーネントと、それが BERT モデルの構築にどのように使用されているのかについて学習します。さらに、テキスト分類、質問応答、自然言語推論など、BERT を適用可能なその他のタスクについても学習します。このコースの推定所要時間は約 45 分です。
このコースでは、機械翻訳、テキスト要約、質問応答などのシーケンス ツー シーケンス タスクに対応する、強力かつ広く使用されている ML アーキテクチャである Encoder-Decoder アーキテクチャの概要を説明します。Encoder-Decoder アーキテクチャの主要なコンポーネントと、これらのモデルをトレーニングして提供する方法について学習します。対応するラボのチュートリアルでは、詩を生成するための Encoder-Decoder アーキテクチャの簡単な実装を、TensorFlow で最初からコーディングします。
このコースでは、アテンション機構について学習します。アテンション機構とは、ニューラル ネットワークに入力配列の重要な部分を認識させるための高度な技術です。アテンションの仕組みと、アテンションを活用して機械翻訳、テキスト要約、質問応答といったさまざまな ML タスクのパフォーマンスを改善する方法を説明します。
このコースは、大規模言語モデル(LLM)とは何か、どのようなユースケースで活用できるのか、プロンプトのチューニングで LLM のパフォーマンスを高めるにはどうすればよいかについて学習する、入門レベルのマイクロ ラーニング コースです。独自の生成 AI アプリを開発する際に利用できる Google ツールも紹介します。
この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについて説明します。独自の生成 AI アプリを作成する際に利用できる Google ツールも紹介します。
すべてのデータ パイプラインには、データレイクとデータ ウェアハウスという 2 つの主要コンポーネントがあります。このコースでは、各ストレージ タイプのユースケースを紹介し、Google Cloud で利用可能なデータレイクとデータ ウェアハウスのソリューションを技術的に詳しく説明します。また、データ エンジニアの役割や、効果的なデータ パイプラインが事業運営にもたらすメリットについて確認し、クラウド環境でデータ エンジニアリングを行うべき理由を説明します。 これは「Data Engineering on Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Google Cloud でのバッチデータ パイプラインの構築」コースに登録してください。
このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。