Bhanja Chowdhury Subhankar
メンバー加入日: 2022
シルバーリーグ
1040 ポイント
メンバー加入日: 2022
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
このコースでは、生成 AI モデルとのやりとり、ビジネス アイデアのプロトタイプ作成、本番環境へのリリースを行うツールである Vertex AI Studio をご紹介します。現実感のあるユースケースや、興味深い講義、ハンズオンラボを通して、プロンプトの作成から成果の実現に至るまでのライフサイクルを詳細に学び、Gemini マルチモーダル アプリケーションの開発、プロンプトの設計、モデルのチューニングに Vertex AI を活用する方法を学習します。Vertex AI Studio を利用することで、生成 AI をプロジェクトに最大限に活かせるようになることを目指します。
このコースでは、ディープ ラーニングを使用して画像キャプション生成モデルを作成する方法について学習します。エンコーダやデコーダなどの画像キャプション生成モデルのさまざまなコンポーネントと、モデルをトレーニングして評価する方法を学びます。このコースを修了すると、独自の画像キャプション生成モデルを作成し、それを使用して画像のキャプションを生成できるようになります。
このコースでは、機械翻訳、テキスト要約、質問応答などのシーケンス ツー シーケンス タスクに対応する、強力かつ広く使用されている ML アーキテクチャである Encoder-Decoder アーキテクチャの概要を説明します。Encoder-Decoder アーキテクチャの主要なコンポーネントと、これらのモデルをトレーニングして提供する方法について学習します。対応するラボのチュートリアルでは、詩を生成するための Encoder-Decoder アーキテクチャの簡単な実装を、TensorFlow で最初からコーディングします。
このコースでは拡散モデルについて説明します。拡散モデルは ML モデル ファミリーの一つで、最近、画像生成分野での有望性が示されました。拡散モデルは物理学、特に熱力学からインスピレーションを得ています。ここ数年、拡散モデルは研究と産業界の両方で広まりました。拡散モデルは、Google Cloud の最先端の画像生成モデルやツールの多くを支える技術です。このコースでは、拡散モデルの背景にある理論と、モデルを Vertex AI でトレーニングしてデプロイする方法について説明します。
「Introduction to Generative AI」、「Introduction to Large Language Models」、「Introduction to Responsible AI」の各コースを修了すると、スキルバッジを獲得できます。最終テストに合格することで、ジェネレーティブ AI の基礎概念を理解していることが証明されます。 スキルバッジは、Google Cloud のプロダクトとサービスに関する知識を認定するために Google Cloud が発行するデジタルバッジです。スキルバッジは、ソーシャル メディアの公開プロフィールを作成してそこに追加することで一般向けに共有できます。
この入門レベルのマイクロラーニング コースでは、責任ある AI の概要と重要性、および Google が責任ある AI を自社プロダクトにどのように実装しているのかについて説明します。また、Google の AI に関する 7 つの原則についても説明します。
「Generative AI Explorer - Vertex AI」コースには、 Google Cloud での生成 AI の使用方法に関する複数のラボが含まれます。ラボでは、Vertex AI PaLM API ファミリーの text-bison、chat-bison、 textembedding-gecko などのモデルの使用方法を確認し、プロンプト設計やベスト プラクティス、さらに Vertex AI を活用した アイディエーション、テキスト分類、テキスト抽出、テキスト要約について 学びます。また、 Vertex AI カスタム トレーニングによって基盤モデルをチューニングし、Vertex AI エンドポイントにデプロイする方法も学びます。
このコースでは、Transformer アーキテクチャと Bidirectional Encoder Representations from Transformers(BERT)モデルの概要について説明します。セルフアテンション機構をはじめとする Transformer アーキテクチャの主要コンポーネントと、それが BERT モデルの構築にどのように使用されているのかについて学習します。さらに、テキスト分類、質問応答、自然言語推論など、BERT を適用可能なその他のタスクについても学習します。このコースの推定所要時間は約 45 分です。
このコースでは、アテンション機構について学習します。アテンション機構とは、ニューラル ネットワークに入力配列の重要な部分を認識させるための高度な技術です。アテンションの仕組みと、アテンションを活用して機械翻訳、テキスト要約、質問応答といったさまざまな ML タスクのパフォーマンスを改善する方法を説明します。
このコースは、大規模言語モデル(LLM)とは何か、どのようなユースケースで活用できるのか、プロンプトのチューニングで LLM のパフォーマンスを高めるにはどうすればよいかについて学習する、入門レベルのマイクロ ラーニング コースです。独自の生成 AI アプリを開発する際に利用できる Google ツールも紹介します。
この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについて説明します。独自の生成 AI アプリを作成する際に利用できる Google ツールも紹介します。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
すべてのデータ パイプラインには、データレイクとデータ ウェアハウスという 2 つの主要コンポーネントがあります。このコースでは、各ストレージ タイプのユースケースを紹介し、Google Cloud で利用可能なデータレイクとデータ ウェアハウスのソリューションを技術的に詳しく説明します。また、データ エンジニアの役割や、効果的なデータ パイプラインが事業運営にもたらすメリットについて確認し、クラウド環境でデータ エンジニアリングを行うべき理由を説明します。 これは「Data Engineering on Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Google Cloud でのバッチデータ パイプラインの構築」コースに登録してください。
通常、データ パイプラインは、「抽出、読み込み(EL)」、「抽出、読み込み、変換(ELT)」、「抽出、変換、読み込み(ETL)」のいずれかの考え方に分類できます。このコースでは、バッチデータではどの枠組みを、どのような場合に使用するのかについて説明します。本コースではさらに、BigQuery、Dataproc 上での Spark の実行、Cloud Data Fusion のパイプラインのグラフ、Dataflow でのサーバーレスのデータ処理など、データ変換用の複数の Google Cloud テクノロジーについて説明します。また、Qwiklabs を使用して Google Cloud でデータ パイプラインのコンポーネントを構築する実践演習を行います。
ストリーミングによって企業が事業運営に関するリアルタイムの指標を取得できるようになり、ストリーミング データの処理を行う機会が増えてきました。このコースでは、Google Cloud でストリーミング データ パイプラインを構築する方法について学習します。受信ストリーミング データの処理のために Pub/Sub について説明します。また、このコースでは、Dataflow を使用してストリーミング データの集計や変換を行う方法、処理済みのレコードを分析用に BigQuery や Bigtable に保存する方法についても説明します。さらに、Qwiklabs を使用して Google Cloud でストリーミング データ パイプラインのコンポーネントを構築する実践演習を行います。
このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。
「Google Kubernetes Engine を使ってみる」コースへようこそ。Kubernetes にご興味をお持ちいただきありがとうございます。Kubernetes は、アプリケーションとハードウェア インフラストラクチャとの間にあるソフトウェア レイヤです。Google Kubernetes Engine は、Google Cloud 上のマネージド サービスとしての Kubernetes を提供します。 このコースでは、Google Kubernetes Engine(一般に GKE と呼ばれています)の基礎と、Google Cloud でアプリケーションをコンテナ化して実行する方法を学びます。このコースでは、まず Google Cloud の基本事項を確認します。続けて、コンテナ、Kubernetes、Kubernetes アーキテクチャ、Kubernetes オペレーションの概要について学びます。
このコースでは、Associate Cloud Engineer 認定試験の合格を目指す方が受験の準備を進めることができます。試験範囲に含まれる Google Cloud ドメインの概要と、ドメインに関する知識を高めるための学習計画の作成方法について学習します。
このオンデマンド速習コースでは、Google Cloud が提供する包括的で柔軟なインフラストラクチャとプラットフォーム サービスについて紹介します。動画講義、デモ、ハンズオンラボを通してさまざまなソリューションの要素について学び、実際にデプロイしてみます。これにはセキュリティを維持しながらネットワークを相互接続する方法や、ロード バランシング、自動スケーリング、インフラストラクチャの自動化、マネージド サービスも含まれます。
このオンデマンド速習コースでは、Google Cloud で提供される包括的かつ柔軟なインフラストラクチャとプラットフォームのサービスについて、Compute Engine を中心に紹介します。受講者は、動画講義、デモ、ハンズオンラボを通してソリューションの各要素について学習し、演習を行います。これらの要素には、ネットワーク、システム、アプリケーション サービスなどのインフラストラクチャ コンポーネントが含まれます。また、実践的なソリューションの実装も取り上げ、顧客指定の暗号鍵、セキュリティとアクセス管理、割り当てと課金、リソース モニタリングなどについても学習します。
このオンデマンド速習コースでは、Google Cloud で提供される包括的かつ柔軟なインフラストラクチャとプラットフォームのサービスについて、Compute Engine を中心に紹介します。受講者は、動画講義、デモ、ハンズオンラボを通してさまざまなソリューションの各要素について学習し、実際のデプロイを演習します。これらの要素には、ネットワークや仮想マシン、アプリケーション サービスなどのインフラストラクチャ コンポーネントが含まれます。コンソールと Cloud Shell を使用して Google Cloud を運用する方法についても学習します。また、クラウド アーキテクトの役割、インフラストラクチャ設計の方法、Virtual Private Cloud(VPC)を使用した仮想ネットワークの構成、プロジェクト、ネットワーク、サブネットワーク、IP アドレス、ルート、ファイアウォール ルールについても学習します。
Google Cloud の基礎: コア インストラクチャ では、Google Cloud に関する重要なコンセプトと用語について説明します。このコースでは動画とハンズオンラボを通じて学習を進めていきます。Google Cloud の多数のコンピューティング サービスとストレージ サービス、そしてリソースとポリシーを管理するための重要なツールについて比較しながら説明します。