This structured course is for developers interested in building intelligent agents using the Agent Development Kit (ADK). It combines hands-on experience, core concepts, and practical application, to provide a comprehensive guide to using ADK. You can also join our community of Google Cloud experts and peers to ask questions, collaborate on answers, and connect with the Googlers making the products you use every day.
このコースでは、Model Armor の重要なセキュリティ機能を復習し、このサービスを使いこなすための技術が身についていることを確認します。LLM に関連するセキュリティ リスクと、Model Armor にによる AI アプリケーションの保護の仕組みについて説明します。
Generate engaging media with Google's foundation models for media. Create new images with Imagen, or edit your existing photos by adding details or outpainting to create a wider view. Replace backgrounds to put your products in new scenes. And learn the basics of generating videos with Veo!
Complete the Extend Gemini with controlled generation and Tool use skill badge to demonstrate your proficiency in connecting models to external tools and APIs. This allows models to augment their knowledge, extend their capabilities and interact with external systems to take actions such as sending an email. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!"
An LLM-based application can process language in a way that resembles thought. But if you want to extend its capabilities to take actions by running other functions you have coded, you will need to use function calling. This can also be referred to as tool use. Additionally, you can give a model the ability to search Google or search a data store of documents to ground its responses. In other words, to base its answers on that information. In this course, you’ll explore these concepts.
Learn a variety of strategies and techniques to engineer effective prompts for generative models
Learn how to leverage Gemini multimodal capabilities to process and generate text, images, and audio and to integrate Gemini through APIs to perform tasks such as content creation and summarization.
Do you want to keep your users engaged by suggesting content they'll love? This course equips you with the skills to build a cutting-edge recommendations app using your own data with no prior machine learning knowledge. You learn to leverage AI Applications to build recommendation applications so that audiences can discover more personalized content, like what to watch or read next, with Google-quality results customized using optimization objectives.
Complete the Create media search and media recommendations applications with AI Applications skill badge to demonstrate your ability to create, configure, and access media search and recommendations applications using AI Applications. Please note that AI Applications was previously named Agent Builder, so you may encounter this older name within the lab content. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
NotebookLM is an AI-powered collaborator that helps you do your best thinking. After uploading your documents, NotebookLM becomes an instant expert in those sources so you can read, take notes, and collaborate with it to refine and organize your ideas. NotebookLM Pro gives you everything already included with NotebookLM, as well as higher utilization limits, access to premium features, and additional sharing options and analytics.
Complete the Configure AI Applications to optimize search results skill badge to demonstrate your proficiency in configuring search results from AI Applications. You will be tasked with implementing search serving controls to boost and bury results, filter entries from search results and display metadata in your search interface. Please note that AI Applications was previously named Agent Builder, so you may encounter this older name within the lab content. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
If you've worked with data, you know that some data is more reliable than other data. In this course, you'll learn a variety of techniques to present the most reliable or useful results to your users. Create serving controls to boost or bury search results. Rank search results to ensure that each query is answered by the most relevant data. If needed, tune your search engine. Learn to measure search results to ensure your search applications deliver the best possible results to each user. (Please note Gemini Enterprise was previously named Google Agentspace, there may be references to the previous product name in this course.)
Complete the Create and maintain Vertex AI Search data stores skill badge to demonstrate your proficiency in building various types of data stores used in Vertex AI Search applications. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
Model tuning is an effective way to customize large models to your tasks. It's a key step to improve the model's quality and efficiency. Model tuning provides benefits such as higher quality results for your specific tasks and increased model robustness. You learn some of the tuning options available in Vertex AI and when to use them.
Data stores represent a simple way to make content available to many types of generative AI applications, including search applications, recommendations engines, Gemini Enterprise apps, Agent Development Kit agents, and apps built with Google Gen AI or LangChain SDKs. Connect data from many sources include Cloud Storage, Google Drive, chat apps, mail apps, ticketing systems, third-party file storage providers, Salesforce, and many more.
Complete the Build search and recommendations AI Applications skill badge to demonstrate your proficiency in deploying search and recommendation applications through AI Applications. Additionally, emphasis is placed on constructing a tailored Q&A system utilizing data stores. Please note that AI Applications was previously named Agent Builder, so you may encounter this older name within the lab content. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
This course introduces AI Applications. You will learn about the types of apps that you can create using AI Applications, the high-level steps that its data stores automate for you, and what advanced features can be enabled for Search apps. (Please note Gemini Enterprise was previously named Google Agentspace, there may be references to the previous product name in this course.)
AI Applications provides built-in analytics for your Vertex AI Search and Gemini Enterprise apps. Learn what metrics are tracked and how to view them in this course. (Please note Gemini Enterprise was previously named Google Agentspace, there may be references to the previous product name in this course.)
Initial deployment of Vertex AI Search and Gemini Enterprise apps takes only a few clicks, but getting the configurations right can elevate a deployment from a basic off-the-shelf app to an excellent custom search or recommendations experience. In this course, you'll learn more about the many ways you can customize and improve search, recommendations, and Gemini Enterprise apps. (Please note Gemini Enterprise was previously named Google Agentspace, there may be references to the previous product name in this course.)
「生成 AI アプリ: 働き方を変革する」は、生成 AI リーダー学習プログラムの 4 つ目のコースです。このコースでは、Gemini for Workspace や NotebookLM など、Google の生成 AI アプリケーションを紹介します。グラウンディング、検索拡張生成、効果的なプロンプトの作成、自動化されたワークフローの構築などのコンセプトについて学びます。
Complete the Extend Gemini Enterprise Assistant Capabilities skill badge to demonstrate your ability to extend Gemini Enterprise assistant's capabilities with actions, grounding with Google Search, and a conversational agent. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
In this skill badge, you will demonstrate your ability to deploy Google Agentspace and set up data stores and actions. To learn these skills, we encourage you to take the course Accelerate Knowledge Exchange with Agentspace.
Google が持つ検索と AI の専門知識を Agentspace と融合させましょう。Agentspace は、従業員が単一の検索バーでドキュメント ストレージ、メール、チャット、チケット発行システム、その他のデータソースから特定の情報を検索できるよう設計された企業向けのツールです。また、Agentspace アシスタントは、ブレインストーミング、調査、ドキュメントの概要作成、カレンダーの予定への同僚の招待といったアクションの実行を支援し、あらゆる種類の知識労働や共同作業を加速させます。
In this course, you'll learn to develop generative agents that answer questions using websites, documents, or structured data. You will explore Vertex AI Applications and understand the advantages of data store agents, including their scalability and security. You'll learn about different data store types and also discover how to connect data stores to agents and add personalization for enhanced responses. Finally, you'll gain insights into common search configurations and troubleshooting techniques.
このコースでは、データを AI 活用へつなげるためのワークフローに役立つ AI 搭載の機能スイート、Gemini in BigQuery について説明します。この機能スイートには、データの探索と準備、コード生成とトラブルシューティング、ワークフローの検出と可視化などが含まれます。このコースでは、概念の説明、実際のユースケース、ハンズオンラボを通じて、データ実務者が生産性を高め、開発パイプラインを迅速化できるよう支援します。
In this course you will learn the key architectural considerations that need to be taken into account when designing for the implementation of Conversational AI solutions. Please note Dialogflow CX was recently renamed to Conversational Agents and CCAI Insights was renamed to Conversational Insights.
This course equips app developers with the skills to integrate generative AI features into their applications using Firebase Genkit. You learn how to leverage Firebase Genkit's capabilities for backend flows and seamless model execution, all using Node.js. The course guides you through the entire process, from prototyping to production, providing a pattern for building next-generation AI-powered applications.
Learn to build generative AI applications leveraging Firebase Genkit to call LLMs on Google Cloud and elsewhere, simplify complex applications' code and deploy your solution on Google Cloud.
All applications, including generative AI applications, should be deployed securely & have their performance monitored. In this course, you will explore a pattern for easily securing prototype generative AI applications for internal tool use or customer demos. Additionally, you will learn strategies to unit test generative AI applications and evaluate their performance with the Rapid Evaluation API.
Learn to use LangChain to call Google Cloud LLMs and Generative AI Services and Datastores to simplify complex applications' code.
This course equips full-stack mobile and web developers with the skills to integrate generative AI features into their applications using LangChain. You'll learn how to leverage LangChain’s capabilities for backend flows and seamless model execution, all within the familiar environment of Python. The course guides you through the entire process, from prototyping to production, ensuring a smooth journey in building next-generation AI-powered applications.
生成 AI アプリケーションは、大規模言語モデル(LLM)の発明以前にはほぼ不可能であった、新しいユーザー エクスペリエンスを生み出すことができます。アプリケーション デベロッパーが Google Cloud 上で生成 AI を活用し、魅力的で強力なアプリを構築するにはどうすればよいでしょうか? このコースでは、生成 AI アプリケーションについて学びます。また、プロンプト設計と検索拡張生成(RAG)を使用して、LLM を活用した強力なアプリケーションを構築する方法についても学びます。さらに、生成 AI アプリケーションで使用できるプロダクション レディなアーキテクチャについて学び、LLM と RAG ベースのチャット アプリケーションを構築します。
Gemini によるマルチモダリティとマルチモーダル RAG を使用したリッチ ドキュメントの検査 スキルバッジを獲得できる中級コースを修了すると、次のスキルを実証できます。 Gemini を使用したマルチモダリティにより、マルチモーダル プロンプトを使用してテキストと視覚データから情報を抽出し、動画の説明を生成して、 動画の範囲を超えた追加情報を取得する。Gemini を使用したマルチモーダル検索拡張生成(RAG)により、テキストと画像を含むドキュメントのメタデータを作成し、関連するすべてのテキスト チャンクの取得して、 引用を出力する。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、インタラクティブなハンズオン環境での知識の応用力を証明するものです。 このスキルバッジ コースと最終評価チャレンジラボを修了してスキルバッジを獲得し、ネットワークで共有しましょう。
This is an introductory course to all solutions in the Conversational AI portfolio and the Gen AI features that are available to transform them. The course also explores the business case around Conversational AI, and the use cases and user personas addressed by the solution. Please note Dialogflow CX was recently renamed to Conversational Agents and this course is in the process of being updated to reflect the new product name for Dialogflow CX.
Demonstrate the ability to create and deploy deterministic virtual agents using Dialgflow CX and augment responses by grounding results on your own data integrating with Vertex AI Agent Builder data stores and leveraging Gemini for summarizations. You will use the following technologies and Google Cloud services: Vertex AI Agent Builder Dialogflow CX Gemini
This quest will test your ability to create and deploy both Search applications and Chatbots using Vertex AI Agent Builder and Dialgflow. You will also be tasked with implementing a custom RAG system that uses the Discovery API to query a Vertex AI Data Store and use Gemini to answer user questions. You will use the following technologies and Google Cloud services: Vertex AI Agent Builder Search Apps Agents Gemini The assessment is divided into three main tasks: Building and deploying a Website Search App Deploying a Chatbot built using Vertex AI Agent Builder Creating a Custom Q&A Solution using the Discovery API
This course is for Partner sellers and technical pre-sales engineers to gain a comprehensive understanding of Google Cloud's cutting-edge Generative AI capabilities, learn to identify high-impact use cases, and develop the skills to demonstrate and integrate these technologies seamlessly into client solutions and operations.
This course is for Partner sellers and technical pre-sales engineers to gain a comprehensive understanding of Google Cloud's cutting-edge Generative AI capabilities and learn to identify high-impact use cases.
This course is for Google Cloud’s top partner sellers and technical pre-sales engineers to gain a comprehensive understanding of Google Cloud's cutting-edge Generative AI capabilities and learn to identify high-impact use cases. Those who complete the training and assessment will receive the Google Cloud Generative AI Trailblazer badge through Skills Boost.
Learn how Gemini can revolutionize your ability to develop applications! This course helps developers go beyond the basics and learn how to integrate Gemini into their workflows.
入門スキルバッジ コース「Google Cloud Observability を使用したモニタリングとロギング」を修了すると、 Compute Engine における仮想マシンのモニタリング、 複数プロジェクトの監視を目的とした Cloud Monitoring の利用、モニタリング機能とロギング機能の Cloud Functions への拡張、 アプリケーションに対するカスタム指標の作成と送信、カスタム指標に基づく Cloud Monitoring アラートの構成に関するスキルを実証できます。
「Vertex AI の Gemini API で生成 AI を使ってみる」の中級スキルバッジを獲得すると、 テキスト生成、画像と動画の分析によるコンテンツ作成の強化、Gemini API 内での関数呼び出し手法の適用といったスキルを実証できます。 Gemini の高度な手法の活用、マルチモーダル コンテンツの生成、AI を活用したプロジェクトの機能拡張を行う方法を学びましょう。
Demonstrate your ability to implement updated prompt engineering techniques and utilize several of Gemini's key capacilities including multimodal understanding and function calling. Then integrate generative AI into a RAG application deployed to Cloud Run. This course contains labs that are to be used as a test environment. They are deployed to test your understanding as a learner with a limited scope. These technologies can be used with fewer limitations in a real world environment.
In this course, you'll use text embeddings for tasks like classification, outlier detection, text clustering and semantic search. You'll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) solutions, such as for question-answering systems, using Google Cloud's Vertex AI and Google Cloud databases.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
This course explores Google Cloud technologies to create and generate embeddings. Embeddings are numerical representations of text, images, video and audio, and play a pivotal role in many tasks that involve the identification of similar items, like Google searches, online shopping recommendations, and personalized music suggestions. Specifically, you’ll use embeddings for tasks like classification, outlier detection, clustering and semantic search. You’ll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) systems and question-answering solutions, on your own proprietary data using Google Cloud’s Vertex AI.
(This course was previously named Multimodal Prompt Engineering with Gemini and PaLM) This course teaches how to use Vertex AI Studio, a Google Cloud console tool for rapidly prototyping and testing generative AI models. You learn to test sample prompts, design your own prompts, and customize foundation models to handle tasks that meet your application's needs. Whether you are looking for text, chat, code, image or speech generative experiences Vertex AI Studio offers you an interface to work with and APIs to integrate your production application.
このコースでは、AI を活用した検索テクノロジー、ツール、アプリケーションについて学びます。ベクトル エンベディングを利用するセマンティック検索、セマンティック アプローチとキーワード アプローチを組み合わせたハイブリッド検索、グラウンディング対応 AI エージェントとして AI のハルシネーションを最小限に抑える検索拡張生成(RAG)をご紹介します。Vertex AI Vector Search を実践的な経験を積んで、インテリジェントな検索エンジンを構築しましょう。
This is a introductory course to all solutions in the Contact Centre AI (CCAI) portfolio and the Generative AI features that are poised to transform them. The course also explores the CCAI go to market and engagement model, the business case around CCAI, as well as the use cases and user personas addressed by the solution.
MongoDB Atlas provided customers a fully managed, database-as-a-service on Google’s data cloud that is unmatched in speed, scale, and security—all with AI built in. Modern database systems, including MongoDB, have been a big step forward—giving businesses a more flexible, scalable, and developer-friendly alternative to legacy relational databases. But there is an even bigger payoff with a solution such as MongoDB Atlas a fully managed, database-as-a-service (DBaaS) offering. It is an approach that gives businesses all of the advantages of a modern, scalable, highly available database, while freeing IT to focus on high-value activities.
Get hands-on with the Gemini Pro and Gemini Pro Vision models through our new labs. This course gives you a unique chance to explore these powerful AI tools while our training content is still in development. Learn to interact with the models using the Vertex AI Gemini API and cURL commands, and help us create the best possible learning experience around this technology. Important Disclaimer: Please note that these labs are under active development. Functionality may occasionally change or break unexpectedly, and content might be removed or altered without notice. By proceeding with this course, you acknowledge this potential disruption.
Delve into the power of multimodal AI with this project-based course using Gemini. Master essential techniques and build advanced applications. You will: - Experiment with multimodal use cases to expand application possibilities - Implement recommendation systems that combine suggestions with clear reasoning - Design a powerful document search engine using multimodal RAG methods Important Disclaimer: Please note that these labs are under active development. Functionality may occasionally change or break unexpectedly, and content might be removed or altered without notice. By proceeding with this course, you acknowledge this potential disruption.
「Gemini と Streamlit を使用した生成 AI アプリの開発」の中級スキルバッジを獲得すると、 テキストの生成、Python SDK と Gemini API を使用した関数呼び出し、Cloud Run を使用した Streamlit アプリケーションのデプロイといったスキルを実証できます。 ここでは、Gemini にテキスト生成のプロンプトを与えるさまざまな方法を確認し、Cloud Shell を使用して Streamlit アプリケーションのテストとイテレーションを行い、Cloud Run にデプロイされる Docker コンテナとしてパッケージ化します。
「Vertex AI におけるプロンプト設計」スキルバッジを獲得できる入門コースを修了すると、 Vertex AI のプロンプト エンジニアリング、画像分析、マルチモーダル生成手法のスキルを実証できます。効果的なプロンプトを作成する方法、目的どおりの生成 AI 出力を生成する方法、 Gemini モデルを実際のマーケティング シナリオに適用する方法を学びます。
Google Cloud での DevOps ワークフローの実装 コースの中級スキルバッジを獲得できるアクティビティを修了すると、 Cloud Source Repositories を使用した Git リポジトリの作成、 Google Kubernetes Engine(GKE)上でのデプロイのリリース、管理、スケール、 コンテナ イメージのビルドと GKE へのデプロイを自動化する CI / CD パイプラインの設計といったスキルを実証できます。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。このスキル バッジ コースと最終評価チャレンジラボを完了し、スキルバッジを獲得して ネットワークで共有しましょう。
Course two of the Architecting Hybrid Cloud with Anthos series prepares students to operate and observe Anthos environments. Through presentations and hands-on labs, participants explore adjusting existing clusters, setting up advanced traffic routing policies, securing communication across workloads, and observing clusters in Anthos. This course is a continuation of course one, Multi-Cluster, Multi-Cloud with Anthos, and assumes direct experience with the topics covered in that course.
多くの IT 組織では、アジリティを求める開発者と、安定性を重視する運用担当者の間で、インセンティブが調整されていません。サイト信頼性エンジニアリング(SRE)は、Google が開発と運用の間のインセンティブを調整し、ミッション クリティカルな本番環境サポートを行う方法です。SRE の文化的および技術的手法を導入することで、ビジネスと IT の連携を改善できます。このコースでは、Google の SRE の主な手法を紹介し、SRE の組織的な導入を成功させるうえで IT リーダーとビジネス リーダーが果たす重要な役割について説明します。
Vertex AI での ML ソリューションの構築とデプロイ コースを修了して、 中級スキルバッジを獲得しましょう。このコースでは、Google Cloud の Vertex AI プラットフォーム、AutoML、カスタム トレーニング サービスを使用して、 ML モデルのトレーニング、評価、チューニング、説明、デプロイを行う方法を学びます。 このスキルバッジ コースは、データ サイエンティストと ML エンジニアのプロフェッショナルを 対象としています。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。このスキルバッジと 最終評価チャレンジラボを完了し、デジタルバッジを獲得して ネットワークで共有しましょう。
このコースでは、Google Cloud で最先端の ML パイプラインに携わっている ML エンジニアおよびトレーナーたちから知識を吸収することができます。 最初のいくつかのモジュールで、ML パイプラインとメタデータの管理用 TensorFlow を基盤とする Google の本番環境向け機械学習プラットフォーム TensorFlow Extended(TFX)について説明します。パイプラインのコンポーネントについて、そして TFX を使用したパイプラインのオーケストレーションについて学習します。また、継続的インテグレーションと継続的デプロイを通じたパイプラインの自動化の方法と、ML メタデータの管理方法についても学習します。その後、焦点を変えて、TensorFlow、PyTorch、Scikit Learn、XGBoost などの複数の ML フレームワーク全体にわたる ML パイプラインの自動化と再利用の方法について説明します。 さらに、Google Cloud のもう 1 つのツール、Cloud Composer を継続的なトレーニング パイプラインのオーケストレーションに活用する方法についても学習します。最後は、MLflow を使用して機械学習の完全なライフサイクルを管理する方法の解説で締めくくります。
このコースでは、Google Cloud 上で本番環境の ML システムをデプロイ、評価、モニタリング、運用するための MLOps ツールとベスト プラクティスについて説明します。MLOps は、本番環境 ML システムのデプロイ、テスト、モニタリング、自動化に重点を置いた規範です。 受講者は、SDK レイヤで Vertex AI Feature Store のストリーミング取り込みを使用する実践的な演習を受けられます。
このコースでは、Google Cloud 上で本番環境の ML システムをデプロイ、評価、モニタリング、運用するための MLOps ツールとベスト プラクティスについて説明します。MLOps は、本番環境 ML システムのデプロイ、テスト、モニタリング、自動化に重点を置いた規範です。機械学習エンジニアリングの担当者は、ツールを活用して、デプロイしたモデルの継続的な改善と評価を行います。また、データ サイエンティストと協力して、あるいは自らがデータ サイエンティストとして、最も効果的なモデルを迅速かつ正確にデプロイできるようモデルを開発します。
In this course, you apply your knowledge of classification models and embeddings to build a ML pipeline that functions as a recommendation engine. This is the fifth and final course of the Advanced Machine Learning on Google Cloud series.
This course introduces the products and solutions to solve NLP problems on Google Cloud. Additionally, it explores the processes, techniques, and tools to develop an NLP project with neural networks by using Vertex AI and TensorFlow.
This course describes different types of computer vision use cases and then highlights different machine learning strategies for solving these use cases. The strategies vary from experimenting with pre-built ML models through pre-built ML APIs and AutoML Vision to building custom image classifiers using linear models, deep neural network (DNN) models or convolutional neural network (CNN) models. The course shows how to improve a model's accuracy with augmentation, feature extraction, and fine-tuning hyperparameters while trying to avoid overfitting the data. The course also looks at practical issues that arise, for example, when one doesn't have enough data and how to incorporate the latest research findings into different models. Learners will get hands-on practice building and optimizing their own image classification models on a variety of public datasets in the labs they will work on.
This content is deprecated. Please see the latest version of the course, here.
A Business Leader in Generative AI can articulate the capabilities of core cloud Generative AI products and services and understand how they benefit organizations. This course provides an overview of the types of opportunities and challenges that companies often encounter in their digital transformation journey and how they can leverage Google Cloud's generative AI products to overcome these challenges.
このコースでは、本番環境で高パフォーマンスな ML システムを構築するためのコンポーネントとベスト プラクティスについて学習します。また、ML システムを構築するうえで最も一般的な考慮事項を紹介します。これには、静的トレーニング、動的トレーニング、静的な推論、動的な推論、分散型 TensorFlow、TPU などが含まれます。このコースでは、優れた予測能力にとどまらない、優れた ML システムの特性を探索することに焦点を当てています。
このコースでは、ML ワークフローに対する実践的なアプローチを取り上げます。具体的には、いくつかの ML のビジネス要件とユースケースに取り組む ML チームをケーススタディ形式で紹介します。このチームは、データ マネジメントとガバナンスに必要なツールを理解し、データの前処理に最適なアプローチを検討する必要があります。 2 つのユースケースに対して ML モデルを構築するための 3 つのオプションがチームに提示されます。このコースでは、チームの目標を達成するために、AutoML、BigQuery ML、カスタム トレーニングを使用する理由について説明します。
このコースでは、Vertex AI Feature Store を使用するメリット、ML モデルの精度を向上させる方法、最も有効な特徴を抽出できるデータ列の見極め方について説明します。また、BigQuery ML、Keras、TensorFlow を使用した特徴量エンジニアリングに関するコンテンツとラボも用意されています。
このコースでは、TensorFlow と Keras を使用した ML モデルの構築、ML モデルの精度の向上、スケーリングに対応した ML モデルの作成について取り上げます。
このコースでは、予測 AI と生成 AI の両方のプロジェクトを構築できる、Google Cloud の AI および機械学習(ML)サービスについて紹介します。AI の基盤、開発、ソリューションを含むデータから AI へのライフサイクル全体で利用可能なテクノロジー、プロダクト、ツールについて説明するとともに、魅力的な学習体験と実践的なハンズオン演習を通じて、データ サイエンティスト、AI 開発者、ML エンジニアの方々がスキルや知識を強化できるようサポートすることを目指しています。
This course explores how to leverage Looker to create data experiences and gain insights with modern business intelligence (BI) and reporting.
This learning experience guides you through the process of utilizing various data sources and multiple Google Cloud products (including BigQuery and Google Sheets using Connected Sheets) to analyze, visualize, and interpret data to answer specific questions and share insights with key decision makers.
In this course, you shadow a series of client meetings led by a Looker Professional Services Consultant.
By the end of this course, you should feel confident employing technical concepts to fulfill business requirements and be familiar with common complex design patterns.
In this course you will discover additional tools for your toolbox for working with complex deployments, building robust solutions, and delivering even more value.
Develop technical skills beyond LookML along with basic administration for optimizing Looker instances
This course reviews the processes for creating table calculations, pivots and visualizations
This course is designed for Looker users who want to create their own ad-hoc reports. It assumes experience of everything covered in our Get Started with Looker course (logging in, finding Looks & dashboards, adjusting filters, and sending data)
In this course you will discover Liquid, the templating language invented by Shopify and explore how it can be used in Looker to create dynamic links, content, formatting, and more.
Hands on course covering the main uses of extends and the three primary LookML objects extends are used on as well as some advanced usage of extends.
This course is designed to teach you about roles, permission sets and model sets. These are areas that are used together to manage what users can do and what they can see in Looker.
This course aims to introduce you to the basic concepts of Git: what it is and how it's used in Looker. You will also develop an in-depth knowledge of the caching process on the Looker platform, such as why they are used and why they work
This course provides an introduction to databases and summarized the differences in the main database technologies. This course will also introduce you to Looker and how Looker scales as a modern data platform. In the lessons, you will build and maintain standard Looker data models and establish the foundation necessary to learn Looker's more advanced features.
This course provides an iterative approach to plan, build, launch, and grow a modern, scalable, mature analytics ecosystem and data culture in an organization that consistently achieves established business outcomes. Users will also learn how to design and build a useful, easy-to-use dashboard in Looker. It assumes experience with everything covered in our Getting Started with Looker and Building Reports in Looker courses.
In this course, we’ll show you how organizations are aligning their BI strategy to most effectively achieve business outcomes with Looker. We'll follow four iterative steps: Plan, Build, Launch, Grow, and provide resources to take into your own services delivery to build Looker with the goal of achieving business outcomes.
By the end of this course, you should be able to articulate Looker's value propositions and what makes it different from other analytics tools in the market. You should also be able to explain how Looker works, and explain the standard components of successful service delivery.
「BigQuery ML を使用した ML モデルの作成」コースの中級スキルバッジを獲得できるアクティビティを修了すると、 BigQuery ML を使用して ML モデルを作成および評価し、データを予測するスキルを証明できます。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。このスキル バッジ コースと最終評価チャレンジラボを修了し、スキルバッジを獲得して ネットワークで共有しましょう。
Data Catalog is deprecated and will be discontinued on January 30, 2026. You can still complete this course if you want to. For steps to transition your Data Catalog users, workloads, and content to Dataplex Catalog, see Transition from Data Catalog to Dataplex Catalog (https://cloud.google.com/dataplex/docs/transition-to-dataplex-catalog). Data Catalog is a fully managed and scalable metadata management service that empowers organizations to quickly discover, understand, and manage all of their data. In this quest you will start small by learning how to search and tag data assets and metadata with Data Catalog. After learning how to build your own tag templates that map to BigQuery table data, you will learn how to build MySQL, PostgreSQL, and SQLServer to Data Catalog Connectors.
Complete the intermediate Manage Data Models in Looker skill badge course to demonstrate skills in the following: maintaining LookML project health; utilizing SQL runner for data validation; employing LookML best practices; optimizing queries and reports for performance; and implementing persistent derived tables and caching policies.
Complete the introductory Build LookML Objects in Looker skill badge course to demonstrate skills in the following: building new dimensions and measures, views, and derived tables; setting measure filters and types based on requirements; updating dimensions and measures; building and refining Explores; joining views to existing Explores; and deciding which LookML objects to create based on business requirements.
「BigQuery のデータから分析情報を引き出す」の入門スキルバッジを獲得すると、 SQL クエリの作成、一般公開テーブルに対するクエリの実行、BigQuery へのサンプルデータの読み込み、BigQuery でのクエリ バリデータを使用した一般的な構文エラーのトラブルシューティング、 BigQuery データへの接続による Looker Studio でのレポート作成といったスキルを実証できます。
In this course, you will get hands-on experience applying advanced LookML concepts in Looker. You will learn how to use Liquid to customize and create dynamic dimensions and measures, create dynamic SQL derived tables and customized native derived tables, and use extends to modularize your LookML code.
In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.
「Looker ダッシュボードとレポート用にデータを準備する」スキルバッジを獲得できる入門コースを修了すると、 データのフィルタ、並べ替え、ピボット、異なる Looker Explore から取得した結果の統合、 関数と演算子を使用してデータを分析し可視化するための Looker ダッシュボードとレポートの作成に関するスキルを実証できます。
このコースを受講すると、スケーラブルでパフォーマンスの高い LookML(Looker モデリング言語)モデルを開発し、ビジネス ユーザーの疑問解決に役立つ標準化されたすぐに使えるデータを提供できるようになります。このコースの修了時には、組織の Looker インスタンスでデータをキュレートして管理するための LookML モデルの構築と維持が可能になります。
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
(Previously named "Developing apps with Vertex AI Agent Builder: Search". Please note there maybe instances in this course where previous product names and titles are used) Enterprises of all sizes have trouble making their information readily accessible to employees and customers alike. Internal documentation is frequently scattered across wikis, file shares, and databases. Similarly, consumer-facing sites often offer a vast selection of products, services, and information, but customers are frustrated by ineffective site search and navigation capabilities. This course teaches you to use AI Applications to integrate enterprise-grade generative AI search.
このコースでは、これまで主に SQL のデベロッパーやアナリストが行っていたようなデータの探索や分析を Looker で実施する方法について学びます。このコースを修了すると、Looker の最新の分析プラットフォームを活用して、組織の Looker インスタンスにおける関連性の高いコンテンツの検索と探索、データに関する問い合わせ、必要に応じた新しい指標の作成、データドリブンな意思決定を促進するためのビジュアリゼーションとダッシュボードの作成や共有を行えるようになります。
このコースでは、ML について定義し、ビジネスで ML をどのように活用できるのかを学習します。機械学習を使用したデモをいくつか確認し、機械学習の主な用語(インスタンス、特徴、ラベルなど)について学習します。インタラクティブなラボでは、事前トレーニング済みの ML API の呼び出しを実行するほか、BigQuery ML で SQL のみを使用して独自の ML モデルを構築します。
このコースシリーズの 3 番目のコースは、「Achieving Advanced Insights with BigQuery」です。ここでは、高度な関数と、複雑なクエリを管理可能なステップに分割する方法を学びながら、SQL に関する知識を深めます。 BigQuery の内部アーキテクチャ(列ベースのシャーディング ストレージ)についてや、ARRAY と STRUCT を使用した、ネストされたフィールドと繰り返しフィールドなどの高度な SQL トピックについて説明します。最後に、クエリのパフォーマンスを最適化する方法と、承認済みビューを使用してデータを保護する方法について説明します。 このコースを修了したら、「Applying Machine Learning to Your Data with Google」コースに登録してください。
これは「Data to Insights」コースシリーズの 2 つ目のコースです。ここでは、新しい外部データセットを BigQuery に取り込み、Looker Studio で可視化する方法について説明します。また、複数テーブルの JOIN と UNION など、中級者向けの SQL のコンセプトについても説明します。JOIN や UNION を使用すると、複数のデータソースのデータを分析できます。 注: すでに SQL に関する知識をお持ちの方も、BigQuery に固有の要素(クエリ キャッシュやテーブル ワイルドカードの処理など)について学ぶことができます。 このコースを修了したら、「Achieving Advanced Insights with BigQuery」コースに登録してください。
このコースでは、データ アナリストが共通して直面する課題と、その課題を Google Cloud のビッグデータ ツールを使用して解決する方法を取り上げます。その過程で SQL を学習しながら、BigQuery と Dataprep を使用してデータセットを分析し、変換する方法について理解を深めます。 これは「From Data to Insights with Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Creating New BigQuery Datasets and Visualizing Insights」コースを受講してください。
このコースでは、まず、データ品質を向上させる方法や探索的データ分析を行う方法など、データについての議論から始めます。Vertex AI AutoML について確認し、コードを一切記述せずに ML モデルを構築、トレーニング、デプロイする方法を説明します。また、BigQuery ML のメリットを確認します。その後、ML モデルを最適化する方法、一般化とサンプリングを活用してカスタム トレーニング向けに ML モデルの品質を評価する方法を説明します。
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
企業における AI と ML の利用が拡大し続けるなか、責任を持ってそれを構築することの重要性も増しています。多くの企業にとっての課題は、責任ある AI と口で言うのは簡単でも、それを実践するのは難しいということです。このコースは、責任ある AI を組織で運用化する方法を学びたい方に最適です。 このコースでは、Google Cloud が責任ある AI を現在どのように運用化しているかを、ベスト プラクティスや教訓と併せて学び、責任ある AI に対する独自のアプローチを構築するためのフレームワークとして活用できるようにします。
This course will help ML Engineers, Developers, and Data Scientists implement Large Language Models for Generative AI use cases with Vertex AI. The first two modules of this course contain links to videos and prerequisite course materials that will build your knowledge foundation in Generative AI. Please do not skip these modules. The advanced modules in this course assume you have completed these earlier modules.
「Generative AI Explorer - Vertex AI」コースには、 Google Cloud での生成 AI の使用方法に関する複数のラボが含まれます。ラボでは、Vertex AI PaLM API ファミリーの text-bison、chat-bison、 textembedding-gecko などのモデルの使用方法を確認し、プロンプト設計やベスト プラクティス、さらに Vertex AI を活用した アイディエーション、テキスト分類、テキスト抽出、テキスト要約について 学びます。また、 Vertex AI カスタム トレーニングによって基盤モデルをチューニングし、Vertex AI エンドポイントにデプロイする方法も学びます。
このコースでは、生成 AI モデルとのやりとり、ビジネス アイデアのプロトタイプ作成、本番環境へのリリースを行うツールである Vertex AI Studio をご紹介します。現実感のあるユースケースや、興味深い講義、ハンズオンラボを通して、プロンプトの作成から成果の実現に至るまでのライフサイクルを詳細に学び、Gemini マルチモーダル アプリケーションの開発、プロンプトの設計、モデルのチューニングに Vertex AI を活用する方法を学習します。Vertex AI Studio を利用することで、生成 AI をプロジェクトに最大限に活かせるようになることを目指します。
Google Cloud で機械学習を実装する際のベスト プラクティスには何があるでしょうか。Vertex AI とは何であり、このプラットフォームを使用してコードを 1 行も記述せずに AutoML 機械学習モデルを迅速に構築、トレーニング、デプロイするにはどうすればよいでしょうか。機械学習とはどのようなもので、どのような問題の解決に役立つのでしょうか。 Google では機械学習について独自の視点で考えています。マネージド データセット、特徴量ストア、そしてコードを 1 行も記述せずに迅速に機械学習モデルを構築、トレーニング、デプロイする手段を 1 つにまとめた統合プラットフォームを提供するとともに、データにラベル付けし、TensorFlow、SciKit Learn、Pytorch、R やその他のフレームワークを使用して Workbench ノートブックを作成できるようにすることが、Google の考える機械学習の在り方です。Google の Vertex AI プラットフォームでは、カスタムモデルをトレーニングしたり、コンポーネント パイプラインを構築したりすることもできます。さらに、オンライン予測とバッチ予測の両方を実施できます。このコースでは、候補となるユースケースを機械学習で学習できる形に変換する 5 つのフェーズについても説明し、これらのフェーズを省略しないことが重要である理由について論じます。最後に、機械学習によって増幅される可能性のあるバイアスの認識と、それを識別する方法について説明します。
このコースでは、ディープ ラーニングを使用して画像キャプション生成モデルを作成する方法について学習します。エンコーダやデコーダなどの画像キャプション生成モデルのさまざまなコンポーネントと、モデルをトレーニングして評価する方法を学びます。このコースを修了すると、独自の画像キャプション生成モデルを作成し、それを使用して画像のキャプションを生成できるようになります。
このコースでは、Transformer アーキテクチャと Bidirectional Encoder Representations from Transformers(BERT)モデルの概要について説明します。セルフアテンション機構をはじめとする Transformer アーキテクチャの主要コンポーネントと、それが BERT モデルの構築にどのように使用されているのかについて学習します。さらに、テキスト分類、質問応答、自然言語推論など、BERT を適用可能なその他のタスクについても学習します。このコースの推定所要時間は約 45 分です。
このコースでは、機械翻訳、テキスト要約、質問応答などのシーケンス ツー シーケンス タスクに対応する、強力かつ広く使用されている ML アーキテクチャである Encoder-Decoder アーキテクチャの概要を説明します。Encoder-Decoder アーキテクチャの主要なコンポーネントと、これらのモデルをトレーニングして提供する方法について学習します。対応するラボのチュートリアルでは、詩を生成するための Encoder-Decoder アーキテクチャの簡単な実装を、TensorFlow で最初からコーディングします。
このコースでは、アテンション機構について学習します。アテンション機構とは、ニューラル ネットワークに入力配列の重要な部分を認識させるための高度な技術です。アテンションの仕組みと、アテンションを活用して機械翻訳、テキスト要約、質問応答といったさまざまな ML タスクのパフォーマンスを改善する方法を説明します。
このコースでは拡散モデルについて説明します。拡散モデルは ML モデル ファミリーの一つで、最近、画像生成分野での有望性が示されました。拡散モデルは物理学、特に熱力学からインスピレーションを得ています。ここ数年、拡散モデルは研究と産業界の両方で広まりました。拡散モデルは、Google Cloud の最先端の画像生成モデルやツールの多くを支える技術です。このコースでは、拡散モデルの背景にある理論と、モデルを Vertex AI でトレーニングしてデプロイする方法について説明します。
「Introduction to Generative AI」、「Introduction to Large Language Models」、「Introduction to Responsible AI」の各コースを修了すると、スキルバッジを獲得できます。最終テストに合格することで、ジェネレーティブ AI の基礎概念を理解していることが証明されます。 スキルバッジは、Google Cloud のプロダクトとサービスに関する知識を認定するために Google Cloud が発行するデジタルバッジです。スキルバッジは、ソーシャル メディアの公開プロフィールを作成してそこに追加することで一般向けに共有できます。
この入門レベルのマイクロラーニング コースでは、責任ある AI の概要と重要性、および Google が責任ある AI を自社プロダクトにどのように実装しているのかについて説明します。また、Google の AI に関する 7 つの原則についても説明します。
このコースは、大規模言語モデル(LLM)とは何か、どのようなユースケースで活用できるのか、プロンプトのチューニングで LLM のパフォーマンスを高めるにはどうすればよいかについて学習する、入門レベルのマイクロ ラーニング コースです。独自の生成 AI アプリを開発する際に利用できる Google ツールも紹介します。
この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについて説明します。独自の生成 AI アプリを作成する際に利用できる Google ツールも紹介します。
Dataflow コースシリーズの 2 回目である今回は、Beam SDK を使用したパイプラインの開発について詳しく説明します。まず、Apache Beam のコンセプトについて復習します。次に、ウィンドウ、ウォーターマーク、トリガーを使用したストリーミング データの処理について説明します。さらに、パイプラインのソースとシンクのオプション、構造化データを表現するためのスキーマ、State API と Timer API を使用してステートフル変換を行う方法について説明します。続いて、パイプラインのパフォーマンスを最大化するためのベスト プラクティスを再確認します。コースの終盤では、Beam でビジネス ロジックを表現するための SQL と DataFrame、および Beam ノートブックを使用してパイプラインを反復的に開発する方法を説明します。
Dataflow シリーズの最後のコースでは、Dataflow 運用モデルのコンポーネントを紹介します。パイプラインのパフォーマンスのトラブルシューティングと最適化に役立つツールと手法を検証した後で、Dataflow パイプラインのテスト、デプロイ、信頼性に関するベスト プラクティスについて確認します。最後に、数百人のユーザーがいる組織に対して Dataflow パイプラインを簡単に拡張するためのテンプレートについても確認します。これらの内容を習得することで、データ プラットフォームの安定性を保ち、予期せぬ状況に対する回復力を確保できるようになります。
このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。
BigQuery ML を使用した予測モデリング向けのデータ エンジニアリング」のスキルバッジを獲得できる中級コースを修了すると、 Dataprep by Trifacta を使用した BigQuery へのデータ変換パイプラインの構築、 Cloud Storage、Dataflow、BigQuery を使用した抽出、変換、読み込み(ETL)ワークフローの構築、 BigQuery ML を使用した ML モデルの構築に関するスキルを実証できます。
「BigQuery でデータ ウェアハウスを構築する」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。 スキルバッジは、Google Cloud の プロダクトとサービスに関する習熟度を示す Google Cloud 発行の限定デジタルバッジです。 これは、インタラクティブなハンズオン環境での知識の応用力を 証明するものです。このスキルバッジ コースと最終評価チャレンジラボを修了し、 デジタルバッジを獲得してネットワークで共有しましょう。
「Google Cloud の ML API 用にデータを準備」コースの入門スキルバッジを獲得できるアクティビティを修了すると、 Dataprep by Trifacta を使用したデータのクリーニング、Dataflow でのデータ パイプラインの実行、Dataproc でのクラスタの作成と Apache Spark ジョブの実行、 Cloud Natural Language API、Google Cloud Speech-to-Text API、Video Intelligence API などの ML API の呼び出しに関するスキルを証明できます。
This 1-week, accelerated on-demand course builds upon Google Cloud Platform Big Data and Machine Learning Fundamentals. Through a combination of video lectures, demonstrations, and hands-on labs, you'll learn to build streaming data pipelines using Google cloud Pub/Sub and Dataflow to enable real-time decision making. You will also learn how to build dashboards to render tailored output for various stakeholder audiences.
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
ストリーミングによって企業が事業運営に関するリアルタイムの指標を取得できるようになり、ストリーミング データの処理を行う機会が増えてきました。このコースでは、Google Cloud でストリーミング データ パイプラインを構築する方法について学習します。受信ストリーミング データの処理のために Pub/Sub について説明します。また、このコースでは、Dataflow を使用してストリーミング データの集計や変換を行う方法、処理済みのレコードを分析用に BigQuery や Bigtable に保存する方法についても説明します。さらに、Qwiklabs を使用して Google Cloud でストリーミング データ パイプラインのコンポーネントを構築する実践演習を行います。
通常、データ パイプラインは、「抽出、読み込み(EL)」、「抽出、読み込み、変換(ELT)」、「抽出、変換、読み込み(ETL)」のいずれかの考え方に分類できます。このコースでは、バッチデータではどの枠組みを、どのような場合に使用するのかについて説明します。本コースではさらに、BigQuery、Dataproc 上での Spark の実行、Cloud Data Fusion のパイプラインのグラフ、Dataflow でのサーバーレスのデータ処理など、データ変換用の複数の Google Cloud テクノロジーについて説明します。また、Qwiklabs を使用して Google Cloud でデータ パイプラインのコンポーネントを構築する実践演習を行います。
すべてのデータ パイプラインには、データレイクとデータ ウェアハウスという 2 つの主要コンポーネントがあります。このコースでは、各ストレージ タイプのユースケースを紹介し、Google Cloud で利用可能なデータレイクとデータ ウェアハウスのソリューションを技術的に詳しく説明します。また、データ エンジニアの役割や、効果的なデータ パイプラインが事業運営にもたらすメリットについて確認し、クラウド環境でデータ エンジニアリングを行うべき理由を説明します。 これは「Data Engineering on Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Google Cloud でのバッチデータ パイプラインの構築」コースに登録してください。
このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。
このコースでは、PCA(Professional Cloud Architect)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。
Good news! There’s a new updated version of this learning path available for you!Open the new Professional Cloud Architect Certification Learning Path to begin, once you’ve selected the new path all your current progress will be reflected in the new version.
Google Cloud ネットワークの設定コースを修了してスキルバッジを獲得しましょう。 このコースでは、Google Cloud Platform で基本的なネットワーキング タスクを実行する方法を学習します。具体的には、カスタム ネットワークの作成、サブネット ファイアウォール ルールの追加、VM の作成、そして VM 同士が通信する際のレイテンシのテストについて学びます。
「Google Kubernetes Engine の費用の最適化」の中級スキルバッジを獲得すると、 マルチテナント クラスタの作成と管理、各 Namespace のリソース使用状況のモニタリング、 効率向上のためのクラスタと Pod の自動スケーリングの構成、最適なリソース配分のためのロード バランシングの設定、 アプリケーションの健全性と費用対効果を確保するための liveness プローブと readiness プローブの実装といったスキルを実証できます。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。このスキル バッジ コースと最終評価チャレンジラボを修了してスキルバッジを獲得し、 ネットワークで共有しましょう。
このコースでは、実績ある設計パターンを利用して、信頼性と効率に優れたソリューションを Google Cloud で構築する方法を学習します。本コースは、Google Compute Engine を使用した構築 または Google Kubernetes Engine を使用した構築 のコースの続きで、これらのコースで取り上げているテクノロジーの実践経験があることを前提としています。参加者は、講義、設計アクティビティ、ハンズオンラボを通して、ビジネス要件と技術要件を定義し、バランスを取りながら、信頼性、可用性、安全性、費用対効果に優れた Google Cloud のデプロイを設計する方法を学びます。
「Google Cloud における Terraform を使用したインフラストラクチャの構築」の中級スキルバッジを獲得すると、 Terraform を使用した Infrastructure as Code(IaC)の原則、Terraform 構成を使用した Google Cloud リソースのプロビジョニングと管理、 状態の効果的な管理(ローカルおよびリモート)、組織内での再利用性を念頭に置いた Terraform コードのモジュール化といったスキルを実証できます。
「Google Cloud ネットワークの構築」コースを修了してスキルバッジを獲得しましょう。このコースでは、 アプリケーションをデプロイしてモニタリングするための複数の方法について学びます。具体的には、IAM ロールの確認とプロジェクト アクセスの追加 / 削除、 VPC ネットワークの作成、Compute Engine VM のデプロイとモニタリング、 SQL クエリの記述、Compute Engine での VM のデプロイとモニタリング、Kubernetes を使用した複数のデプロイ アプローチによるアプリケーションのデプロイなどです。
「Google Cloud におけるアプリ開発環境の設定」コースを完了すると、スキルバッジを獲得できます。このコースでは、 Cloud Storage、Identity and Access Management、Cloud Functions、Pub/Sub のテクノロジーの基本機能を使用して、ストレージ中心のクラウド インフラストラクチャを構築し接続する方法を学びます。
Compute Engine でのロード バランシングの実装 スキルバッジを獲得できる入門コースを修了すると、次のスキルを実証できます: gcloud コマンドの記述と Cloud Shell の使用、Compute Engine における仮想マシンの作成とデプロイ、 ネットワーク ロードバランサと HTTP ロードバランサの構成。 スキルバッジは、Google Cloud の プロダクトとサービスに関する習熟度を示す Google Cloud 発行の限定デジタルバッジです。 これは、インタラクティブなハンズオン環境での知識の応用力を 証明するものです。この入門コースと最終評価チャレンジラボを完了し、 スキルバッジを獲得しましょう。このスキルバッジはネットワークで共有できます。
このコースでは、Google Cloud 向けに Terraform を使用する方法の概要を説明します。このコースを受講すると、Terraform を使用して Infrastructure as Code を実装し、その主要な特性と機能を使って Google Cloud インフラストラクチャを作成および管理する方法について説明できるようになります。 また、Terraform を使用して Google Cloud のリソースを構築、管理する実践的な演習を受けられます。
このコースでは、Google Cloud のインフラストラクチャとアプリケーションのパフォーマンスをモニタリングして改善するための手法を学びます。 プレゼンテーション、デモ、ハンズオンラボ、実際の事例紹介を組み合わせて活用することにより、フルスタック モニタリング、リアルタイムでのログ管理と分析、本番環境でのコードのデバッグ、アプリケーション パフォーマンスのボトルネックのトレース、CPU とメモリ使用量のプロファイリングに関する経験を積むことができます。
「Google Kubernetes Engine を使ってみる」コースへようこそ。Kubernetes にご興味をお持ちいただきありがとうございます。Kubernetes は、アプリケーションとハードウェア インフラストラクチャとの間にあるソフトウェア レイヤです。Google Kubernetes Engine は、Google Cloud 上のマネージド サービスとしての Kubernetes を提供します。 このコースでは、Google Kubernetes Engine(一般に GKE と呼ばれています)の基礎と、Google Cloud でアプリケーションをコンテナ化して実行する方法を学びます。このコースでは、まず Google Cloud の基本事項を確認します。続けて、コンテナ、Kubernetes、Kubernetes アーキテクチャ、Kubernetes オペレーションの概要について学びます。
このオンデマンド速習コースでは、Google Cloud で提供される包括的かつ柔軟なインフラストラクチャとプラットフォームのサービスについて、Compute Engine を中心に紹介します。受講者は、動画講義、デモ、ハンズオンラボを通してソリューションの各要素について学習し、演習を行います。これらの要素には、ネットワーク、システム、アプリケーション サービスなどのインフラストラクチャ コンポーネントが含まれます。また、実践的なソリューションの実装も取り上げ、顧客指定の暗号鍵、セキュリティとアクセス管理、割り当てと課金、リソース モニタリングなどについても学習します。
このオンデマンド速習コースでは、Google Cloud が提供する包括的で柔軟なインフラストラクチャとプラットフォーム サービスについて紹介します。動画講義、デモ、ハンズオンラボを通してさまざまなソリューションの要素について学び、実際にデプロイしてみます。これにはセキュリティを維持しながらネットワークを相互接続する方法や、ロード バランシング、自動スケーリング、インフラストラクチャの自動化、マネージド サービスも含まれます。
このオンデマンド速習コースでは、Google Cloud で提供される包括的かつ柔軟なインフラストラクチャとプラットフォームのサービスについて、Compute Engine を中心に紹介します。受講者は、動画講義、デモ、ハンズオンラボを通してさまざまなソリューションの各要素について学習し、実際のデプロイを演習します。これらの要素には、ネットワークや仮想マシン、アプリケーション サービスなどのインフラストラクチャ コンポーネントが含まれます。コンソールと Cloud Shell を使用して Google Cloud を運用する方法についても学習します。また、クラウド アーキテクトの役割、インフラストラクチャ設計の方法、Virtual Private Cloud(VPC)を使用した仮想ネットワークの構成、プロジェクト、ネットワーク、サブネットワーク、IP アドレス、ルート、ファイアウォール ルールについても学習します。
Google Cloud の基礎: コア インストラクチャ では、Google Cloud に関する重要なコンセプトと用語について説明します。このコースでは動画とハンズオンラボを通じて学習を進めていきます。Google Cloud の多数のコンピューティング サービスとストレージ サービス、そしてリソースとポリシーを管理するための重要なツールについて比較しながら説明します。
このコースでは、Associate Cloud Engineer 認定試験の合格を目指す方が受験の準備を進めることができます。試験範囲に含まれる Google Cloud ドメインの概要と、ドメインに関する知識を高めるための学習計画の作成方法について学習します。
あらゆる規模の組織が、事業運営の変革にクラウドの能力と柔軟性を活用しているなかで、クラウド リソースを効果的に管理、スケーリングすることが複雑なタスクになる可能性もあります。 ここでは、Google Cloud Operations を使用したスケーリングを通して、クラウドにおける最新の運用、信頼性、レジリエンスに関する基本的概念と、Google Cloud がこういった取り組みをどのように支援できるのかについて理解を深めます。 このコースは クラウド デジタル リーダー 学習プログラムの一部で、個人が自分の役割において成長し、ビジネスの未来を構築することを目的としています。
多くの従来型企業では、既存のシステムやアプリケーションで昨今の顧客の期待に応え続けることが難しくなっています。この場合、経営者は、老朽化した IT システムの保守を続けるのか、新たな製品やサービスに投資をするのか、選択を迫られることになります。「Google Cloud によるインフラストラクチャとアプリケーションのモダナイゼーション」ではそうした課題を明らかにするとともに、そうした課題をクラウド テクノロジーによって乗り越えるためのソリューションについて学びます。 このコースは クラウド デジタル リーダー 学習プログラムの一部で、個人が自分の役割において成長し、ビジネスの未来を構築することを目的としています。
クラウド テクノロジーは組織に大きな価値をもたらします。クラウド テクノロジーの力をデータと組み合わせることで、その価値はさらに大きなものとなり、新しいカスタマー エクスペリエンスを提供できる可能性があります。「Google Cloud によるデータ トランスフォーメーションの探求」では、データが組織にもたらす価値と、Google Cloud でデータを有用かつアクセス可能なものにする方法を学習します。このコースは「クラウド デジタル リーダー」学習プログラムの一部で、個人が自分の役割において成長し、ビジネスの未来を構築することを目的としています。
クラウド テクノロジーとデジタル トランスフォーメーションに大きな期待が寄せられていますが、疑問点も多く残っています。 例: クラウド テクノロジーとは何か?デジタル トランスフォーメーションとは何を意味しているか?クラウド テクノロジーが組織にどう役立つのか?どこから着手するのか? このような疑問をお持ちなら、このコースはぴったりです。このコースでは、デジタル トランスフォーメーションにおいて多くの企業が直面する機会と課題のタイプについてご説明します。このデジタル トランスフォーメーションの入門コースなら、クラウド テクノロジーに関する知識を深めて自分の業務に活用するとともに、今後のビジネスの成長にも役立てていただけます。このコースは クラウド デジタル リーダー 学習プログラムの一部です。