Teilnehmen Anmelden

Priyanka Makhija

Mitglied seit 2024

Diamond League

3193 Punkte
Build deterministic Virtual Agent enhanced with data stores Earned Okt 15, 2025 EDT
Build generative virtual agents with API integrations Earned Okt 15, 2025 EDT
Managing Cloud Infrastructure with Terraform Earned Okt 15, 2025 EDT
Understand Your Google Cloud Costs Earned Okt 14, 2025 EDT
Integrate Vertex AI Search and Conversation into Voice and Chat Apps Earned Okt 14, 2025 EDT
Develop Advanced Enterprise Search and Conversation Applications Earned Okt 13, 2025 EDT
Custom Search with Embeddings in Vertex AI Earned Okt 7, 2025 EDT
Vektorsuche und Einbettungen Earned Okt 1, 2025 EDT
Modelle zur Bilduntertitelung erstellen Earned Sep 26, 2025 EDT
Transformer-Modelle und BERT-Modell Earned Sep 22, 2025 EDT
Encoder-Decoder-Architektur Earned Sep 22, 2025 EDT
Machine Learning Operations (MLOps) mit Vertex AI: Modellbewertung Earned Sep 22, 2025 EDT
Einstieg in die Bildgenerierung Earned Sep 8, 2025 EDT
Aufmerksamkeitsmechanismus Earned Aug 4, 2025 EDT
Einführung in die verantwortungsbewusste Anwendung von KI Earned Aug 4, 2025 EDT
Serverless Data Processing with Dataflow: Operations Earned Dez 12, 2024 EST
Serverless Data Processing with Dataflow: Foundations Earned Nov 19, 2024 EST
Build Streaming Data Pipelines on Google Cloud Earned Nov 19, 2024 EST
Build Batch Data Pipelines on Google Cloud Earned Nov 14, 2024 EST
Build Data Lakes and Data Warehouses on Google Cloud Earned Sep 5, 2024 EDT
Data Warehouse mit BigQuery erstellen Earned Sep 3, 2024 EDT
Data Warehousing for Partners: Process Data with Dataproc Earned Aug 8, 2024 EDT
DEPRECATED BigQuery for Data Warehousing Earned Aug 5, 2024 EDT
Preparing for your Professional Data Engineer Journey Earned Aug 1, 2024 EDT

Demonstrate the ability to create and deploy deterministic virtual agents using Dialgflow CX and augment responses by grounding results on your own data integrating with Vertex AI Agent Builder data stores and leveraging Gemini for summarizations. You will use the following technologies and Google Cloud services: Vertex AI Agent Builder Dialogflow CX Gemini

Weitere Informationen

Demonstrate the ability to create and deploy generative virtual agents with natural language using Vertex AI Agent Builder and augment responses by integrating Gemini responses with third party APIs and your own data stores You will use the following technologies and Google Cloud services: Vertex AI Agent Builder Gemini Cloud Functions

Weitere Informationen

In this Quest, the experienced user of Google Cloud will learn how to describe and launch cloud resources with Terraform, an open source tool that codifies APIs into declarative configuration files that can be shared amongst team members, treated as code, edited, reviewed, and versioned. In these nine hands-on labs, you will work with example templates and understand how to launch a range of configurations, from simple servers, through full load-balanced applications.

Weitere Informationen

This Quest is most suitable for those working in a technology or finance role who are responsible for managing Google Cloud costs. You’ll learn how to set up a billing account, organize resources, and manage billing access permissions. In the hands-on labs, you'll learn how to view your invoice, track your Google Cloud costs with Billing reports, analyze your billing data with BigQuery or Google Sheets, and create custom billing dashboards with Looker Studio. References made to links in the videos can be accessed in this Additional Resources document.

Weitere Informationen

This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.

Weitere Informationen

In this course, you'll use text embeddings for tasks like classification, outlier detection, text clustering and semantic search. You'll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) solutions, such as for question-answering systems, using Google Cloud's Vertex AI and Google Cloud databases.

Weitere Informationen

This course explores Google Cloud technologies to create and generate embeddings. Embeddings are numerical representations of text, images, video and audio, and play a pivotal role in many tasks that involve the identification of similar items, like Google searches, online shopping recommendations, and personalized music suggestions. Specifically, you’ll use embeddings for tasks like classification, outlier detection, clustering and semantic search. You’ll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) systems and question-answering solutions, on your own proprietary data using Google Cloud’s Vertex AI.

Weitere Informationen

In diesem Kurs lernen Sie KI-basierte Suchtechnologien, Tools und Anwendungen kennen. Er umfasst folgende Themen: die semantische Suche mithilfe von Vektoreinbettungen, die Hybridsuche, bei der semantische und stichwortbezogene Ansätze kombiniert werden, und Retrieval-Augmented Generation (RAG), die KI-Halluzinationen durch einen fundierten KI-Agenten minimiert. Sie sammeln praktische Erfahrungen mit der Vektorsuche in Vertex AI zum Entwickeln einer intelligenten Suchmaschine.

Weitere Informationen

In diesem Kurs erfahren Sie, wie Sie mithilfe von Deep Learning ein Modell zur Bilduntertitelung erstellen. Sie lernen die verschiedenen Komponenten eines solchen Modells wie den Encoder und Decoder und die Schritte zum Trainieren und Bewerten des Modells kennen. Nach Abschluss dieses Kurses haben Sie folgende Kompetenzen erworben: Erstellen eigener Modelle zur Bilduntertitelung und Verwenden der Modelle zum Generieren von Untertiteln

Weitere Informationen

Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.

Weitere Informationen

Dieser Kurs vermittelt Ihnen eine Zusammenfassung der Encoder-Decoder-Architektur, einer leistungsstarken und gängigen Architektur, die bei Sequenz-zu-Sequenz-Tasks wie maschinellen Übersetzungen, Textzusammenfassungen und dem Question Answering eingesetzt wird. Sie lernen die Hauptkomponenten der Encoder-Decoder-Architektur kennen und erfahren, wie Sie diese Modelle trainieren und bereitstellen können. Im dazugehörigen Lab mit Schritt-für-Schritt-Anleitung können Sie in TensorFlow von Grund auf einen Code für eine einfache Implementierung einer Encoder-Decoder-Architektur erstellen, die zum Schreiben von Gedichten dient.

Weitere Informationen

Dieser Kurs gibt Machine-Learning-Anwendern alle grundlegenden Tools, Techniken und Best Practices zur Bewertung von generativen und prädiktiven KI-Modellen an die Hand. Die Modellbewertung ist ein wichtiger Schritt, bei dem geprüft wird, ob ML-Systeme in der Produktion zuverlässige, genaue und leistungsstarke Ergebnisse erzielen. Die Teilnehmer erwerben fundierte Kenntnisse über verschiedene Bewertungsmesswerte und -methoden und lernen, sie auf unterschiedliche Modelltypen und Aufgaben anzuwenden. Im Kurs wird schwerpunktmäßig auf die besonderen Herausforderungen generativer KI-Modelle eingegangen und es werden Strategien vorgestellt, wie sich diese effektiv bewältigen lassen. Die Teilnehmer lernen auf der Plattform Vertex AI von Google Cloud, robuste Bewertungsprozesse zur Auswahl, Optimierung und kontinuierlichen Überwachung des Modells zu implementieren.

Weitere Informationen

In diesem Kurs werden Diffusion-Modelle vorgestellt, eine Gruppe verschiedener Machine Learning-Modelle, die kürzlich einige vielversprechende Fortschritte im Bereich Bildgenerierung gemacht haben. Diffusion-Modelle basieren auf physikalischen Konzepten der Thermodynamik und sind in den letzten Jahren in der Forschung und Industrie sehr beliebt geworden. Dabei stützen sich Diffusion-Modelle auf viele innovative Modelle und Tools zur Bildgenerierung in Google Cloud. In diesem Kurs werden Ihnen die theoretischen Grundlagen der Diffusion-Modelle erläutert und wie Sie diese Modelle über Vertex AI trainieren und bereitstellen können.

Weitere Informationen

In diesem Kurs wird der Aufmerksamkeitsmechanismus vorgestellt. Dies ist ein leistungsstarkes Verfahren, das die Fokussierung neuronaler Netzwerke auf bestimmte Abschnitte einer Eingabesequenz ermöglicht. Sie erfahren, wie der Aufmerksamkeitsmechanismus funktioniert und wie Sie damit die Leistung verschiedener Machine Learning-Tasks wie maschinelle Übersetzungen, Zusammenfassungen von Texten und Question Answering verbessern können.

Weitere Informationen

In diesem Einführungskurs im Microlearning-Format wird erklärt, was verantwortungsbewusste Anwendung von KI bedeutet, warum sie wichtig ist und wie Google dies in seinen Produkten berücksichtigt. Darüber hinaus werden die 7 KI-Grundsätze von Google behandelt.

Weitere Informationen

In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.

Weitere Informationen

This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.

Weitere Informationen

In this course you will get hands-on in order to work through real-world challenges faced when building streaming data pipelines. The primary focus is on managing continuous, unbounded data with Google Cloud products.

Weitere Informationen

In this intermediate course, you will learn to design, build, and optimize robust batch data pipelines on Google Cloud. Moving beyond fundamental data handling, you will explore large-scale data transformations and efficient workflow orchestration, essential for timely business intelligence and critical reporting. Get hands-on practice using Dataflow for Apache Beam and Serverless for Apache Spark (Dataproc Serverless) for implementation, and tackle crucial considerations for data quality, monitoring, and alerting to ensure pipeline reliability and operational excellence. A basic knowledge of data warehousing, ETL/ELT, SQL, Python, and Google Cloud concepts is recommended.

Weitere Informationen

While the traditional approaches of using data lakes and data warehouses can be effective, they have shortcomings, particularly in large enterprise environments. This course introduces the concept of a data lakehouse and the Google Cloud products used to create one. A lakehouse architecture uses open-standard data sources and combines the best features of data lakes and data warehouses, which addresses many of their shortcomings.

Weitere Informationen

Mit dem Skill-Logo zum Kurs Data Warehouse mit BigQuery erstellen weisen Sie fortgeschrittene Kenntnisse in folgenden Bereichen nach: Daten zusammenführen, um neue Tabellen zu erstellen, Probleme mit Joins lösen, Daten mit Unions anhängen, nach Daten partitionierte Tabellen erstellen und JSON, Arrays sowie Strukturen in BigQuery nutzen. Ein Skill-Logo ist ein exklusives digitales Abzeichen, das von Google Cloud vergeben wird und Ihre Kenntnisse über unsere Produkte und Dienste belegt. In diesem Zusammenhang wird auch die Fähigkeit bewertet, wie Sie Ihr Wissen in einer praxisnahen Geschäftssituation anwenden. Absolvieren Sie eine kursspezifische Aufgabenreihe und die Challenge-Lab-Prüfung, um ein Skill-Logo zu erhalten, das Sie in Ihrem Netzwerk posten können.

Weitere Informationen

This course explores the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Dataproc.

Weitere Informationen

Looking to build or optimize your data warehouse? Learn best practices to Extract, Transform, and Load your data into Google Cloud with BigQuery. In this series of interactive labs you will create and optimize your own data warehouse using a variety of large-scale BigQuery public datasets. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of this quest to receive an exclusive Google Cloud digital badge.

Weitere Informationen

This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.

Weitere Informationen