Partecipa Accedi

Matheus Silva

Membro dal giorno 2021

Campionato Diamante

13125 punti
Work with Gemini Models in BigQuery Earned gen 25, 2025 EST
Boost Productivity with Gemini in BigQuery Earned gen 21, 2025 EST
Crea un mesh di dati con Dataplex Earned gen 17, 2025 EST
Introduction to Data Engineering on Google Cloud Earned gen 8, 2025 EST
Build a Data Warehouse with BigQuery Earned gen 1, 2025 EST
Google Cloud Platform Fundamentals: Core Infrastructure Earned apr 25, 2023 EDT
Preparing for your Professional Data Engineer Journey Earned giu 24, 2022 EDT
Serverless Data Processing with Dataflow: Operations Earned giu 23, 2022 EDT
Prepara i dati per le API ML su Google Cloud Earned giu 22, 2022 EDT
Google Cloud Big Data and Machine Learning Fundamentals - Italiano Earned giu 22, 2022 EDT
Creazione di pipeline di dati in batch su Google Cloud Earned giu 21, 2022 EDT
Implementa il bilanciamento del carico su Compute Engine Earned giu 21, 2022 EDT
Engineer Data for Predictive Modeling with BigQuery ML Earned giu 21, 2022 EDT
Serverless Data Processing with Dataflow: Develop Pipelines Earned giu 10, 2022 EDT
Serverless Data Processing with Dataflow: Foundations Earned giu 7, 2022 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - Italiano Earned giu 7, 2022 EDT
Creazione di sistemi di analisi dei flussi di dati resilienti su Google Cloud Earned giu 2, 2022 EDT
Modernizzazione di data lake e data warehouse con Google Cloud Earned mag 26, 2022 EDT

This course demonstrates how to use AI/ML models for generative AI tasks in BigQuery. Through a practical use case involving customer relationship management, you learn the workflow of solving a business problem with Gemini models. To facilitate comprehension, the course also provides step-by-step guidance through coding solutions using both SQL queries and Python notebooks.

Scopri di più

This course explores Gemini in BigQuery, a suite of AI-driven features to assist data-to-AI workflow. These features include data exploration and preparation, code generation and troubleshooting, and workflow discovery and visualization. Through conceptual explanations, a practical use case, and hands-on labs, the course empowers data practitioners to boost their productivity and expedite the development pipeline.

Scopri di più

Completa il corso introduttivo con badge delle competenze Crea un mesh di dati con Dataplex per dimostrare le tue competenze nei seguenti ambiti: creare un mesh di dati con Dataplex per facilitare governance, discovery e sicurezza dei dati su Google Cloud. Ti eserciterai e metterai alla prova le tue competenze nel tagging degli asset, nell'assegnazione di ruoli IAM e nella valutazione della qualità dei dati in Dataplex.

Scopri di più

In this course, you learn about data engineering on Google Cloud, the roles and responsibilities of data engineers, and how those map to offerings provided by Google Cloud. You also learn about ways to address data engineering challenges.

Scopri di più

Complete the intermediate Build a Data Warehouse with BigQuery skill badge course to demonstrate skills in the following: joining data to create new tables, troubleshooting joins, appending data with unions, creating date-partitioned tables, and working with JSON, arrays, and structs in BigQuery.

Scopri di più

This content is deprecated. Please see the latest version of the course, here.

Scopri di più

This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.

Scopri di più

In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.

Scopri di più

Ottieni il corso intermedio con badge delle competenze Prepara i dati per le API ML su Google Cloud per dimostrare le tue competenze nei seguenti ambiti: pulizia dei dati con Dataprep di Trifacta, esecuzione delle pipeline di dati in Dataflow, creazione dei cluster ed esecuzione dei job Apache Spark in Dataproc e richiamo delle API ML tra cui l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text e l'API Video Intelligence. Un badge delle competenze è un badge digitale esclusivo rilasciato da Google Cloud come riconoscimento della tua competenza nell'uso di prodotti e servizi Google Cloud dopo aver messo alla prova la tua capacità di applicare le tue conoscenze in un ambiente interattivo pratico. Completa questo corso con badge delle competenze e il Challenge Lab finale di valutazione per ricevere un badge delle competenze da condividere con la tua rete.

Scopri di più

Questo corso presenta i prodotti e i servizi per big data e di machine learning di Google Cloud che supportano il ciclo di vita dai dati all'IA. Esplora i processi, le sfide e i vantaggi della creazione di una pipeline di big data e di modelli di machine learning con Vertex AI su Google Cloud.

Scopri di più

Le pipeline di dati in genere rientrano in uno dei paradigmi EL (Extract, Load), ELT (Extract, Load, Transform) o ETL (Extract, Transform, Load). Questo corso descrive quale paradigma dovrebbe essere utilizzato e quando per i dati in batch. Inoltre, questo corso tratta diverse tecnologie su Google Cloud per la trasformazione dei dati, tra cui BigQuery, l'esecuzione di Spark su Dataproc, i grafici della pipeline in Cloud Data Fusion e trattamento dati serverless con Dataflow. Gli studenti fanno esperienza pratica nella creazione di componenti della pipeline di dati su Google Cloud utilizzando Qwiklabs.

Scopri di più

Ottieni il badge delle competenze introduttivo Implementa il bilanciamento del carico su Compute Engine per dimostrare le tue competenze nei seguenti ambiti: scrivere comandi gcloud e utilizzare Cloud Shell, creare ed eseguire il deployment di macchine virtuali in Compute Engine e configurare bilanciatori del carico di rete e HTTP. Un badge delle competenze è un badge digitale esclusivo, assegnato da Google Cloud come riconoscimento della tua competenza nell'uso dei prodotti e servizi Google Cloud dopo aver messo alla prova la tua cacpacità di applicare le tue conoscenze in un ambiente interattivo pratico. Completa questo corso e il Challenge Lab conclusivo per ricevere un badge delle competenze da condividere con la tua rete.

Scopri di più

Complete the intermediate Engineer Data for Predictive Modeling with BigQuery ML skill badge to demonstrate skills in the following: building data transformation pipelines to BigQuery using Dataprep by Trifacta; using Cloud Storage, Dataflow, and BigQuery to build extract, transform, and load (ETL) workflows; and building machine learning models using BigQuery ML.

Scopri di più

In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.

Scopri di più

This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.

Scopri di più

L'integrazione del machine learning nelle pipeline di dati aumenta la capacità di estrarre insight dai dati. Questo corso illustra i modi in cui il machine learning può essere incluso nelle pipeline di dati su Google Cloud. Per una personalizzazione minima o nulla, il corso tratta di AutoML. Per funzionalità di machine learning più personalizzate, il corso introduce Notebooks e BigQuery Machine Learning (BigQuery ML). Inoltre, il corso spiega come mettere in produzione soluzioni di machine learning utilizzando Vertex AI.

Scopri di più

L'elaborazione dei flussi di dati sta diventando sempre più diffusa poiché la modalità flusso consente alle aziende di ottenere parametri in tempo reale sulle operazioni aziendali. Questo corso tratta la creazione di pipeline di dati in modalità flusso su Google Cloud. Pub/Sub viene presentato come strumento per la gestione dei flussi di dati in entrata. Il corso spiega anche come applicare aggregazioni e trasformazioni ai flussi di dati utilizzando Dataflow e come archiviare i record elaborati in BigQuery o Bigtable per l'analisi. Gli studenti acquisiranno esperienza pratica nella creazione di componenti della pipeline di dati in modalità flusso su Google Cloud utilizzando QwikLabs.

Scopri di più

I due componenti chiave di qualsiasi pipeline di dati sono costituiti dai data lake e dai data warehouse. In questo corso evidenzieremo i casi d'uso per ogni tipo di spazio di archiviazione e approfondiremo i dettagli tecnici delle soluzioni di data lake e data warehouse disponibili su Google Cloud. Inoltre, descriveremo il ruolo di un data engineer, illustreremo i vantaggi di una pipeline di dati di successo per le operazioni aziendali ed esamineremo i motivi per cui il data engineering dovrebbe essere eseguito in un ambiente cloud. Questo è il primo corso della serie Data engineering su Google Cloud. Dopo il completamento di questo corso, iscriviti al corso Creazione di pipeline di dati in batch su Google Cloud.

Scopri di più