Inscreva-se Fazer login

Mangesh Yadav

Participante desde 2021

Liga Prata

8170 pontos
Como criar pipelines de dados em lote no Google Cloud Earned Apr 23, 2025 EDT
Como criar infraestrutura com o Terraform no Google Cloud Earned Dec 5, 2024 EST
Introdução ao Terraform para Google Cloud Earned Dec 5, 2024 EST
Processamento de dados sem servidor com o Dataflow: operações Earned Oct 7, 2022 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - Português Brasileiro Earned Oct 6, 2022 EDT
Processamento de dados sem servidor com o Dataflow: fundamentos Earned Aug 16, 2022 EDT
Como modernizar data lakes e data warehouses com o Google Cloud Earned Apr 5, 2022 EDT
Google Cloud Big Data and Machine Learning Fundamentals - Português Brasileiro Earned Apr 1, 2022 EDT

Os pipelines de dados geralmente se encaixam em um desses três paradigmas: extração e carregamento (EL), extração, carregamento e transformação (ELT) ou extração, transformação e carregamento (ETL). Este curso descreve qual paradigma deve ser usado em determinadas situações e quando isso ocorre com dados em lote. Além disso, vamos falar sobre várias tecnologias no Google Cloud para transformação de dados, incluindo o BigQuery, a execução do Spark no Dataproc, gráficos de pipeline no Cloud Data Fusion e processamento de dados sem servidor com o Dataflow. Os participantes vão ganhar experiência prática na criação de componentes de pipelines de dados no Google Cloud usando o Qwiklabs.

Saiba mais

Conclua o selo de habilidade intermediário Como criar infraestrutura com o Terraform no Google Cloud para mostrar que você sabe: usar os princípios de infraestrutura como código (IaC, na sigla em inglês) no Terraform, provisionar e gerenciar recursos do Google Cloud usando configurações do Terraform, gerenciamento de estado eficaz (local e remoto) e modularização do código do Terraform para reutilização e organização. Os selos de habilidade validam seu conhecimento prático sobre produtos específicos com avaliações em laboratórios e desafios. Ganhe um selo ao concluir um curso ou vá direto para o laboratório com desafio e receba seu selo hoje mesmo. Esses selos comprovam seu domínio em determinados assuntos, aprimoram seu currículo e, por fim, abrem mais portas no mercado de trabalho. Acesse seu perfil para ver os selos que você ganhou.

Saiba mais

Confira neste curso uma introdução ao uso do Terraform para Google Cloud. Nele, você aprende como o Terraform pode ser usado para implementar infraestrutura como código e aplicar alguns dos principais recursos e funcionalidades para criar e gerenciar a infraestrutura do Google Cloud. Também incluímos experiências práticas de criação e gerenciamento de recursos do Google Cloud usando o Terraform.

Saiba mais

Na última parte da série de cursos do Dataflow, vamos abordar os componentes do modelo operacional do Dataflow. Veremos ferramentas e técnicas para solucionar problemas e otimizar o desempenho do pipeline. Depois analisaremos as práticas recomendadas de teste, implantação e confiabilidade para pipelines do Dataflow. Por fim, faremos uma revisão dos modelos, que facilitam o escalonamento dos pipelines do Dataflow para organizações com centenas de usuários. Essas lições garantem que a plataforma de dados seja estável e resiliente a circunstâncias imprevistas.

Saiba mais

A incorporação de machine learning em pipelines de dados aumenta a capacidade de extrair insights dessas informações. Neste curso, mostramos as várias formas de incluir essa tecnologia em pipelines de dados do Google Cloud. Para casos de pouca ou nenhuma personalização, vamos falar sobre o AutoML. Para usar recursos de machine learning mais personalizados, vamos apresentar os Notebooks e o machine learning do BigQuery (BigQuery ML). No curso, você também vai aprender sobre a produção de soluções de machine learning usando a Vertex AI.

Saiba mais

Este é o primeiro de uma série de três cursos sobre processamento de dados sem servidor com o Dataflow. Nele, vamos relembrar o que é o Apache Beam e qual é a relação entre ele e o Dataflow. Depois, falaremos sobre a visão do Apache Beam e os benefícios do framework de portabilidade desse modelo de programação. Com esse processo, o desenvolvedor pode usar a linguagem de programação favorita com o back-end de execução que quiser. Em seguida, mostraremos como o Dataflow permite a separação entre a computação e o armazenamento para economizar dinheiro. Além disso, você vai aprender como as ferramentas de identidade, acesso e gerenciamento interagem com os pipelines do Dataflow. Por fim, vamos ver como implementar o modelo de segurança ideal para seu caso de uso no Dataflow.

Saiba mais

Os dois principais componentes de um pipeline de dados são data lakes e warehouses. Neste curso, destacamos os casos de uso para cada tipo de armazenamento e as soluções de data lake e warehouse disponíveis no Google Cloud de forma detalhada e técnica. Além disso, também descrevemos o papel de um engenheiro de dados, os benefícios de um pipeline de dados funcional para operações comerciais e analisamos por que a engenharia de dados deve ser feita em um ambiente de nuvem. Este é o primeiro curso da série "Engenharia de dados no Google Cloud". Após a conclusão, recomendamos que você comece o curso "Como criar pipelines de dados em lote no Google Cloud".

Saiba mais

Este curso apresenta os produtos e serviços de Big Data e machine learning do Google Cloud que auxiliam no ciclo de vida de dados para IA. Ele explica os processos, os desafios e os benefícios de criar um pipeline de Big Data e modelos de machine learning com a Vertex AI no Google Cloud.

Saiba mais