Inscreva-se Fazer login

Priyanka Makhija

Participante desde 2024

Liga Diamante

3193 pontos
Build deterministic Virtual Agent enhanced with data stores Earned Oct 15, 2025 EDT
Build generative virtual agents with API integrations Earned Oct 15, 2025 EDT
Como gerenciar a infraestrutura em nuvem com o Terraform Earned Oct 15, 2025 EDT
Understand Your Google Cloud Costs Earned Oct 14, 2025 EDT
Integrate Vertex AI Search and Conversation into Voice and Chat Apps Earned Oct 14, 2025 EDT
Develop Advanced Enterprise Search and Conversation Applications Earned Oct 13, 2025 EDT
Custom Search with Embeddings in Vertex AI Earned Oct 7, 2025 EDT
Pesquisa vetorial e embeddings Earned Oct 1, 2025 EDT
Como criar modelos de legenda para imagens Earned Sep 26, 2025 EDT
Modelos de transformador e modelo de BERT Earned Sep 22, 2025 EDT
Arquitetura de codificador-decodificador Earned Sep 22, 2025 EDT
Operações de machine learning (MLOps) com a Vertex AI: avaliação de modelo Earned Sep 22, 2025 EDT
Introdução à geração de imagens Earned Sep 8, 2025 EDT
Mecanismo de atenção Earned Aug 4, 2025 EDT
Introdução à IA responsável Earned Aug 4, 2025 EDT
Processamento de dados sem servidor com o Dataflow: operações Earned Dec 12, 2024 EST
Processamento de dados sem servidor com o Dataflow: fundamentos Earned Nov 19, 2024 EST
Como criar sistemas de análise de streaming resilientes no Google Cloud Earned Nov 19, 2024 EST
Como criar pipelines de dados em lote no Google Cloud Earned Nov 14, 2024 EST
Como modernizar data lakes e data warehouses com o Google Cloud Earned Sep 5, 2024 EDT
Criar um data warehouse com o BigQuery Earned Sep 3, 2024 EDT
Data Warehousing for Partners: Process Data with Dataproc Earned Aug 8, 2024 EDT
BigQuery for Data Warehousing Earned Aug 5, 2024 EDT
Preparação para sua jornada da certificação Professional Data Engineer Earned Aug 1, 2024 EDT

Demonstrate the ability to create and deploy deterministic virtual agents using Dialgflow CX and augment responses by grounding results on your own data integrating with Vertex AI Agent Builder data stores and leveraging Gemini for summarizations. You will use the following technologies and Google Cloud services: Vertex AI Agent Builder Dialogflow CX Gemini

Saiba mais

Demonstrate the ability to create and deploy generative virtual agents with natural language using Vertex AI Agent Builder and augment responses by integrating Gemini responses with third party APIs and your own data stores You will use the following technologies and Google Cloud services: Vertex AI Agent Builder Gemini Cloud Functions

Saiba mais

Neste curso, o usuário experiente do Google Cloud vai aprender a descrever e lançar recursos de nuvem com o Terraform, uma ferramenta de código aberto que transforma APIs em arquivos de configuração declarativos, que podem ser compartilhados entre os membros da equipe, tratados como código, editados, revisados e versionados. Nestes laboratórios práticos, você vai trabalhar com modelos de exemplo e aprenderá a lançar uma variedade de configurações, desde servidores simples até aplicativos com balanceamento de carga completo.

Saiba mais

Esta Quest é ideal para pessoas que atuam na área de tecnologia ou finanças e são responsáveis pelo gerenciamento de custos do GCP. Ela mostrará como configurar uma conta de faturamento, organizar recursos e gerenciar permissões de acesso às informações de faturamento. Nos laboratórios práticos, você aprenderá a visualizar sua fatura, acompanhar os custos do GCP com relatórios específicos, analisar os dados de faturamento com o BigQuery ou o Planilhas Google e criar painéis de faturamento personalizados com o Data Studio.

Saiba mais

This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.

Saiba mais

In this course, you'll use text embeddings for tasks like classification, outlier detection, text clustering and semantic search. You'll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) solutions, such as for question-answering systems, using Google Cloud's Vertex AI and Google Cloud databases.

Saiba mais

This course explores Google Cloud technologies to create and generate embeddings. Embeddings are numerical representations of text, images, video and audio, and play a pivotal role in many tasks that involve the identification of similar items, like Google searches, online shopping recommendations, and personalized music suggestions. Specifically, you’ll use embeddings for tasks like classification, outlier detection, clustering and semantic search. You’ll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) systems and question-answering solutions, on your own proprietary data using Google Cloud’s Vertex AI.

Saiba mais

Conheça aplicativos, ferramentas e tecnologias de pesquisa com tecnologia de IA neste curso. Aprenda a fazer pesquisa semântica usando embeddings de vetores, pesquisa híbrida combinando abordagens semânticas e por palavras-chave, e geração aumentada por recuperação (RAG), minimizando as alucinações artificiais da IA como um agente de IA embasado. Ganhe experiência prática com a pesquisa vetorial da Vertex AI para criar um mecanismo de pesquisa inteligente.

Saiba mais

Neste curso, ensinamos a criar um modelo de legenda para imagens usando aprendizado profundo. Você vai aprender sobre os diferentes componentes de um modelo de legenda para imagens, como o codificador e decodificador, e de que forma treinar e avaliar seu modelo. Ao final deste curso, você será capaz de criar e usar seus próprios modelos de legenda para imagens.

Saiba mais

Este curso é uma introdução à arquitetura de transformador e ao modelo de Bidirectional Encoder Representations from Transformers (BERT, na sigla em inglês). Você vai aprender sobre os principais componentes da arquitetura de transformador, como o mecanismo de autoatenção, e como eles são usados para construir o modelo de BERT. Também vai conhecer as diferentes tarefas onde é possível usar o BERT, como classificação de texto, respostas a perguntas e inferência de linguagem natural. O curso leva aproximadamente 45 minutos.

Saiba mais

Este curso apresenta um resumo da arquitetura de codificador-decodificador, que é uma arquitetura de machine learning avançada e frequentemente usada para tarefas sequência para sequência (como tradução automática, resumo de textos e respostas a perguntas). Você vai conhecer os principais componentes da arquitetura de codificador-decodificador e aprender a treinar e disponibilizar esses modelos. No tutorial do laboratório relacionado, você vai codificar uma implementação simples da arquitetura de codificador-decodificador para geração de poesia desde a etapa inicial no TensorFlow.

Saiba mais

Neste curso, profissionais de machine learning vão conhecer as principais ferramentas, técnicas e práticas recomendadas para avaliar modelos de IA generativa e preditiva. Essa avaliação é muito importante para garantir que os sistemas de ML produzam resultados confiáveis, precisos e de alto desempenho na produção. Os participantes vão entender em detalhes as várias métricas e metodologias de avaliação, além da aplicação correta delas em diferentes tarefas e tipos de modelo. O foco do curso está nos desafios específicos dos modelos de IA generativa e nas estratégias para lidar com eles de forma eficaz. Usando a plataforma Vertex AI do Google Cloud, os participantes vão aprender a implementar processos robustos de avaliação para selecionar e otimizar os modelos, com monitoramento contínuo.

Saiba mais

Neste curso, apresentamos os modelos de difusão, uma família de modelos de machine learning promissora no campo da geração de imagens. Os modelos de difusão são baseados na física, mais especificamente na termodinâmica. Nos últimos anos, eles se popularizaram no setor e nas pesquisas. Esses modelos servem de base para ferramentas e modelos avançados de geração de imagem no Google Cloud. Este curso é uma introdução à teoria dos modelos de difusão e como eles devem ser treinados e implantados na Vertex AI.

Saiba mais

Este curso é uma introdução ao mecanismo de atenção, uma técnica avançada que permite que as redes neurais se concentrem em partes específicas de uma sequência de entrada. Você vai entender como a atenção funciona e como ela pode ser usada para melhorar o desempenho de várias tarefas de machine learning (como tradução automática, resumo de texto e resposta a perguntas).

Saiba mais

Este é um curso de microaprendizagem introdutório que busca explicar a IA responsável: o que é, qual é a importância dela e como ela é aplicada nos produtos do Google. Ele também contém os 7 princípios de IA do Google.

Saiba mais

Na última parte da série de cursos do Dataflow, vamos abordar os componentes do modelo operacional do Dataflow. Veremos ferramentas e técnicas para solucionar problemas e otimizar o desempenho do pipeline. Depois analisaremos as práticas recomendadas de teste, implantação e confiabilidade para pipelines do Dataflow. Por fim, faremos uma revisão dos modelos, que facilitam o escalonamento dos pipelines do Dataflow para organizações com centenas de usuários. Essas lições garantem que a plataforma de dados seja estável e resiliente a circunstâncias imprevistas.

Saiba mais

Este é o primeiro de uma série de três cursos sobre processamento de dados sem servidor com o Dataflow. Nele, vamos relembrar o que é o Apache Beam e qual é a relação entre ele e o Dataflow. Depois, falaremos sobre a visão do Apache Beam e os benefícios do framework de portabilidade desse modelo de programação. Com esse processo, o desenvolvedor pode usar a linguagem de programação favorita com o back-end de execução que quiser. Em seguida, mostraremos como o Dataflow permite a separação entre a computação e o armazenamento para economizar dinheiro. Além disso, você vai aprender como as ferramentas de identidade, acesso e gerenciamento interagem com os pipelines do Dataflow. Por fim, vamos ver como implementar o modelo de segurança ideal para seu caso de uso no Dataflow.

Saiba mais

O processamento de dados de streaming é cada vez mais usado pelas empresas para gerar métricas sobre as operações comerciais em tempo real. Neste curso, você vai aprender a criar pipelines de dados de streaming no Google Cloud. O Pub/Sub é apresentado como a ferramenta para gerenciar dados de streaming de entrada. No curso, também abordamos a aplicação de agregações e transformações a dados de streaming usando o Dataflow, além de formas de armazenar registros processados no BigQuery ou no Bigtable para análise. Os participantes vão ganhar experiência prática na criação de componentes de pipelines de dados de streaming no Google Cloud usando o Qwiklabs.

Saiba mais

Os pipelines de dados geralmente se encaixam em um desses três paradigmas: extração e carregamento (EL), extração, carregamento e transformação (ELT) ou extração, transformação e carregamento (ETL). Este curso descreve qual paradigma deve ser usado em determinadas situações e quando isso ocorre com dados em lote. Além disso, vamos falar sobre várias tecnologias no Google Cloud para transformação de dados, incluindo o BigQuery, a execução do Spark no Dataproc, gráficos de pipeline no Cloud Data Fusion e processamento de dados sem servidor com o Dataflow. Os participantes vão ganhar experiência prática na criação de componentes de pipelines de dados no Google Cloud usando o Qwiklabs.

Saiba mais

Os dois principais componentes de um pipeline de dados são data lakes e warehouses. Neste curso, destacamos os casos de uso para cada tipo de armazenamento e as soluções de data lake e warehouse disponíveis no Google Cloud de forma detalhada e técnica. Além disso, também descrevemos o papel de um engenheiro de dados, os benefícios de um pipeline de dados funcional para operações comerciais e analisamos por que a engenharia de dados deve ser feita em um ambiente de nuvem. Este é o primeiro curso da série "Engenharia de dados no Google Cloud". Após a conclusão, recomendamos que você comece o curso "Como criar pipelines de dados em lote no Google Cloud".

Saiba mais

Conclua o selo de habilidade intermediário Criar um data warehouse com o BigQuery para mostrar que você sabe mesclar dados para criar novas tabelas; solucionar problemas de mesclagens; adicionar dados ao final com uniões; criar tabelas particionadas por data; além de trabalhar com JSON, matrizes e structs no BigQuery. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência nos produtos e serviços do Cloud, comprovando sua capacidade de aplicar o conhecimento em um ambiente prático e interativo. Conclua o curso com selo de habilidade e o laboratório com desafio da avaliação final para receber uma certificação digital que você pode compartilhar com seus contatos.

Saiba mais

This course explores the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Dataproc.

Saiba mais

Quer criar ou otimizar um armazenamento de dados? Aprenda práticas recomendadas para extrair, transformar e carregar dados no Google Cloud com o BigQuery. Nesta série de laboratórios interativos, você vai criar e otimizar seu próprio armazenamento usando diversos conjuntos de dados públicos de grande escala do BigQuery. O BigQuery é um banco de dados de análise NoOps, totalmente gerenciado e de baixo custo desenvolvido pelo Google. Com ele, você pode consultar muitos terabytes de dados sem ter que gerenciar uma infraestrutura ou precisar de um administrador de banco de dados. O BigQuery usa SQL e está disponível no modelo de pagamento por utilização. Com ele, você se concentra na análise dos dados para encontrar insights relevantes.

Saiba mais

Este curso ajuda estudantes a criar um plano de estudo para o exame de certificação PDE (Professional Data Engineer). É possível conferir a amplitude e o escopo dos domínios abordados no exame. Os estudantes também podem acompanhar os preparativos para o exame e criar planos de estudos individuais.

Saiba mais