Unirse Acceder

Priyanka Makhija

Miembro desde 2024

Liga de Diamantes

3193 puntos
Build deterministic Virtual Agent enhanced with data stores Earned oct 15, 2025 EDT
Build generative virtual agents with API integrations Earned oct 15, 2025 EDT
Administra la infraestructura de nube con Terraform Earned oct 15, 2025 EDT
Understand Your Google Cloud Costs Earned oct 14, 2025 EDT
Integrate Vertex AI Search and Conversation into Voice and Chat Apps Earned oct 14, 2025 EDT
Develop Advanced Enterprise Search and Conversation Applications Earned oct 13, 2025 EDT
Custom Search with Embeddings in Vertex AI Earned oct 7, 2025 EDT
Búsqueda de vectores y embeddings Earned oct 1, 2025 EDT
Creación de modelos de generación de subtítulos de imágenes Earned sep 26, 2025 EDT
Modelos de transformadores y modelo BERT Earned sep 22, 2025 EDT
Arquitectura de codificador-decodificador Earned sep 22, 2025 EDT
Operaciones de aprendizaje automático (MLOps) con Vertex AI: Evaluación de modelos Earned sep 22, 2025 EDT
Introducción a la generación de imágenes Earned sep 8, 2025 EDT
Mecanismo de atención Earned ago 4, 2025 EDT
Introducción a la IA responsable Earned ago 4, 2025 EDT
Procesamiento de datos sin servidores con Dataflow: Operaciones Earned dic 12, 2024 EST
Procesamiento de datos sin servidores con Dataflow: Fundamentos Earned nov 19, 2024 EST
Creación de sistemas de analíticas en tiempo real resilientes en Google Cloud Earned nov 19, 2024 EST
Creación de flujos de procesamiento de datos por lotes en Google Cloud Earned nov 14, 2024 EST
Modernización de data lakes y almacenes de datos con Google Cloud Earned sep 5, 2024 EDT
Crea un almacén de datos con BigQuery Earned sep 3, 2024 EDT
Data Warehousing for Partners: Process Data with Dataproc Earned ago 8, 2024 EDT
BigQuery for Data Warehousing Earned ago 5, 2024 EDT
Preparación para el proceso de certificación Professional Data Engineer Earned ago 1, 2024 EDT

Demonstrate the ability to create and deploy deterministic virtual agents using Dialgflow CX and augment responses by grounding results on your own data integrating with Vertex AI Agent Builder data stores and leveraging Gemini for summarizations. You will use the following technologies and Google Cloud services: Vertex AI Agent Builder Dialogflow CX Gemini

Más información

Demonstrate the ability to create and deploy generative virtual agents with natural language using Vertex AI Agent Builder and augment responses by integrating Gemini responses with third party APIs and your own data stores You will use the following technologies and Google Cloud services: Vertex AI Agent Builder Gemini Cloud Functions

Más información

En este curso, el usuario experimentado de Google Cloud aprenderá a describir e iniciar recursos en la nube con Terraform, una herramienta de código abierto que codifica las APIs en archivos de configuración declarativos que se pueden compartir entre los miembros del equipo, tratarse como código, editarse, revisarse o cambiar de versión. En estos labs prácticos, trabajarás con plantillas de ejemplo y aprenderás a iniciar una variedad de configuraciones, desde servidores simples hasta aplicaciones con balanceo de cargas completo.

Más información

Esta Quest es más apropiada para quienes desempeñan cargos relacionados con la tecnología o las finanzas y son responsables de administrar los costos de GCP. Aprenderá a configurar una cuenta de facturación, a organizar recursos y a administrar permisos de acceso a la facturación. En los labs prácticos, aprenderá a ver sus facturas, a hacer un seguimiento de sus costos de GCP con informes de facturación, a analizar sus datos de facturación con Hojas de cálculo de Google o BigQuery, y a crear paneles de facturación personalizados con Data Studio.

Más información

This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.

Más información

In this course, you'll use text embeddings for tasks like classification, outlier detection, text clustering and semantic search. You'll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) solutions, such as for question-answering systems, using Google Cloud's Vertex AI and Google Cloud databases.

Más información

This course explores Google Cloud technologies to create and generate embeddings. Embeddings are numerical representations of text, images, video and audio, and play a pivotal role in many tasks that involve the identification of similar items, like Google searches, online shopping recommendations, and personalized music suggestions. Specifically, you’ll use embeddings for tasks like classification, outlier detection, clustering and semantic search. You’ll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) systems and question-answering solutions, on your own proprietary data using Google Cloud’s Vertex AI.

Más información

En este curso, explorarás tecnologías, herramientas y aplicaciones de búsqueda potenciadas por IA. Aprende sobre las búsquedas semánticas utilizando embeddings de vectores, acerca de las búsquedas híbridas combinando enfoques semánticos y de palabras clave, y sobre la generación mejorada por recuperación (RAG) minimizando las alucinaciones como un agente de IA fundamentado. Adquiere experiencia práctica con Vector Search de Vertex AI para desarrollar tu motor de búsqueda inteligente.

Más información

En este curso, se te enseña a crear un modelo de generación de leyendas de imágenes con el aprendizaje profundo. Aprenderás sobre los distintos componentes de los modelos de generación de leyendas de imágenes, como el codificador y el decodificador, y cómo entrenar y evaluar tu modelo. Al final del curso, podrás crear tus propios modelos y usarlos para generar leyendas de imágenes.

Más información

En este curso, se presentan la arquitectura de transformadores y el modelo de Bidirectional Encoder Representations from Transformers (BERT). Aprenderás sobre los componentes principales de la arquitectura de transformadores, como el mecanismo de autoatención, y cómo se usa para crear el modelo BERT. También aprenderás sobre las diferentes tareas para las que puede usarse BERT, como la clasificación de texto, la respuesta de preguntas y la inferencia de lenguaje natural. Tardarás aproximadamente 45 minutos en completar este curso.

Más información

En este curso, se brinda un resumen de la arquitectura de codificador-decodificador, una arquitectura de aprendizaje automático importante y potente para realizar tareas de secuencia por secuencia, como las de traducción automática, resúmenes de texto y respuestas a preguntas. Aprenderás sobre los componentes principales de la arquitectura de codificador-decodificador y cómo entrenar y entregar estos modelos. En la explicación del lab, programarás una implementación sencilla de la arquitectura de codificador-decodificador en TensorFlow para generar poemas desde un comienzo.

Más información

En este curso, los profesionales del aprendizaje automático aprenderán a utilizar las herramientas, las técnicas y las prácticas recomendadas indispensables para evaluar los modelos de IA generativa y predictiva. La evaluación de modelos es una disciplina esencial para garantizar que los sistemas de AA arrojen resultados confiables, exactos y de alto rendimiento en la producción. Los participantes obtendrán información exhaustiva sobre diversas métricas y metodologías de evaluación, además de su aplicación adecuada en diferentes tipos de modelos y tareas. En este curso, se hará énfasis en los desafíos únicos que presentan los modelos de IA generativa y se ofrecerán estrategias para abordarlos de manera eficaz. Con la plataforma de Vertex AI de Google Cloud, los participantes aprenderán a implementar los procesos sólidos de evaluación para la selección, optimización y supervisión continua de modelos.

Más información

En este curso, se presenta una introducción a los modelos de difusión: una familia de modelos de aprendizaje automático que demostraron ser muy prometedores en el área de la generación de imágenes. Los modelos de difusión se inspiran en la física, específicamente, en la termodinámica. En los últimos años, los modelos de difusión se han vuelto populares tanto en investigaciones como en la industria. Los modelos de difusión respaldan muchos de los modelos de generación de imágenes y herramientas vanguardistas de Google Cloud. En este curso, se presenta la teoría detrás de los modelos de difusión y cómo entrenarlos y, luego, implementarlos en Vertex AI.

Más información

Este curso es una introducción al mecanismo de atención, una potente técnica que permite a las redes neuronales enfocarse en partes específicas de una secuencia de entrada. Sabrás cómo funciona la atención y cómo puede utilizarse para mejorar el rendimiento de diversas tareas de aprendizaje automático, como la traducción automática, el resumen de textos y la respuesta a preguntas.

Más información

Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA responsable, por qué es importante y cómo la implementa Google en sus productos. También se presentan los 7 principios de la IA de Google.

Más información

En esta última parte de la serie de cursos de Dataflow, presentaremos los componentes del modelo operativo de Dataflow. Examinaremos las herramientas y técnicas que permiten solucionar problemas y optimizar el rendimiento de las canalizaciones. Luego, revisaremos las prácticas recomendadas de las pruebas, la implementación y la confiabilidad en relación con las canalizaciones de Dataflow. Concluiremos con una revisión de las plantillas, que facilitan el ajuste de escala de las canalizaciones de Dataflow para organizaciones con cientos de usuarios. Estas clases asegurarán que su plataforma de datos sea estable y resiliente ante circunstancias inesperadas.

Más información

Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.

Más información

El procesamiento de datos de transmisión es cada vez más popular, puesto que permite a las empresas obtener métricas en tiempo real sobre las operaciones comerciales. Este curso aborda cómo crear canalizaciones de datos de transmisión en Google Cloud. Pub/Sub se describe para manejar los datos de transmisión entrantes. El curso también aborda cómo aplicar agregaciones y transformaciones a los datos de transmisión con Dataflow y cómo almacenar los registros procesados en BigQuery o Bigtable para analizarlos. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos de transmisión en Google Cloud con QwikLabs.

Más información

Las canalizaciones de datos suelen realizarse según uno de los paradigmas extracción y carga (EL); extracción, carga y transformación (ELT), o extracción, transformación y carga (ETL). En este curso, abordaremos qué paradigma se debe utilizar para los datos por lotes y cuándo corresponde usarlo. Además, veremos varias tecnologías de Google Cloud para la transformación de datos, incluidos BigQuery, la ejecución de Spark en Dataproc, grafos de canalización en Cloud Data Fusion y procesamiento de datos sin servidores en Dataflow. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos en Google Cloud con Qwiklabs.

Más información

Los dos componentes clave de cualquier canalización de datos son los data lakes y los almacenes de datos. En este curso, se destacan los casos de uso de cada tipo de almacenamiento y se analizan en profundidad las soluciones de data lakes y almacenes disponibles en Google Cloud con detalles técnicos. Además, en este curso, se describen el rol del ingeniero en datos, los beneficios de las canalizaciones de datos exitosas para las operaciones comerciales y por qué la ingeniería de datos debe realizarse en un entorno de nube. Este el primer curso de la serie Ingeniería de datos en Google Cloud. Después de completar este curso, inscríbete en el curso Creación de flujos de procesamiento de datos por lotes en Google Cloud.

Más información

Completa la insignia de habilidad intermedia Crea un almacén de datos con BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery. Una insignia de habilidad es una insignia digital exclusiva que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma, y que prueba tu capacidad de aplicar esos conocimientos en un entorno interactivo y práctico. Completa el curso con insignia de habilidad y el lab de desafío de la evaluación final para recibir una insignia digital que puedes compartir con tus contactos.

Más información

This course explores the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Dataproc.

Más información

¿Quiere optimizar o compilar su almacén de datos? Aprenda las prácticas recomendadas para extraer, transformar y cargar sus datos en Google Cloud con BigQuery. En esta serie de labs interactivos, creará y optimizará su almacén de datos con una variedad de conjuntos de datos públicos de BigQuery a gran escala. BigQuery es la base de datos estadísticos de Google de bajo costo, NoOps y completamente administrada. Con BigQuery, puede consultar muchos terabytes de datos sin tener que administrar infraestructuras y sin necesitar un administrador de base de datos. BigQuery usa SQL y puede aprovechar el modelo de prepago. BigQuery le permite enfocarse en el análisis de datos para buscar estadísticas valiosas.

Más información

Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.

Más información