Unirse Acceder

Juan Rojas

Miembro desde 2022

Liga de Plata

3800 puntos
Ingeniería de datos para crear modelos predictivos con BigQuery ML Earned mar 31, 2023 EDT
Implementa el balanceo de cargas en Compute Engine Earned mar 5, 2023 EST
Preparación para el proceso de certificación Professional Data Engineer Earned ene 15, 2023 EST
Data Warehousing for Partners: Data Warehouse Migration with BigQuery Earned ene 2, 2023 EST
Crea un almacén de datos con BigQuery Earned dic 9, 2022 EST
Prepara datos para las APIs de AA en Google Cloud Earned dic 3, 2022 EST
Procesamiento de datos sin servidores con Dataflow: Operaciones Earned dic 2, 2022 EST
Procesamiento de datos sin servidores con Dataflow: Desarrolla canalizaciones Earned nov 21, 2022 EST
Procesamiento de datos sin servidores con Dataflow: Fundamentos Earned nov 10, 2022 EST
Smart Analytics, Machine Learning, and AI on Google Cloud - Español Earned nov 9, 2022 EST
Creación de sistemas de analíticas en tiempo real resilientes en Google Cloud Earned nov 7, 2022 EST
Creación de flujos de procesamiento de datos por lotes en Google Cloud Earned nov 2, 2022 EDT
Modernización de data lakes y almacenes de datos con Google Cloud Earned oct 25, 2022 EDT
Google Cloud Big Data and Machine Learning Fundamentals - Español Earned oct 23, 2022 EDT
Google Cloud Essentials Earned oct 9, 2022 EDT

Obtén la insignia de habilidad intermedia Ingeniería de datos para crear modelos predictivos con BigQuery ML y demuestra tus capacidades para crear canalizaciones de transformación de datos en BigQuery con Dataprep de Trifacta; usar Cloud Storage, Dataflow y BigQuery para crear flujos de trabajo de extracción, transformación y carga (ETL), y crear modelos de aprendizaje automático con BigQuery ML. Una insignia de de habilidad es una insignia digital exclusiva otorgada por Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma, y que prueba tu capacidad para aplicar tus conocimientos en un entorno interactivo y práctico. Completa la insignia de habilidad del curso y el Lab de desafío de la evaluación final para recibir una insignia digital que podrás compartir en tus redes.

Más información

Completa la insignia de habilidad introductoria Implementa el balanceo de cargas en Compute Engine y demuestra tus habilidades para realizar las siguientes actividades: escribir comandos de gcloud y usar Cloud Shell, crear e implementar máquinas virtuales en Compute Engine, y configurar balanceadores de cargas de red y HTTP. Una insignia de habilidad es una insignia digital exclusiva que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma y que prueba tu capacidad de aplicar esos conocimientos en un entorno interactivo y práctico. Completa esta insignia de habilidad y el Lab de desafío de la evaluación final para recibir una insignia que puedes compartir con tus contactos.

Más información

Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.

Más información

In this course, you will receive technical training for Enterprise Data Warehouses solutions using BigQuery based on the best practices developed internally by Google’s technical sales and services organizations. The course will also provide guidance and training on key technical challenges that can arise when migrating existing Enterprise Data Warehouses and ETL pipelines to Google Cloud. You will get hands-on experience with real migration tasks, such as data migration, schema optimization, and SQL Query conversion and optimization. The course will also cover key aspects of ETL pipeline migration to Dataproc as well as using Pub/Sub, Dataflow, and Cloud Data Fusion, giving you hands-on experience using all of these tools for Data Warehouse ETL pipelines.

Más información

Completa la insignia de habilidad intermedia Crea un almacén de datos con BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery. Una insignia de habilidad es una insignia digital exclusiva que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma, y que prueba tu capacidad de aplicar esos conocimientos en un entorno interactivo y práctico. Completa el curso con insignia de habilidad y el lab de desafío de la evaluación final para recibir una insignia digital que puedes compartir con tus contactos.

Más información

Completa la insignia de habilidad introductoria Prepara datos para las APIs de AA en Google Cloud y demuestra tus habilidades para realizar las siguientes actividades: limpiar datos con Dataprep de Trifacta, ejecutar canalizaciones de datos en Dataflow, crear clústeres y ejecutar trabajos de Apache Spark en Dataproc y llamar a APIs de AA, como la API de Cloud Natural Language, la API de Google Cloud Speech-to-Text y la API de Video Intelligence. Una insignia de habilidad es una insignia digital exclusiva que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma, y que prueba tu capacidad de aplicar esos conocimientos en un entorno interactivo y práctico. Completa el curso y el lab de desafío de la evaluación final para recibir una insignia de habilidad que puedes compartir con tus contactos.

Más información

En esta última parte de la serie de cursos de Dataflow, presentaremos los componentes del modelo operativo de Dataflow. Examinaremos las herramientas y técnicas que permiten solucionar problemas y optimizar el rendimiento de las canalizaciones. Luego, revisaremos las prácticas recomendadas de las pruebas, la implementación y la confiabilidad en relación con las canalizaciones de Dataflow. Concluiremos con una revisión de las plantillas, que facilitan el ajuste de escala de las canalizaciones de Dataflow para organizaciones con cientos de usuarios. Estas clases asegurarán que su plataforma de datos sea estable y resiliente ante circunstancias inesperadas.

Más información

En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.

Más información

Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.

Más información

La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.

Más información

El procesamiento de datos de transmisión es cada vez más popular, puesto que permite a las empresas obtener métricas en tiempo real sobre las operaciones comerciales. Este curso aborda cómo crear canalizaciones de datos de transmisión en Google Cloud. Pub/Sub se describe para manejar los datos de transmisión entrantes. El curso también aborda cómo aplicar agregaciones y transformaciones a los datos de transmisión con Dataflow y cómo almacenar los registros procesados en BigQuery o Bigtable para analizarlos. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos de transmisión en Google Cloud con QwikLabs.

Más información

Las canalizaciones de datos suelen realizarse según uno de los paradigmas extracción y carga (EL); extracción, carga y transformación (ELT), o extracción, transformación y carga (ETL). En este curso, abordaremos qué paradigma se debe utilizar para los datos por lotes y cuándo corresponde usarlo. Además, veremos varias tecnologías de Google Cloud para la transformación de datos, incluidos BigQuery, la ejecución de Spark en Dataproc, grafos de canalización en Cloud Data Fusion y procesamiento de datos sin servidores en Dataflow. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos en Google Cloud con Qwiklabs.

Más información

Los dos componentes clave de cualquier canalización de datos son los data lakes y los almacenes de datos. En este curso, se destacan los casos de uso de cada tipo de almacenamiento y se analizan en profundidad las soluciones de data lakes y almacenes disponibles en Google Cloud con detalles técnicos. Además, en este curso, se describen el rol del ingeniero en datos, los beneficios de las canalizaciones de datos exitosas para las operaciones comerciales y por qué la ingeniería de datos debe realizarse en un entorno de nube. Este el primer curso de la serie Ingeniería de datos en Google Cloud. Después de completar este curso, inscríbete en el curso Creación de flujos de procesamiento de datos por lotes en Google Cloud.

Más información

En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.

Más información

En esta Quest de nivel básico, adquirirá experiencia práctica en las herramientas y los servicios fundamentales de Google Cloud Platform. GCP Essentials es la primera Quest recomendada para el estudiante de Google Cloud. Ingresará con poco o ningún conocimiento previo sobre la nube, y saldrá con experiencia práctica que podrá aplicar a su primer proyecto de GCP. Desde la escritura de comandos de Cloud Shell y la implementación de su primera máquina virtual hasta la ejecución de aplicaciones en Kubernetes Engine o mediante el balanceo de cargas, GCP Essentials es una excelente introducción a las funciones básicas de la plataforma. En los videos de 1 minuto, se le explicarán los conceptos clave de cada lab.

Más información