A medida que aumenta el uso empresarial de la inteligencia artificial y el aprendizaje automático, también crece la importancia de implementarlo responsablemente. El desafío para muchas personas es que hablar sobre la IA responsable puede ser más fácil que aplicarla. Si te interesa aprender cómo poner en funcionamiento la IA responsable en tu organización, este curso es para ti. En este curso, aprenderás cómo Google Cloud aplica estos principios en la actualidad, junto con las prácticas recomendadas y las lecciones aprendidas, para usarlos como marco de trabajo de modo que puedas crear tu propio enfoque de IA responsable.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
En este curso, se presenta Vertex AI Studio, una herramienta para interactuar con modelos de IA generativa, crear prototipos de ideas de negocio y llevarlas a producción. A través de un caso de uso envolvente, lecciones atractivas y un lab práctico, explorarás el ciclo de vida desde la instrucción hasta el producto y aprenderás cómo aprovechar Vertex AI Studio para aplicaciones multimodales de Gemini, diseño de instrucciones, ingeniería de instrucciones y ajuste de modelos. El objetivo es permitirte desbloquear el potencial de la IA generativa en tus proyectos con Vertex AI Studio.
En este curso, se te enseña a crear un modelo de generación de leyendas de imágenes con el aprendizaje profundo. Aprenderás sobre los distintos componentes de los modelos de generación de leyendas de imágenes, como el codificador y el decodificador, y cómo entrenar y evaluar tu modelo. Al final del curso, podrás crear tus propios modelos y usarlos para generar leyendas de imágenes.
En este curso, se brinda un resumen de la arquitectura de codificador-decodificador, una arquitectura de aprendizaje automático importante y potente para realizar tareas de secuencia por secuencia, como las de traducción automática, resúmenes de texto y respuestas a preguntas. Aprenderás sobre los componentes principales de la arquitectura de codificador-decodificador y cómo entrenar y entregar estos modelos. En la explicación del lab, programarás una implementación sencilla de la arquitectura de codificador-decodificador en TensorFlow para generar poemas desde un comienzo.
Completa los cursos Introduction to Generative AI, Introduction to Large Language Models e Introduction to Responsible AI para obtener una insignia de habilidad. Aprueba el cuestionario final para demostrar que entiendes los conceptos básicos sobre la IA generativa. Una insignia de habilidad es una insignia digital que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma. Para compartir tu insignia de habilidad, establece tu perfil como público y agrega la insignia a tu perfil de redes sociales.
Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA responsable, por qué es importante y cómo la implementa Google en sus productos. También se presentan los 7 principios de la IA de Google.
En este curso, se presenta una introducción a los modelos de difusión: una familia de modelos de aprendizaje automático que demostraron ser muy prometedores en el área de la generación de imágenes. Los modelos de difusión se inspiran en la física, específicamente, en la termodinámica. En los últimos años, los modelos de difusión se han vuelto populares tanto en investigaciones como en la industria. Los modelos de difusión respaldan muchos de los modelos de generación de imágenes y herramientas vanguardistas de Google Cloud. En este curso, se presenta la teoría detrás de los modelos de difusión y cómo entrenarlos y, luego, implementarlos en Vertex AI.
This course provides partners the skills required to scope, design and deploy Document AI solutions for enterprise customers utilizing use-cases from both the procurement and lending arenas.
En este curso, se presentan la arquitectura de transformadores y el modelo de Bidirectional Encoder Representations from Transformers (BERT). Aprenderás sobre los componentes principales de la arquitectura de transformadores, como el mecanismo de autoatención, y cómo se usa para crear el modelo BERT. También aprenderás sobre las diferentes tareas para las que puede usarse BERT, como la clasificación de texto, la respuesta de preguntas y la inferencia de lenguaje natural. Tardarás aproximadamente 45 minutos en completar este curso.
Este curso es una introducción al mecanismo de atención, una potente técnica que permite a las redes neuronales enfocarse en partes específicas de una secuencia de entrada. Sabrás cómo funciona la atención y cómo puede utilizarse para mejorar el rendimiento de diversas tareas de aprendizaje automático, como la traducción automática, el resumen de textos y la respuesta a preguntas.
Este es un curso introductorio de microaprendizaje en el que se explora qué son los modelos de lenguaje grandes (LLM), sus casos de uso y cómo se puede utilizar el ajuste de instrucciones para mejorar el rendimiento de los LLM. También abarca las herramientas de Google para ayudarte a desarrollar tus propias aplicaciones de IA generativa.
Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA generativa, cómo se utiliza y en qué se diferencia de los métodos de aprendizaje automático tradicionales. También abarca las herramientas de Google para ayudarte a desarrollar tus propias aplicaciones de IA generativa.
Get started with Go (Golang) by reviewing Go code, and then creating and deploying simple Go apps on Google Cloud. Go is an open source programming language that makes it easy to build fast, reliable, and efficient software at scale. Go runs native on Google Cloud, and is fully supported on Google Kubernetes Engine, Compute Engine, App Engine, Cloud Run, and Cloud Functions. Go is a compiled language and is faster and more efficient than interpreted languages. As a result, Go requires no installed runtime like Node, Python, or JDK to execute.
This course introduces you to fundamentals, practices, capabilities and tools applicable to modern cloud-native application development using Google Cloud Run. Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to on Google Cloud using Cloud Run.design, implement, deploy, secure, manage, and scale applications
Course Description:
Course Description:
En este curso, los desarrolladores de aplicaciones aprenderán a diseñar y desarrollar aplicaciones nativas de la nube que integren perfectamente los servicios administrados de Google Cloud. A través de una serie de presentaciones, demostraciones y labs prácticos, los participantes aprenderán a aplicar las prácticas recomendadas del desarrollo de aplicaciones y usar los servicios de almacenamiento de Google Cloud apropiados para el almacenamiento de objetos, datos relacionales, almacenamiento en caché y análisis. Es obligatorio completar una versión de cada lab. Los labs están disponibles en Node.js y, en la mayoría de los casos, también en Python o Java. Puedes completar cada lab en el lenguaje que prefieras. Este es el primer curso de la serie Developing Applications with Google Cloud. Después de completarlo, inscríbete en el curso Securing and Integrating Components of your Application.
In this course, you apply your knowledge of classification models and embeddings to build a ML pipeline that functions as a recommendation engine. This is the fifth and final course of the Advanced Machine Learning on Google Cloud series.
This course introduces the products and solutions to solve NLP problems on Google Cloud. Additionally, it explores the processes, techniques, and tools to develop an NLP project with neural networks by using Vertex AI and TensorFlow.
This course describes different types of computer vision use cases and then highlights different machine learning strategies for solving these use cases. The strategies vary from experimenting with pre-built ML models through pre-built ML APIs and AutoML Vision to building custom image classifiers using linear models, deep neural network (DNN) models or convolutional neural network (CNN) models. The course shows how to improve a model's accuracy with augmentation, feature extraction, and fine-tuning hyperparameters while trying to avoid overfitting the data. The course also looks at practical issues that arise, for example, when one doesn't have enough data and how to incorporate the latest research findings into different models. Learners will get hands-on practice building and optimizing their own image classification models on a variety of public datasets in the labs they will work on.
En este curso, analizaremos los componentes y las prácticas recomendadas de la creación de sistemas de AA de alto rendimiento en entornos de producción. Veremos algunas de las consideraciones más comunes tras la creación de estos sistemas, p. ej., entrenamiento estático, entrenamiento dinámico, inferencia estática, inferencia dinámica, TensorFlow distribuido y TPU. Este curso se enfoca en explorar las características que conforman un buen sistema de AA más allá de su capacidad de realizar predicciones correctas.
One of the best ways to review something is to work with the concepts and technologies that you have learned. So, this course is set up as a workshop and in this workshop, you will do End-to-End Machine Learning with TensorFlow on Google Cloud Platform. It involves building an end-to-end model from data exploration all the way to deploying an ML model and getting predictions from it. This is the first course of the Advanced Machine Learning on Google Cloud series. After completing this course, enroll in the Production Machine Learning Systems course.
En este curso, se aplica un enfoque real en el flujo de trabajo del AA a través de un caso de éxito. Un equipo de AA trabaja con varios requisitos empresariales y casos de uso de AA. El equipo debe comprender las herramientas necesarias para la administración de los datos y considerar el mejor enfoque para su procesamiento previo. Al equipo se le presentan tres opciones con las que puede crear modelos de AA para dos casos de uso. En el curso, se explica por qué el equipo usará AutoML, BigQuery ML o entrenamiento personalizado para lograr sus objetivos.
En este curso, se explica cómo crear modelos de AA con TensorFlow y Keras, cómo mejorar la exactitud de los modelos de AA y cómo escribir modelos de AA para uso escalado.
El curso comienza con un debate sobre los datos: cómo mejorar su calidad y cómo realizar análisis exploratorios de ellos. Describimos Vertex AI AutoML y cómo crear, entrenar e implementar un modelo de AA sin escribir una sola línea de código. Conocerás los beneficios de BigQuery ML. Luego, se analiza cómo optimizar un modelo de aprendizaje automático (AA) y cómo la generalización y el muestreo pueden ayudar a evaluar la calidad de los modelos de AA para el entrenamiento personalizado.
¿Cuáles son las prácticas recomendadas para implementar el aprendizaje automático en Google Cloud? ¿Qué es Vertex AI y cómo se puede utilizar la plataforma para crear, entrenar e implementar rápidamente modelos de aprendizaje automático de AutoML sin escribir una sola línea de código? ¿Qué es el aprendizaje automático? ¿Qué tipos de problemas puede solucionar? Google considera que el aprendizaje automático es diferente: se trata de proporcionar una plataforma unificada para conjuntos de datos administrados, un almacén de atributos, una forma de crear, entrenar e implementar modelos de aprendizaje automático sin escribir una sola línea de código, así como proporcionar la capacidad de etiquetar datos y crear notebooks de Workbench utilizando frameworks como TensorFlow, SciKit-learn, Pytorch, R y otros. Vertex AI Platform también ofrece la posibilidad de entrenar modelos personalizados, crear canalizaciones de componentes y realizar predicciones en línea y por lotes. Además, analiza…
Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.
Completa la insignia de habilidad introductoria Implementa el balanceo de cargas en Compute Engine y demuestra tus habilidades para realizar las siguientes actividades: escribir comandos de gcloud y usar Cloud Shell, crear e implementar máquinas virtuales en Compute Engine, y configurar balanceadores de cargas de red y HTTP. Una insignia de habilidad es una insignia digital exclusiva que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma y que prueba tu capacidad de aplicar esos conocimientos en un entorno interactivo y práctico. Completa esta insignia de habilidad y el Lab de desafío de la evaluación final para recibir una insignia que puedes compartir con tus contactos.
En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.
Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.
La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.
El procesamiento de datos de transmisión es cada vez más popular, puesto que permite a las empresas obtener métricas en tiempo real sobre las operaciones comerciales. Este curso aborda cómo crear canalizaciones de datos de transmisión en Google Cloud. Pub/Sub se describe para manejar los datos de transmisión entrantes. El curso también aborda cómo aplicar agregaciones y transformaciones a los datos de transmisión con Dataflow y cómo almacenar los registros procesados en BigQuery o Bigtable para analizarlos. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos de transmisión en Google Cloud con QwikLabs.
Las canalizaciones de datos suelen realizarse según uno de los paradigmas extracción y carga (EL); extracción, carga y transformación (ELT), o extracción, transformación y carga (ETL). En este curso, abordaremos qué paradigma se debe utilizar para los datos por lotes y cuándo corresponde usarlo. Además, veremos varias tecnologías de Google Cloud para la transformación de datos, incluidos BigQuery, la ejecución de Spark en Dataproc, grafos de canalización en Cloud Data Fusion y procesamiento de datos sin servidores en Dataflow. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos en Google Cloud con Qwiklabs.
Los dos componentes clave de cualquier canalización de datos son los data lakes y los almacenes de datos. En este curso, se destacan los casos de uso de cada tipo de almacenamiento y se analizan en profundidad las soluciones de data lakes y almacenes disponibles en Google Cloud con detalles técnicos. Además, en este curso, se describen el rol del ingeniero en datos, los beneficios de las canalizaciones de datos exitosas para las operaciones comerciales y por qué la ingeniería de datos debe realizarse en un entorno de nube. Este el primer curso de la serie Ingeniería de datos en Google Cloud. Después de completar este curso, inscríbete en el curso Creación de flujos de procesamiento de datos por lotes en Google Cloud.
En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.