Merve Çağlarer
Date d'abonnement : 2022
Ligue de Diamant
47815 points
Date d'abonnement : 2022
Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.
Terminez le cours d'introduction Créer un maillage de données avec Dataplex pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création d'un maillage de données avec Dataplex pour faciliter la sécurité, la gouvernance et la découverte des données sur Google Cloud. Cela comprend l'ajout de tags à des éléments, l'attribution de rôles IAM et l'évaluation de la qualité des données dans Dataplex.
This 1-week, accelerated on-demand course builds upon Google Cloud Platform Big Data and Machine Learning Fundamentals. Through a combination of video lectures, demonstrations, and hands-on labs, you'll learn to build streaming data pipelines using Google cloud Pub/Sub and Dataflow to enable real-time decision making. You will also learn how to build dashboards to render tailored output for various stakeholder audiences.
Dans ce deuxième volet de la série de cours sur Dataflow, nous allons nous intéresser de plus près au développement de pipelines à l'aide du SDK Beam. Nous allons commencer par passer en revue les concepts d'Apache Beam. Nous allons ensuite parler du traitement des données par flux à l'aide de fenêtres, de filigranes et de déclencheurs. Nous passerons ensuite aux options de sources et de récepteurs dans vos pipelines, aux schémas pour présenter vos données structurées, et nous verrons comment effectuer des transformations avec état à l'aide des API State et Timer. Nous aborderons ensuite les bonnes pratiques qui vous aideront à maximiser les performances de vos pipelines. Vers la fin du cours, nous présentons le langage SQL et les DataFrames pour représenter votre logique métier dans Beam, et nous expliquons comment développer des pipelines de manière itérative à l'aide des notebooks Beam.
Dans le dernier volet de la série de cours sur Dataflow, nous allons présenter les composants du modèle opérationnel de Dataflow. Nous examinerons les outils et techniques permettant de résoudre les problèmes et d'optimiser les performances des pipelines. Nous passerons ensuite en revue les bonnes pratiques en matière de test, de déploiement et de fiabilité pour les pipelines Dataflow. Nous terminerons par une présentation des modèles, qui permettent de faire évoluer facilement les pipelines Dataflow pour les adapter aux organisations comptant des centaines d'utilisateurs. Ces leçons vous aideront à vous assurer que votre plate-forme de données est stable et résiliente face aux imprévus.
Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.
Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.
Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.
Ce cours présente les produits et services Google Cloud pour le big data et le machine learning compatibles avec le cycle de vie "des données à l'IA". Il explore les processus, défis et avantages liés à la création d'un pipeline de big data et de modèles de machine learning avec Vertex AI sur Google Cloud.
This skill badge course aims to unlock the power of data visualization and business intelligence reporting with Looker, and gain hands-on experience through labs.
Ceci est le deuxième cours de la série "Data to Insights". Ici, nous verrons comment ingérer de nouveaux ensembles de données externes dans BigQuery et les visualiser avec Looker Studio. Nous aborderons également des concepts SQL intermédiaires, tels que les jointures et les unions de plusieurs tables, qui vous permettront d'analyser les données de différentes sources. Remarque : Même si vous avez des connaissances en SQL, certaines spécificités de BigQuery (comme la gestion du cache de requêtes et des caractères génériques de table) peuvent ne pas vous être familières.Une fois que vous aurez terminé ce cours, inscrivez-vous au cours "Achieving Advanced Insights with BigQuery".
Le troisième cours de cette série s'intitule "Achieving Advanced Insights with BigQuery". Notre objectif est ici d'approfondir vos connaissances en SQL en abordant en détail les fonctions avancées et en vous apprenant à décomposer les requêtes complexes en étapes faciles à gérer. Nous allons étudier l'architecture interne de BigQuery (stockage segmenté basé sur des colonnes), ainsi que des concepts SQL avancés tels que les champs imbriqués et répétés, en utilisant pour cela des objets ARRAY et STRUCT. Pour finir, nous verrons comment optimiser les performances de vos requêtes et sécuriser vos données à l'aide des vues autorisées.Une fois que vous aurez terminé ce cours, inscrivez-vous au cours "Applying Machine Learning to Your Data with Google Cloud".
This workload aims to upskill Google Cloud partners to perform specific tasks for modernization using LookML on BigQuery. A proof-of-concept will take learners through the process of creating LookML visualizations on BigQuery. During this course, learners will be guided specifically on how to write Looker modeling language, also known as LookML and create semantic data models, and learn how LookML constructs SQL queries against BigQuery. At a high level, this course will focus on basic LookML to create and access BigQuery objects, and optimize BigQuery objects with LookML.
This course explores how to leverage Looker to create data experiences and gain insights with modern business intelligence (BI) and reporting.
This learning experience guides you through the process of utilizing various data sources and multiple Google Cloud products (including BigQuery and Google Sheets using Connected Sheets) to analyze, visualize, and interpret data to answer specific questions and share insights with key decision makers.
This course explores how to implement a streaming analytics solution using Pub/Sub.
Terminez le cours d'introduction Surveiller et journaliser avec Google Cloud Observability pour recevoir un badge démontrant vos compétences dans les domaines suivants : la surveillance des machines virtuelles dans Compute Engine, l'utilisation de Cloud Monitoring pour la supervision multiprojet, l'extension des fonctionnalités de surveillance et de journalisation à Cloud Functions, la création et l'envoi de métriques d'application personnalisées, et la configuration d'alertes Cloud Monitoring en fonction de ces métriques personnalisées.
Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.
This course continues to explore the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Cloud Data Fusion.
Welcome to Cloud Data Fusion, where we discuss how to use Cloud Data Fusion to build complex data pipelines.
Le traitement de flux de données est une pratique de plus en plus courante, car elle permet aux entreprises d'obtenir des métriques sur leurs activités commerciales en temps réel. Ce cours explique comment créer des pipelines de flux de données sur Google Cloud et présente Pub/Sub, une solution qui permet de gérer des données de flux entrants. Par ailleurs, vous verrez comment appliquer des agrégations et des transformations à des flux de données à l'aide de Dataflow, mais aussi comment stocker des enregistrements traités dans BigQuery ou Bigtable pour qu'ils puissent être analysés. Les participants mettront en pratique les connaissances qu'ils auront acquises en créant des composants de pipelines de flux de données sur Google Cloud à l'aide de Qwiklabs.
Les lacs de données et les entrepôts de données sont les deux principaux composants des pipelines de données. Ce cours présente des cas d'utilisation de chaque type de stockage, ainsi que les détails techniques des solutions de lacs et d'entrepôts de données disponibles sur Google Cloud. Il décrit également le rôle des ingénieurs de données et les avantages d'un pipeline de données réussi sur les opérations commerciales, avant d'expliquer pourquoi il est important de procéder à l'ingénierie des données dans un environnement cloud. Il s'agit du premier cours de la série "Ingénierie des données sur Google Cloud". Après l'avoir terminé, inscrivez-vous au cours "Créer des pipelines de données en batch sur Google Cloud".
This quest offers hands-on practice with Cloud Data Fusion, a cloud-native, code-free, data integration platform. ETL Developers, Data Engineers and Analysts can greatly benefit from the pre-built transformations and connectors to build and deploy their pipelines without worrying about writing code. This Quest starts with a quickstart lab that familiarises learners with the Cloud Data Fusion UI. Learners then get to try running batch and realtime pipelines as well as using the built-in Wrangler plugin to perform some interesting transformations on data.
Les pipelines de données s'inscrivent généralement dans l'un des paradigmes EL (extraction et chargement), ELT (extraction, chargement et transformation) ou ETL (extraction, transformation et chargement). Ce cours indique quel paradigme utiliser pour le traitement de données par lot en fonction du contexte. Il présente également plusieurs technologies Google Cloud de transformation des données, y compris BigQuery, l'exécution de Spark sur Dataproc, les graphiques de pipelines dans Cloud Data Fusion et le traitement des données sans serveur avec Dataflow. Les participants mettront en pratique les connaissances qu'ils auront acquises en créant des composants de pipelines de données sur Google Cloud à l'aide de Qwiklabs.
Terminez le cours intermédiaire Implémenter des pratiques de base pour la sécurité du cloud sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création et l'attribution de rôles avec Identity and Access Management (IAM) ; la création et la gestion de comptes de service ; l'activation d'une connectivité privée sur les réseaux de cloud privé virtuel (VPC) ; la restriction de l'accès aux applications avec Identity-Aware Proxy ; la gestion des clés et des données chiffrées avec Cloud Key Management Service (KMS) ; et la création d'un cluster Kubernetes privé.
Ce cours en auto-formation présente une étude approfondie des contrôles et techniques de sécurité sur Google Cloud. À travers des présentations, des démonstrations et des ateliers pratiques, les participants découvrent et déploient les composants d'une solution Google Cloud sécurisée, y compris les technologies de contrôle des accès à Cloud Storage, les clés de sécurité, les clés de chiffrement fournies par le client, les contrôles d'accès aux API, les champs d'application, les VM protégées, le chiffrement, et les URL signées. Le cours aborde également la sécurisation des environnements Kubernetes.
Dans ce cours en auto-formation, les participants étudient des solutions d'atténuation des attaques pouvant survenir en de nombreux points d'une infrastructure basée sur Google Cloud, telles que des attaques par déni de service distribué (DDoS) ou par hameçonnage, ou des menaces liées à la classification et à l'utilisation de contenu. Ils découvriront également Security Command Center, Cloud Logging et les journaux d'audit, ainsi que l'utilisation de Forseti pour connaître l'état de conformité global avec les stratégies de sécurité de l'organisation.
Ce cours en auto-formation présente une étude approfondie des contrôles et techniques de sécurité sur Google Cloud. À travers des présentations enregistrées, des démonstrations et des ateliers pratiques, les participants explorent et déploient les composants d'une solution Google Cloud sécurisée (Cloud Identity, Resource Manager, Cloud IAM, les pare-feu de cloud privé virtuel, Cloud Load Balancing, l'appairage cloud, Cloud Interconnect et VPC Service Controls, par exemple). Ceci est le premier cours de la série "Security in Google Cloud". Après l'avoir terminé, inscrivez-vous au cours "Security Best Practices in Google Cloud".
In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.
In this course, you will get hands-on experience applying advanced LookML concepts in Looker. You will learn how to use Liquid to customize and create dynamic dimensions and measures, create dynamic SQL derived tables and customized native derived tables, and use extends to modularize your LookML code.
This course empowers you to develop scalable, performant LookML (Looker Modeling Language) models that provide your business users with the standardized, ready-to-use data that they need to answer their questions. Upon completing this course, you will be able to start building and maintaining LookML models to curate and manage data in your organization’s Looker instance.
Complete the intermediate Manage Data Models in Looker skill badge to demonstrate skills in the following: maintaining LookML project health; utilizing SQL runner for data validation; employing LookML best practices; optimizing queries and reports for performance; and implementing persistent derived tables and caching policies. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge course, and the final assessment challenge lab, to receive a digital badge that you can share with your network.
In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.
Complete the introductory Build LookML Objects in Looker skill badge course to demonstrate skills in the following: building new dimensions and measures, views, and derived tables; setting measure filters and types based on requirements; updating dimensions and measures; building and refining Explores; joining views to existing Explores; and deciding which LookML objects to create based on business requirements.
In this course, you shadow a series of client meetings led by a Looker Professional Services Consultant.
By the end of this course, you should feel confident employing technical concepts to fulfill business requirements and be familiar with common complex design patterns.
In this course you will discover additional tools for your toolbox for working with complex deployments, building robust solutions, and delivering even more value.
Develop technical skills beyond LookML along with basic administration for optimizing Looker instances
This course reviews the processes for creating table calculations, pivots and visualizations
This course is designed for Looker users who want to create their own ad-hoc reports. It assumes experience of everything covered in our Get Started with Looker course (logging in, finding Looks & dashboards, adjusting filters, and sending data)
In this course you will discover Liquid, the templating language invented by Shopify and explore how it can be used in Looker to create dynamic links, content, formatting, and more.
Hands on course covering the main uses of extends and the three primary LookML objects extends are used on as well as some advanced usage of extends.
This course is designed to teach you about roles, permission sets and model sets. These are areas that are used together to manage what users can do and what they can see in Looker.
This course aims to introduce you to the basic concepts of Git: what it is and how it's used in Looker. You will also develop an in-depth knowledge of the caching process on the Looker platform, such as why they are used and why they work
This course provides an introduction to databases and summarized the differences in the main database technologies. This course will also introduce you to Looker and how Looker scales as a modern data platform. In the lessons, you will build and maintain standard Looker data models and establish the foundation necessary to learn Looker's more advanced features.
Want to learn the core SQL and visualization skills of a Data Analyst? Interested in how to write queries that scale to petabyte-size datasets? Take the BigQuery for Analyst Quest and learn how to query, ingest, optimize, visualize, and even build machine learning models in SQL inside of BigQuery.
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud, et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge
Terminez le cours d'introduction Dégager des insights des données BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : l'écriture de requêtes SQL, l'interrogation de tables publiques, le chargement d'exemples de données dans BigQuery, la résolution d'erreurs de syntaxe courantes avec l'outil de validation des requêtes de BigQuery et la création de rapports dans Looker Studio en se connectant aux données BigQuery.
This course provides an iterative approach to plan, build, launch, and grow a modern, scalable, mature analytics ecosystem and data culture in an organization that consistently achieves established business outcomes. Users will also learn how to design and build a useful, easy-to-use dashboard in Looker. It assumes experience with everything covered in our Getting Started with Looker and Building Reports in Looker courses.
In this course, we’ll show you how organizations are aligning their BI strategy to most effectively achieve business outcomes with Looker. We'll follow four iterative steps: Plan, Build, Launch, Grow, and provide resources to take into your own services delivery to build Looker with the goal of achieving business outcomes.
By the end of this course, you should be able to articulate Looker's value propositions and what makes it different from other analytics tools in the market. You should also be able to explain how Looker works, and explain the standard components of successful service delivery.