Rejoindre Se connecter

Guillermo Antonio Rey Sánchez

Date d'abonnement : 2024

Ligue de Diamant

48065 points
Create Agents with Generative Playbooks Earned mai 30, 2025 EDT
Accélérer l'échange de connaissances avec Agentspace Earned mai 1, 2025 EDT
Agents d'IA générative : transformer l'entreprise Earned avr. 30, 2025 EDT
Applications d'IA générative : changez votre façon de travailler Earned avr. 30, 2025 EDT
IA générative : se familiariser avec le domaine Earned avr. 30, 2025 EDT
IA générative : découvrir les concepts fondamentaux Earned avr. 30, 2025 EDT
IA générative : au-delà du chatbot Earned avr. 30, 2025 EDT
Introduction à l'ingénierie des données sur Google Cloud Earned déc. 23, 2024 EST
Travailler avec des modèles Gemini dans BigQuery Earned déc. 18, 2024 EST
Booster la productivité avec Gemini dans BigQuery Earned déc. 14, 2024 EST
Créer un maillage de données avec Dataplex Earned déc. 12, 2024 EST
Ingénierie des données pour la modélisation prédictive avec BigQuery ML Earned déc. 9, 2024 EST
Créer un entrepôt de données avec BigQuery Earned déc. 5, 2024 EST
Préparer des données pour les API de ML sur Google Cloud Earned déc. 3, 2024 EST
Traitement des données sans serveur avec Dataflow : opérations Earned nov. 28, 2024 EST
Traitement des données sans serveur avec Dataflow : développer des pipelines Earned nov. 28, 2024 EST
Traitement des données sans serveur avec Dataflow : principes de base Earned nov. 20, 2024 EST
Smart Analytics, Machine Learning, and AI on Google Cloud - Français Earned nov. 20, 2024 EST
Concevoir des systèmes d'analyse de flux résilients sur Google Cloud Earned nov. 19, 2024 EST
Intégrer des applications avec Gemini 1.0 Pro sur Google Cloud Earned nov. 17, 2024 EST
Créer des applications d'IA concrètes avec Gemini et Imagen Earned nov. 17, 2024 EST
Créer des pipelines de données en batch sur Google Cloud Earned nov. 17, 2024 EST
Déployer des applications Kubernetes sur Google Cloud Earned nov. 16, 2024 EST
Moderniser des lacs de données et des entrepôts de données avec Google Cloud Earned nov. 14, 2024 EST
Se préparer à devenir Professional Data Engineer Earned nov. 11, 2024 EST

This course will teach you how to build conversational experiences for Conversational Agents using Generative Playbooks. You'll start with an introduction to playbooks and learn how to set up your first one. You'll also learn about the importance of testing, as well as key production considerations like quota limits and integration. The course concludes with a case study that shows how to use playbooks for generative steering.

En savoir plus

Combinez l'expertise de Google dans les domaines de la recherche et de l'IA grâce à Agentspace. Cet outil professionnel est conçu pour aider les collaborateurs à trouver des informations précises dans des documents stockés, des e-mails, des conversations, des systèmes de suivi des demandes et d'autres sources de données, le tout grâce à une simple barre de recherche. L'assistant Agentspace peut également les aider à trouver des idées, faire des recherches, résumer des documents et exécuter des tâches comme inviter des collègues à un événement d'agenda pour faciliter la collaboration et l'exploitation des connaissances.

En savoir plus

Le cours "Agents d'IA générative : transformer l'entreprise" est le cinquième et dernier du parcours de formation "Leader en IA générative". Ce cours aborde la façon dont les entreprises peuvent utiliser des agents d'IA générative personnalisés pour relever des défis métier spécifiques. Des exercices pratiques vous apprendront à créer un agent d'IA générative de base tout en découvrant les composants de ces agents, comme les modèles, les boucles de raisonnement et les outils.

En savoir plus

Le cours "Applications d'IA générative : changez votre façon de travailler" est le quatrième du parcours de formation "Leader en IA générative". Ce cours présente les applications d'IA générative de Google, telles que Gemini pour Workspace et NotebookLM. Il vous guide à travers des concepts comme l'ancrage, la génération augmentée par récupération, la création de requêtes efficaces et la conception de workflows automatisés.

En savoir plus

Le cours "IA générative : se familiariser avec le domaine" est le troisième du parcours de formation "Leader en IA générative". L'IA générative change notre façon de travailler et d'interagir avec le monde autour de nous. En tant que responsable, comment pouvez-vous exploiter son potentiel pour obtenir des résultats commerciaux concrets ? Dans ce cours, vous allez découvrir les différentes couches qui composent une solution d'IA générative, les offres de Google Cloud et les facteurs à prendre en compte au moment de choisir une solution.

En savoir plus

Le cours "IA générative : découvrir les concepts fondamentaux" est le deuxième du parcours de formation "Leader en IA générative". Ce cours vous permettra de découvrir les concepts fondamentaux de l'IA générative en examinant les différences entre l'IA, le ML et l'IA générative. Vous comprendrez également comment l'IA générative permet de relever les défis métier à l'aide des différents types de données. Enfin, vous découvrirez les stratégies de Google Cloud pour gérer les limites des modèles de fondation et quelles sont les grandes problématiques du développement et du déploiement d'une IA responsable et sécurisée.

En savoir plus

Le cours "IA générative : au-delà du chatbot" est le premier du parcours de formation "Leader en IA générative" et n'a aucun prérequis. Ce cours vise à approfondir votre compréhension de base des chatbots afin de révéler le véritable potentiel de l'IA générative pour votre entreprise. Vous découvrirez des concepts tels que les modèles de fondation et le prompt engineering (ingénierie des requêtes), qui sont essentiels pour exploiter toute la puissance de l'IA générative. Ce cours vous aidera également à identifier les facteurs à prendre en compte pour développer une stratégie d'IA générative efficace pour votre entreprise.

En savoir plus

Dans ce cours, vous allez explorer l'ingénierie de données sur Google Cloud, les rôles et responsabilités des ingénieurs de données, et la façon dont ces éléments se retrouvent dans les offres Google Cloud. Vous apprendrez également à relever les défis liés à l'ingénierie de données.

En savoir plus

Ce cours montre comment utiliser des modèles d'IA/de ML pour des tâches d'IA générative dans BigQuery. À travers un cas d'utilisation pratique faisant intervenir la gestion de la relation client, vous étudierez le workflow de résolution d'un problème métier à l'aide de modèles Gemini. Pour faciliter la compréhension, le cours fournit également des instructions détaillées tout au long du codage des solutions à l'aide de requêtes SQL et de Notebooks Python.

En savoir plus

Ce cours présente Gemini dans BigQuery, une suite de fonctionnalités basées sur l'IA conçue pour faciliter le workflow "des données à l'IA". Ces fonctionnalités incluent l'exploration et la préparation des données, la génération et le dépannage de code, ainsi que la découverte et la visualisation du workflow. Au moyen d'explications conceptuelles, d'un cas d'utilisation concret et d'ateliers pratiques, le cours explique aux professionnels des données comment booster leur productivité et accélérer le pipeline de développement.

En savoir plus

Terminez le cours d'introduction Créer un maillage de données avec Dataplex pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création d'un maillage de données avec Dataplex pour faciliter la sécurité, la gouvernance et la découverte des données sur Google Cloud. Cela comprend l'ajout de tags à des éléments, l'attribution de rôles IAM et l'évaluation de la qualité des données dans Dataplex.

En savoir plus

Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.

En savoir plus

Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud, et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge

En savoir plus

Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.

En savoir plus

Dans le dernier volet de la série de cours sur Dataflow, nous allons présenter les composants du modèle opérationnel de Dataflow. Nous examinerons les outils et techniques permettant de résoudre les problèmes et d'optimiser les performances des pipelines. Nous passerons ensuite en revue les bonnes pratiques en matière de test, de déploiement et de fiabilité pour les pipelines Dataflow. Nous terminerons par une présentation des modèles, qui permettent de faire évoluer facilement les pipelines Dataflow pour les adapter aux organisations comptant des centaines d'utilisateurs. Ces leçons vous aideront à vous assurer que votre plate-forme de données est stable et résiliente face aux imprévus.

En savoir plus

Dans ce deuxième volet de la série de cours sur Dataflow, nous allons nous intéresser de plus près au développement de pipelines à l'aide du SDK Beam. Nous allons commencer par passer en revue les concepts d'Apache Beam. Nous allons ensuite parler du traitement des données par flux à l'aide de fenêtres, de filigranes et de déclencheurs. Nous passerons ensuite aux options de sources et de récepteurs dans vos pipelines, aux schémas pour présenter vos données structurées, et nous verrons comment effectuer des transformations avec état à l'aide des API State et Timer. Nous aborderons ensuite les bonnes pratiques qui vous aideront à maximiser les performances de vos pipelines. Vers la fin du cours, nous présentons le langage SQL et les DataFrames pour représenter votre logique métier dans Beam, et nous expliquons comment développer des pipelines de manière itérative à l'aide des notebooks Beam.

En savoir plus

Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.

En savoir plus

Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.

En savoir plus

Le traitement de flux de données est une pratique de plus en plus courante, car elle permet aux entreprises d'obtenir des métriques sur leurs activités commerciales en temps réel. Ce cours explique comment créer des pipelines de flux de données sur Google Cloud et présente Pub/Sub, une solution qui permet de gérer des données de flux entrants. Par ailleurs, vous verrez comment appliquer des agrégations et des transformations à des flux de données à l'aide de Dataflow, mais aussi comment stocker des enregistrements traités dans BigQuery ou Bigtable pour qu'ils puissent être analysés. Les participants mettront en pratique les connaissances qu'ils auront acquises en créant des composants de pipelines de flux de données sur Google Cloud à l'aide de Qwiklabs.

En savoir plus

Dans ce bref cours consacré à l'intégration d'applications avec les modèles Gemini 1.0 Pro sur Google Cloud, vous découvrirez l'API Gemini et ses modèles d'IA générative. Vous apprendrez également à accéder aux modèles Gemini 1.0 Pro et Gemini 1.0 Pro Vision à partir du code. Enfin, vous testerez les capacités des modèles avec des requêtes contenant du texte, des images et des vidéos à partir d'une application.

En savoir plus

Obtenez le badge de compétence de niveau débutant "Créer des applications d'IA concrètes avec Gemini et Imagen" pour démontrer vos compétences dans les domaines suivants : reconnaissance d'image, traitement du langage naturel, génération d'images à l'aide des puissants modèles Gemini et Imagen de Google, et déploiement d'applications sur la plate-forme Vertex AI.

En savoir plus

Les pipelines de données s'inscrivent généralement dans l'un des paradigmes EL (extraction et chargement), ELT (extraction, chargement et transformation) ou ETL (extraction, transformation et chargement). Ce cours indique quel paradigme utiliser pour le traitement de données par lot en fonction du contexte. Il présente également plusieurs technologies Google Cloud de transformation des données, y compris BigQuery, l'exécution de Spark sur Dataproc, les graphiques de pipelines dans Cloud Data Fusion et le traitement des données sans serveur avec Dataflow. Les participants mettront en pratique les connaissances qu'ils auront acquises en créant des composants de pipelines de données sur Google Cloud à l'aide de Qwiklabs.

En savoir plus

Terminez le cours intermédiaire Déployer des applications Kubernetes sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : la configuration et la création d'images de conteneur Docker, la création et la gestion de clusters Google Kubernetes Engine (GKE), l'utilisation de kubectl pour gérer efficacement les clusters et le déploiement d'applications Kubernetes en appliquant des pratiques de livraison continue (CD) robustes.

En savoir plus

Les lacs de données et les entrepôts de données sont les deux principaux composants des pipelines de données. Ce cours présente des cas d'utilisation de chaque type de stockage, ainsi que les détails techniques des solutions de lacs et d'entrepôts de données disponibles sur Google Cloud. Il décrit également le rôle des ingénieurs de données et les avantages d'un pipeline de données réussi sur les opérations commerciales, avant d'expliquer pourquoi il est important de procéder à l'ingénierie des données dans un environnement cloud. Il s'agit du premier cours de la série "Ingénierie des données sur Google Cloud". Après l'avoir terminé, inscrivez-vous au cours "Créer des pipelines de données en batch sur Google Cloud".

En savoir plus

Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.

En savoir plus