Fernando Custodio dos Reis
Учасник із 2022
Бронзова ліга
Кількість балів: 15935
Учасник із 2022
Complete the intermediate Develop Gen AI Apps with Gemini and Streamlit skill badge course to demonstrate skills in text generation, applying function calls with the Python SDK and Gemini API, and deploying a Streamlit application with Cloud Run. In this course, you learn Gemini prompting, test Streamlit apps in Cloud Shell, and deploy them as Docker containers in Cloud Run.
Learn to use LangChain to call Google Cloud LLMs and Generative AI Services and Datastores to simplify complex applications' code.
Complete the introductory Migrate MySQL data to Cloud SQL using Database Migration Services skill badge to demonstrate skills in the following: migrating MySQL data to Cloud SQL using different job types and connectivity options available in Database Migration Service and migrating MySQL user data when running Database Migration Service jobs. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge quest, and the final assessment challenge lab, to receive a skill badge that you can share with your network.
Complete the introductory Monitor and Log with Google Cloud Observability skill badge course to demonstrate skills in the following: monitoring virtual machines in Compute Engine, utilizing Cloud Monitoring for multi-project oversight, extending monitoring and logging capabilities to Cloud Functions, creating and sending custom application metrics, and configuring Cloud Monitoring alerts based on custom metrics.
Щоб отримати кваліфікаційний значок, пройдіть курс Налаштування середовища для розробки додатка в Google Cloud. У ньому ви навчитеся створювати й підключати хмарну інфраструктуру, спрямовану на зберігання даних, за допомогою базових можливостей таких технологій, як Cloud Storage, система керування ідентифікацією і доступом, Cloud Functions та Pub/Sub. Кваліфікаційний значок – це ексклюзивна цифрова відзнака, яка підтверджує, що ви вмієте працювати з продуктами й сервісами Google Cloud, а також застосовувати ці знання в інтерактивному практичному середовищі. Щоб отримати кваліфікаційний значок і показати його колегам, пройдіть цей курс і підсумковий тест.
This content is deprecated. Please see the latest version of the course, here.
У цьому ознайомлювальному курсі мікронавчання ви дізнаєтеся, що таке великі мовні моделі, де вони використовуються і як підвищити їх ефективність коригуванням запитів. Він також охоплює інструменти Google, які допоможуть вам створювати власні додатки на основі генеративного штучного інтелекту.
Це ознайомлювальний курс мікронавчання, який має пояснити, що таке генеративний штучний інтелект, як він використовується й чим відрізняється від традиційних методів машинного навчання. Він також охоплює інструменти Google, які допоможуть вам створювати власні додатки на основі генеративного штучногоінтелекту.
Пройдіть вступний кваліфікаційний курс Налаштування розподілу навантаження в Compute Engine, щоб продемонструвати свої навички написання команд gcloud і використання Cloud Shell, створення й розгортання віртуальних машин у Compute Engine, а також налаштування мережі й розподілювачів навантаження HTTP. Кваліфікаційний значок – це ексклюзивний цифровий значок від Google Cloud, який засвідчує, що ви знаєтеся на продуктах і сервісах цієї платформи й можете застосовувати ці знання в інтерактивному практичному середовищі. Щоб отримати кваліфікаційний значок і показати його колегам, пройдіть цей курс і підсумковий тест.
Пройдіть вступний кваліфікаційний курс Підготовка даних для інтерфейсів API машинного навчання в Google Cloud, щоб продемонструвати свої навички щодо очистки даних за допомогою сервісу Dataprep by Trifacta, запуску конвеєрів даних у Dataflow, створення кластерів і запуску завдань Apache Spark у Dataproc, а також виклику API машинного навчання, зокрема Cloud Natural Language API, Google Cloud Speech-to-Text API і Video Intelligence API. Кваліфікаційний значок – це ексклюзивна цифрова відзнака, яка підтверджує, що ви вмієте працювати з продуктами й сервісами Google Cloud і можете застосовувати ці знання в інтерактивному практичному середовищі. Щоб отримати кваліфікаційний значок і показати його колегам, пройдіть цей курс і підсумковий тест.
This course, Building Resilient Streaming Analytics Systems on Google Cloud - Locales, is intended for non-English learners. If you want to take this course in English, please enroll in Building Resilient Streaming Analytics Systems on Google Cloud. Processing streaming data is becoming increasingly popular as streaming enables businesses to get real-time metrics on business operations. This course covers how to build streaming data pipelines on Google Cloud. Pub/Sub is described for handling incoming streaming data. The course also covers how to apply aggregations and transformations to streaming data using Dataflow, and how to store processed records to BigQuery or Cloud Bigtable for analysis. Learners will get hands-on experience building streaming data pipeline components on Google Cloud using QwikLabs.
Processing streaming data is becoming increasingly popular as streaming enables businesses to get real-time metrics on business operations. This course covers how to build streaming data pipelines on Google Cloud. Pub/Sub is described for handling incoming streaming data. The course also covers how to apply aggregations and transformations to streaming data using Dataflow, and how to store processed records to BigQuery or Bigtable for analysis. Learners get hands-on experience building streaming data pipeline components on Google Cloud by using QwikLabs.
In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.
This course explores how to leverage Looker to create data experiences and gain insights with modern business intelligence (BI) and reporting.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
Complete the intermediate Engineer Data for Predictive Modeling with BigQuery ML skill badge to demonstrate skills in the following: building data transformation pipelines to BigQuery using Dataprep by Trifacta; using Cloud Storage, Dataflow, and BigQuery to build extract, transform, and load (ETL) workflows; and building machine learning models using BigQuery ML.
This advanced-level quest is unique amongst the other catalog offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Data Engineer Certification. From Big Query, to Dataprep, to Cloud Composer, this quest is composed of specific labs that will put your Google Cloud data engineering knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, you will need other preparation, too. The exam is quite challenging and external studying, experience, and/or background in cloud data engineering is recommended. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of the Engineer Data in the Google Cloud to receive an exclusive Google Cloud digital badge.
The two key components of any data pipeline are data lakes and warehouses. This course highlights use-cases for each type of storage and dives into the available data lake and warehouse solutions on Google Cloud in technical detail. Also, this course describes the role of a data engineer, the benefits of a successful data pipeline to business operations, and examines why data engineering should be done in a cloud environment. This is the first course of the Data Engineering on Google Cloud series. After completing this course, enroll in the Building Batch Data Pipelines on Google Cloud course.
This course provided technical training in Google Cloud Dataflow, the foundational pillar of Google Cloud's streaming analytics solution. This training is intended for Google Cloud technical experts that are looking to further their understanding of Dataflow to advance sales-related technical evaluations, customer implementations, technical support, and data processing applications. This course explores topics related to Dataflow, including: Apache Beam SDK Google Cloud Dataflow Runner Autoscaling Logic Sources / Sinks Schemas / Dataflow SQL Dynamic Work RebalancingMonitoring, Troubleshooting, and Optimization Testing and CI/CD
Complete the intermediate Build a Data Warehouse with BigQuery skill badge to demonstrate skills in the following: joining data to create new tables, troubleshooting joins, appending data with unions, creating date-partitioned tables, and working with JSON, arrays, and structs in BigQuery. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the skill badge course, and final assessment challenge lab, to receive a digital badge that you can share with your network.
Welcome Gamers! Learn BigQuery and Cloud SQL, all while having fun! You will compete to see who can finish the game with the highest score. Earn the points by completing the steps in the lab.... and get bonus points for speed! Be sure to click "End" when you're done with each lab to get the maximum points. All players will be awarded the game badge.