Sebastian Brückner
Participante desde 2021
Liga Prata
1815 pontos
Participante desde 2021
Quanto maior é o uso da inteligência artificial empresarial e do machine learning, mais importante é desenvolvê-los de maneira responsável. Para muitos, falar sobre a IA responsável pode ser mais fácil, mas colocá-la em prática é um desafio. Se você tem interesse em aprender a operacionalizar a IA responsável na sua organização, este curso é para você. Nele, você vai aprender como o Google Cloud faz isso hoje, além de analisar práticas recomendadas e lições aprendidas, a fim de criar uma base para elaborar sua própria abordagem de IA responsável.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
Neste curso, vamos conhecer o Vertex AI Studio, uma ferramenta para interagir com modelos de IA generativa, prototipar ideias comerciais e colocá-las em produção. Com a ajuda de um caso de uso imersivo, lições interessantes e um laboratório, você vai conhecer o ciclo de vida do comando à produção, além de usar o Vertex AI Studio para aplicativos multimodais do Gemini, design e engenharia de comandos e ajuste de modelos. O objetivo é permitir que você descubra todo o potencial da IA generativa nos seus projetos com o Vertex AI Studio.
Neste curso, ensinamos a criar um modelo de legenda para imagens usando aprendizado profundo. Você vai aprender sobre os diferentes componentes de um modelo de legenda para imagens, como o codificador e decodificador, e de que forma treinar e avaliar seu modelo. Ao final deste curso, você será capaz de criar e usar seus próprios modelos de legenda para imagens.
Este curso apresenta um resumo da arquitetura de codificador-decodificador, que é uma arquitetura de machine learning avançada e frequentemente usada para tarefas sequência para sequência (como tradução automática, resumo de textos e respostas a perguntas). Você vai conhecer os principais componentes da arquitetura de codificador-decodificador e aprender a treinar e disponibilizar esses modelos. No tutorial do laboratório relacionado, você vai codificar uma implementação simples da arquitetura de codificador-decodificador para geração de poesia desde a etapa inicial no TensorFlow.
Receba um selo de habilidade ao concluir os cursos "Introduction to Generative AI", "Introduction to Large Language Models" e "Introduction to Responsible AI". Consiga a aprovação nos testes finais dos cursos para demonstrar seu conhecimento sobre os conceitos básicos da IA generativa. Os selos de habilidades são digitais. Eles são emitidos pelo Google Cloud como forma de reconhecer sua capacidade de trabalhar com os produtos e serviços do Cloud. Torne seu perfil público e adicione os selos de habilidades às suas mídias sociais para mostrar seus conhecimentos.
Este é um curso de microaprendizagem introdutório que busca explicar a IA responsável: o que é, qual é a importância dela e como ela é aplicada nos produtos do Google. Ele também contém os 7 princípios de IA do Google.
Neste curso, apresentamos os modelos de difusão, uma família de modelos de machine learning promissora no campo da geração de imagens. Os modelos de difusão são baseados na física, mais especificamente na termodinâmica. Nos últimos anos, eles se popularizaram no setor e nas pesquisas. Esses modelos servem de base para ferramentas e modelos avançados de geração de imagem no Google Cloud. Este curso é uma introdução à teoria dos modelos de difusão e como eles devem ser treinados e implantados na Vertex AI.
This course provides partners the skills required to scope, design and deploy Document AI solutions for enterprise customers utilizing use-cases from both the procurement and lending arenas.
Este curso é uma introdução à arquitetura de transformador e ao modelo de Bidirectional Encoder Representations from Transformers (BERT, na sigla em inglês). Você vai aprender sobre os principais componentes da arquitetura de transformador, como o mecanismo de autoatenção, e como eles são usados para construir o modelo de BERT. Também vai conhecer as diferentes tarefas onde é possível usar o BERT, como classificação de texto, respostas a perguntas e inferência de linguagem natural. O curso leva aproximadamente 45 minutos.
Este curso é uma introdução ao mecanismo de atenção, uma técnica avançada que permite que as redes neurais se concentrem em partes específicas de uma sequência de entrada. Você vai entender como a atenção funciona e como ela pode ser usada para melhorar o desempenho de várias tarefas de machine learning (como tradução automática, resumo de texto e resposta a perguntas).
Este é um curso de microlearning de nível introdutório que explica o que são modelos de linguagem grandes (LLM), os casos de uso em que podem ser aplicados e como é possível fazer o ajuste de comandos para aprimorar o desempenho dos LLMs. O curso também aborda as ferramentas do Google que ajudam a desenvolver seus próprios apps de IA generativa.
Este é um curso de microaprendizagem introdutório que busca explicar a IA generativa: o que é, como é usada e por que ela é diferente de métodos tradicionais de machine learning. O curso também aborda as ferramentas do Google que ajudam você a desenvolver apps de IA generativa.
Get started with Go (Golang) by reviewing Go code, and then creating and deploying simple Go apps on Google Cloud. Go is an open source programming language that makes it easy to build fast, reliable, and efficient software at scale. Go runs native on Google Cloud, and is fully supported on Google Kubernetes Engine, Compute Engine, App Engine, Cloud Run, and Cloud Functions. Go is a compiled language and is faster and more efficient than interpreted languages. As a result, Go requires no installed runtime like Node, Python, or JDK to execute.
This course introduces you to fundamentals, practices, capabilities and tools applicable to modern cloud-native application development using Google Cloud Run. Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to on Google Cloud using Cloud Run.design, implement, deploy, secure, manage, and scale applications
Course Description:
Course Description:
Neste curso, os desenvolvedores de apps aprendem a criar e desenvolver aplicativos nativos da nuvem que se integram totalmente aos serviços gerenciados do Google Cloud. Com as apresentações, as demonstrações e os laboratórios práticos, os participantes vão aprender a aplicar as práticas recomendadas para o desenvolvimento de apps e usar os serviços do Google Cloud Storage específicos para objetos, dados relacionais, armazenamento em cache e análises de dados. É necessário concluir pelo menos uma versão de cada laboratório. Todos os laboratórios estão disponíveis em Node.js. A maioria deles também tem versões em Python ou Java. Use a linguagem que você preferir. Este é o primeiro curso da série "Developing Applications with Google Cloud". Depois de concluir este curso, inscreva-se no "Securing and Integrating Components of your Application".
In this course, you apply your knowledge of classification models and embeddings to build a ML pipeline that functions as a recommendation engine. This is the fifth and final course of the Advanced Machine Learning on Google Cloud series.
This course introduces the products and solutions to solve NLP problems on Google Cloud. Additionally, it explores the processes, techniques, and tools to develop an NLP project with neural networks by using Vertex AI and TensorFlow.
This course describes different types of computer vision use cases and then highlights different machine learning strategies for solving these use cases. The strategies vary from experimenting with pre-built ML models through pre-built ML APIs and AutoML Vision to building custom image classifiers using linear models, deep neural network (DNN) models or convolutional neural network (CNN) models. The course shows how to improve a model's accuracy with augmentation, feature extraction, and fine-tuning hyperparameters while trying to avoid overfitting the data. The course also looks at practical issues that arise, for example, when one doesn't have enough data and how to incorporate the latest research findings into different models. Learners will get hands-on practice building and optimizing their own image classification models on a variety of public datasets in the labs they will work on.
Neste curso, vamos conhecer os componentes e as práticas recomendadas para criar sistemas de ML com alto desempenho em ambientes de produção. Vamos abordar algumas considerações comuns relacionadas à criação desses sistemas, como treinamento estático e dinâmico, inferência estática e dinâmica, TensorFlow distribuído e TPUs. O objetivo deste curso é conhecer as características de um sistema de ML eficiente, que vão muito além da capacidade de fazer boas previsões.
One of the best ways to review something is to work with the concepts and technologies that you have learned. So, this course is set up as a workshop and in this workshop, you will do End-to-End Machine Learning with TensorFlow on Google Cloud Platform. It involves building an end-to-end model from data exploration all the way to deploying an ML model and getting predictions from it. This is the first course of the Advanced Machine Learning on Google Cloud series. After completing this course, enroll in the Production Machine Learning Systems course.
Este curso tem uma abordagem realista para o fluxo de trabalho de ML usando um estudo de caso em que uma equipe tem vários casos de uso e exigências comerciais em ML. Essa equipe precisa conhecer as ferramentas necessárias para a governança e o gerenciamento de dados e decidir a melhor abordagem para o processamento deles. A equipe terá três opções para criar modelos de ML em dois casos de uso. Neste curso, explicamos quando usar o AutoML, o BigQuery ML ou o treinamento personalizado para alcançar os objetivos.
Este curso ensina a criar modelos de ML com o TensorFlow e o Keras, melhorar a acurácia deles e desenvolver modelos para uso em escala.
O curso começa com a seguinte discussão: como melhorar a qualidade dos dados e fazer uma análise exploratória deles? Descrevemos o AutoML na Vertex AI e como criar, treinar e implantar um modelo de ML sem escrever nenhuma linha de código. Você vai conhecer os benefícios do BigQuery ML. Depois vamos falar sobre como otimizar um modelo de machine learning (ML) e como a generalização e a amostragem podem ajudar na avaliação de qualidade dos modelos de ML em treinamentos personalizados.
Quais são as práticas recomendadas para implementar machine learning no Google Cloud? O que é Vertex AI e como é possível usar a plataforma para criar, treinar e implantar modelos de machine learning do AutoML com rapidez e sem escrever nenhuma linha de código? O que é machine learning e que tipos de problema ele pode resolver? O Google pensa em machine learning de uma forma um pouco diferente. Para nós, o processo de ML é sobre fornecer uma plataforma unificada para conjuntos de dados gerenciados, como uma Feature Store, uma forma de criar, treinar e implantar modelos de machine learning sem escrever nenhuma linha de código. Além disso, o ML também é sobre a habilidade de rotular dados, criar notebooks do Workbench usando frameworks (como TensorFlow, SciKit Learn, Pytorch e R) e muito mais. A plataforma Vertex AI também inclui a possibilidade de treinar modelos personalizados, criar pipelines de componente e realizar previsões em lote e on-line. Também falamos sobre as cinco fas…
Este curso ajuda estudantes a criar um plano de estudo para o exame de certificação PDE (Professional Data Engineer). É possível conferir a amplitude e o escopo dos domínios abordados no exame. Os estudantes também podem acompanhar os preparativos para o exame e criar planos de estudos individuais.
Conquiste o selo de habilidade Implementar o balanceamento de carga no Compute Engine para demonstrar que você é capaz de: escrever comandos gcloud, usar o Cloud Shell, criar e implantar máquinas virtuais no Compute Engine e configurar balanceadores de carga HTTP e de rede. Um selo de habilidade é um selo digital exclusivo emitido pelo Google Cloud como forma de reconhecer sua proficiência com os produtos e serviços do Cloud, comprovando sua capacidade de aplicar o conhecimento em um ambiente prático e interativo. Complete esse curso e o laboratório com desafio da avaliação final para receber o selo de habilidade que pode ser compartilhado com seus contatos.
Na segunda parte desta série, vamos nos aprofundar no desenvolvimento de pipelines usando o SDK do Beam. Primeiro, vamos conferir um resumo dos conceitos do Apache Beam. Depois disso, falaremos sobre como processar dados de streaming usando janelas, marcas d’água e gatilhos. Em seguida, vamos ver as opções de origens e coletores para seus pipelines, além de esquemas para expressar seus dados estruturados e como fazer transformações com estado usando as APIs State e Timer. A próxima tarefa será conferir as práticas recomendadas para maximizar o desempenho do pipeline. No final do curso, apresentaremos as APIs SQL e Dataframes, que representam sua lógica de negócios no Beam. Além disso, veremos como desenvolver pipelines de maneira iterativa usando os notebooks do Beam.
Este é o primeiro de uma série de três cursos sobre processamento de dados sem servidor com o Dataflow. Nele, vamos relembrar o que é o Apache Beam e qual é a relação entre ele e o Dataflow. Depois, falaremos sobre a visão do Apache Beam e os benefícios do framework de portabilidade desse modelo de programação. Com esse processo, o desenvolvedor pode usar a linguagem de programação favorita com o back-end de execução que quiser. Em seguida, mostraremos como o Dataflow permite a separação entre a computação e o armazenamento para economizar dinheiro. Além disso, você vai aprender como as ferramentas de identidade, acesso e gerenciamento interagem com os pipelines do Dataflow. Por fim, vamos ver como implementar o modelo de segurança ideal para seu caso de uso no Dataflow.
A incorporação de machine learning em pipelines de dados aumenta a capacidade de extrair insights dessas informações. Neste curso, mostramos as várias formas de incluir essa tecnologia em pipelines de dados do Google Cloud. Para casos de pouca ou nenhuma personalização, vamos falar sobre o AutoML. Para usar recursos de machine learning mais personalizados, vamos apresentar os Notebooks e o machine learning do BigQuery (BigQuery ML). No curso, você também vai aprender sobre a produção de soluções de machine learning usando a Vertex AI.
O processamento de dados de streaming é cada vez mais usado pelas empresas para gerar métricas sobre as operações comerciais em tempo real. Neste curso, você vai aprender a criar pipelines de dados de streaming no Google Cloud. O Pub/Sub é apresentado como a ferramenta para gerenciar dados de streaming de entrada. No curso, também abordamos a aplicação de agregações e transformações a dados de streaming usando o Dataflow, além de formas de armazenar registros processados no BigQuery ou no Bigtable para análise. Os participantes vão ganhar experiência prática na criação de componentes de pipelines de dados de streaming no Google Cloud usando o Qwiklabs.
Os pipelines de dados geralmente se encaixam em um desses três paradigmas: extração e carregamento (EL), extração, carregamento e transformação (ELT) ou extração, transformação e carregamento (ETL). Este curso descreve qual paradigma deve ser usado em determinadas situações e quando isso ocorre com dados em lote. Além disso, vamos falar sobre várias tecnologias no Google Cloud para transformação de dados, incluindo o BigQuery, a execução do Spark no Dataproc, gráficos de pipeline no Cloud Data Fusion e processamento de dados sem servidor com o Dataflow. Os participantes vão ganhar experiência prática na criação de componentes de pipelines de dados no Google Cloud usando o Qwiklabs.
Os dois principais componentes de um pipeline de dados são data lakes e warehouses. Neste curso, destacamos os casos de uso para cada tipo de armazenamento e as soluções de data lake e warehouse disponíveis no Google Cloud de forma detalhada e técnica. Além disso, também descrevemos o papel de um engenheiro de dados, os benefícios de um pipeline de dados funcional para operações comerciais e analisamos por que a engenharia de dados deve ser feita em um ambiente de nuvem. Este é o primeiro curso da série "Engenharia de dados no Google Cloud". Após a conclusão, recomendamos que você comece o curso "Como criar pipelines de dados em lote no Google Cloud".
Este curso apresenta os produtos e serviços de Big Data e machine learning do Google Cloud que auxiliam no ciclo de vida de dados para IA. Ele explica os processos, os desafios e os benefícios de criar um pipeline de Big Data e modelos de machine learning com a Vertex AI no Google Cloud.