This course will teach you how to build conversational experiences for Conversational Agents using Generative Playbooks. You'll start with an introduction to playbooks and learn how to set up your first one. You'll also learn about the importance of testing, as well as key production considerations like quota limits and integration. The course concludes with a case study that shows how to use playbooks for generative steering.
Com o Agentspace, você aproveita o melhor do Google em pesquisa e IA. Ele é uma ferramenta empresarial que ajuda as pessoas a encontrar informações específicas em documentos armazenados, e-mails, chats, sistemas de emissão de tickets e outras fontes de dados, tudo em apenas uma barra de pesquisa. O assistente do Agentspace também ajuda a criar ideias, fazer pesquisas, estruturar documentos e realizar ações como convidar colegas para um evento da agenda, agilizando os trabalhos intelectuais e todos os tipos de colaboração.
Agentes de IA generativa: transforme sua organização é o quinto e último curso do programa de aprendizado de liderança em IA generativa. Nele, você aprende como as organizações podem usar agentes de IA generativa personalizados para enfrentar desafios específicos nos negócios. Você aprende na prática a construir um agente básico de IA generativa e quais são os componentes desses agentes, como modelos, ciclos de raciocínio e ferramentas.
Apps de IA generativa: transforme seu trabalho é o quarto curso do programa de aprendizado de liderança em IA Generativa. Esse curso apresenta os aplicativos de IA generativa do Google, como Gemini para Workspace e NotebookLM. Além disso, aborda conceitos como embasamento, geração aumentada de recuperação, construção de comandos eficazes e criação de fluxos de trabalho automatizados.
IA generativa: encare o cenário atual é o terceiro curso do programa de aprendizado de liderança em IA generativa. A IA generativa está mudando a forma como trabalhamos e interagimos com o mundo ao nosso redor. Mas, como líder, como aproveitar esse potencial para gerar resultados de negócios reais? Neste curso, você vai conhecer as diferentes camadas da criação de soluções de IA generativa, as ofertas do Google Cloud e os fatores a serem considerados ao selecionar uma solução.
IA generativa: conceitos básicos é o segundo curso do programa de aprendizado de liderança em IA generativa. Neste curso, você conhece os conceitos básicos da IA generativa, analisa as diferenças entre IA, ML e IA generativa, e aprende como vários tipos de dados possibilitam que a IA generativa lide com desafios de negócios. Além disso, aprende sobre as estratégias do Google Cloud para lidar com as limitações dos modelos de fundação e os principais desafios para o desenvolvimento e a implantação seguros e responsáveis da IA.
IA generativa: para além do chatbot é o primeiro curso do programa de aprendizado de liderança em IA generativa e não tem pré-requisitos. Este curso tem como objetivo ir além do conhecimento básico de chatbots para explorar o verdadeiro potencial da IA generativa para sua organização. Você aprenderá conceitos como modelos de fundação e engenharia de comando, que são cruciais para aproveitar o poder da IA generativa. O curso também aborda considerações importantes ao desenvolver uma estratégia de IA generativa de sucesso para a organização.
Neste curso, vamos falar sobre a engenharia de dados no Google Cloud, os papéis e responsabilidades dos engenheiros de dados e como alinhá-los aos produtos do Google Cloud. Além disso, você aprenderá a lidar com os desafios da engenharia de dados.
Este curso demonstra como usar modelos de ML/IA para tarefas generativas no BigQuery. Nele, você vai conhecer o fluxo de trabalho para solucionar um problema comercial com modelos do Gemini utilizando um caso de uso prático que envolve gestão de relacionamento com o cliente. Para facilitar a compreensão, o curso também proporciona instruções detalhadas de soluções de programação que usam consultas SQL e notebooks Python.
Neste curso, vamos conhecer o Gemini no BigQuery, um pacote de recursos com tecnologia de IA que auxilia no fluxo de trabalho de dados para inteligência artificial. Esses recursos incluem preparação e análise detalhada de dados, solução de problemas e geração de código, além da descoberta e visualização do fluxo de trabalho. Com explicações conceituais, um caso de uso prático e o laboratório, o curso ensina aos profissionais de dados como aumentar a produtividade e acelerar o pipeline de desenvolvimento.
Conclua o selo de habilidade introdutório Como criar uma malha de dados com o Dataplex para mostrar sua capacidade de usar o Dataplex para criar uma malha de dados e assim facilitar a segurança, a governança e a descoberta de dados no Google Cloud. Você vai praticar e testar suas habilidades em aplicar tags a recursos, atribuir papéis do IAM e avaliar a qualidade dos dados no Dataplex.
Conclua o selo de habilidade intermediário Dados de engenharia para modelagem preditiva com o BigQuery ML para mostrar que você sabe: criar pipelines de transformação de dados no BigQuery usando o Dataprep by Trifacta; usar o Cloud Storage, o Dataflow e o BigQuery para criar fluxos de trabalho de extração, transformação e carregamento de dados (ELT); e criar modelos de machine learning usando o BigQuery ML.
Conclua o selo de habilidade intermediário Criar um data warehouse com o BigQuery para mostrar que você sabe mesclar dados para criar novas tabelas; solucionar problemas de mesclagens; adicionar dados ao final com uniões; criar tabelas particionadas por data; além de trabalhar com JSON, matrizes e structs no BigQuery. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência nos produtos e serviços do Cloud, comprovando sua capacidade de aplicar o conhecimento em um ambiente prático e interativo. Conclua o curso com selo de habilidade e o laboratório com desafio da avaliação final para receber uma certificação digital que você pode compartilhar com seus contatos.
Conquiste o selo de habilidade introdutório Preparar dados para APIs de ML no Google Cloud para demonstrar que você é capaz de: limpar dados com o Dataprep by Trifacta, executar pipelines de dados no Dataflow, criar clusters e executar jobs do Apache Spark no Dataproc e chamar APIs de ML, incluindo as APIs Cloud Natural Language, Google Cloud Speech-to-Text e Video Intelligence.
Na última parte da série de cursos do Dataflow, vamos abordar os componentes do modelo operacional do Dataflow. Veremos ferramentas e técnicas para solucionar problemas e otimizar o desempenho do pipeline. Depois analisaremos as práticas recomendadas de teste, implantação e confiabilidade para pipelines do Dataflow. Por fim, faremos uma revisão dos modelos, que facilitam o escalonamento dos pipelines do Dataflow para organizações com centenas de usuários. Essas lições garantem que a plataforma de dados seja estável e resiliente a circunstâncias imprevistas.
Na segunda parte desta série, vamos nos aprofundar no desenvolvimento de pipelines usando o SDK do Beam. Primeiro, vamos conferir um resumo dos conceitos do Apache Beam. Depois disso, falaremos sobre como processar dados de streaming usando janelas, marcas d’água e gatilhos. Em seguida, vamos ver as opções de origens e coletores para seus pipelines, além de esquemas para expressar seus dados estruturados e como fazer transformações com estado usando as APIs State e Timer. A próxima tarefa será conferir as práticas recomendadas para maximizar o desempenho do pipeline. No final do curso, apresentaremos as APIs SQL e Dataframes, que representam sua lógica de negócios no Beam. Além disso, veremos como desenvolver pipelines de maneira iterativa usando os notebooks do Beam.
Este é o primeiro de uma série de três cursos sobre processamento de dados sem servidor com o Dataflow. Nele, vamos relembrar o que é o Apache Beam e qual é a relação entre ele e o Dataflow. Depois, falaremos sobre a visão do Apache Beam e os benefícios do framework de portabilidade desse modelo de programação. Com esse processo, o desenvolvedor pode usar a linguagem de programação favorita com o back-end de execução que quiser. Em seguida, mostraremos como o Dataflow permite a separação entre a computação e o armazenamento para economizar dinheiro. Além disso, você vai aprender como as ferramentas de identidade, acesso e gerenciamento interagem com os pipelines do Dataflow. Por fim, vamos ver como implementar o modelo de segurança ideal para seu caso de uso no Dataflow.
A incorporação de machine learning em pipelines de dados aumenta a capacidade de extrair insights dessas informações. Neste curso, mostramos as várias formas de incluir essa tecnologia em pipelines de dados do Google Cloud. Para casos de pouca ou nenhuma personalização, vamos falar sobre o AutoML. Para usar recursos de machine learning mais personalizados, vamos apresentar os Notebooks e o machine learning do BigQuery (BigQuery ML). No curso, você também vai aprender sobre a produção de soluções de machine learning usando a Vertex AI.
O processamento de dados de streaming é cada vez mais usado pelas empresas para gerar métricas sobre as operações comerciais em tempo real. Neste curso, você vai aprender a criar pipelines de dados de streaming no Google Cloud. O Pub/Sub é apresentado como a ferramenta para gerenciar dados de streaming de entrada. No curso, também abordamos a aplicação de agregações e transformações a dados de streaming usando o Dataflow, além de formas de armazenar registros processados no BigQuery ou no Bigtable para análise. Os participantes vão ganhar experiência prática na criação de componentes de pipelines de dados de streaming no Google Cloud usando o Qwiklabs.
Neste breve curso sobre a integração de aplicativos com os modelos Gemini 1.0 Pro no Google Cloud você vai conhecer a API Gemini e os modelos de IA generativa dela. Você vai aprender a acessar os modelos Gemini 1.0 Pro e Gemini 1.0 Pro Vision usando código e testar os recursos dos modelos usando comandos de texto, imagem e vídeo em um app.
Conclua o treinamento e receba o selo de habilidade introdutório de "Criação de aplicativos de IA no mundo real com o Gemini e o Imagen". Com ele, você vai ser capaz de demonstrar as seguintes competências: reconhecimento de imagens, processamento de linguagem natural, geração de imagens usando os modelos avançados do Gemini e Imagen do Google e implantação de aplicativos na plataforma Vertex AI.
Os pipelines de dados geralmente se encaixam em um desses três paradigmas: extração e carregamento (EL), extração, carregamento e transformação (ELT) ou extração, transformação e carregamento (ETL). Este curso descreve qual paradigma deve ser usado em determinadas situações e quando isso ocorre com dados em lote. Além disso, vamos falar sobre várias tecnologias no Google Cloud para transformação de dados, incluindo o BigQuery, a execução do Spark no Dataproc, gráficos de pipeline no Cloud Data Fusion e processamento de dados sem servidor com o Dataflow. Os participantes vão ganhar experiência prática na criação de componentes de pipelines de dados no Google Cloud usando o Qwiklabs.
Conclua o selo de habilidade intermediário Implantar aplicativos do Kubernetes no Google Cloud para demonstrar que você é capaz de: configurar e criar imagens de contêiner do Docker, criar e gerenciar clusters do Google Kubernetes Engine (GKE), utilizar o kubectl para o gerenciamento eficiente de clusters e implantar aplicativos do Kubernetes com a prática de entrega contínua (CD).
Os dois principais componentes de um pipeline de dados são data lakes e warehouses. Neste curso, destacamos os casos de uso para cada tipo de armazenamento e as soluções de data lake e warehouse disponíveis no Google Cloud de forma detalhada e técnica. Além disso, também descrevemos o papel de um engenheiro de dados, os benefícios de um pipeline de dados funcional para operações comerciais e analisamos por que a engenharia de dados deve ser feita em um ambiente de nuvem. Este é o primeiro curso da série "Engenharia de dados no Google Cloud". Após a conclusão, recomendamos que você comece o curso "Como criar pipelines de dados em lote no Google Cloud".
Este curso ajuda estudantes a criar um plano de estudo para o exame de certificação PDE (Professional Data Engineer). É possível conferir a amplitude e o escopo dos domínios abordados no exame. Os estudantes também podem acompanhar os preparativos para o exame e criar planos de estudos individuais.