Olona Xhakana
Participante desde 2024
Liga Diamante
85496 pontos
Participante desde 2024
"Noções básicas do Google Cloud: infraestrutura principal" é uma apresentação da terminologia e de conceitos importantes para trabalhar com o Google Cloud. Usando vídeos e laboratórios práticos, o curso apresenta e compara vários serviços de armazenamento e computação do Google Cloud, além de ferramentas importantes para o gerenciamento de políticas e recursos.
As tecnologias de nuvem podem agregar muito valor a uma organização e, ao combinar esse poder com dados, o potencial de crescer e criar novas experiências para os clientes é ainda maior. O curso "Como é feita a transformação de dados com o Google Cloud" mostra como os dados agregam valor às organizações e como o Google Cloud torna esses dados eficientes e acessíveis. Este curso, que faz parte do programa de aprendizado do Líder digital do Cloud, se destina às pessoas que querem crescer na profissão e construir o futuro da empresa.
As pessoas estão muito animadas com a tecnologia de nuvem e a transformação digital, mas também ainda têm muitas dúvidas. Exemplo: O que é a tecnologia de nuvem? O que significa transformação digital? Como a tecnologia de nuvem pode ajudar sua organização? Por onde começar? Se você já se questionou sobre isso, veio ao lugar certo. Este curso fornece uma visão geral dos tipos de oportunidades e desafios que as empresas encaram em suas jornadas de transformação digital. Se quiser saber mais sobre tecnologia de nuvem para se destacar no trabalho e ajudar a construir o futuro da sua empresa, este curso introdutório sobre transformação digital é para você. Este curso faz parte do programa de aprendizado do Líder digital do Cloud.
Ganhe um selo de habilidade ao concluir o curso Introdução ao Pub/Sub, onde você aprende a usar o Pub/Sub com o console do Cloud. Além disso, você descobre como os jobs do Cloud Scheduler podem economizar seu esforço, e quando o Pub/Sub Lite pode economizar seu dinheiro na ingestão de eventos de alto volume.
In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.
Conquiste o selo de habilidade intermediário ao concluir o curso Como criar e implantar soluções de machine learning na Vertex AI. Nele você aprenderá a usar a plataforma Vertex AI, o AutoML e os serviços de treinamento personalizados para treinar, avaliar, ajustar, explicar e implantar modelos de machine learning. Esse curso com selo de habilidade é destinado a cientistas de dados e engenheiros de machine learning. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência com os produtos e serviços do Cloud e comprovam sua habilidade de aplicar seu conhecimento em um ambiente prático e interativo. Conclua o curso com selo de habilidade e o laboratório com desafio da avaliação final para receber um selo digital que pode ser compartilhado com sua rede.
Conclua o selo de habilidade intermediário Criar modelos de ML com o BigQuery ML para mostrar que você sabe: criar e avaliar modelos de machine learning usando o BigQuery ML para fazer previsões de dados. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência com os produtos e serviços do Cloud e comprovam a habilidade de aplicar seu conhecimento em um ambiente prático e interativo. Conclua este curso e o laboratório com desafio da avaliação final para receber um selo de habilidade que pode ser compartilhado com seus contatos.
Neste curso, apresentamos conceitos de IA responsável e princípios de IA. Ele contém técnicas para identificar e reduzir o viés e aplicar a imparcialidade nas práticas de ML/IA. Vamos abordar ferramentas e métodos práticos para implementar as práticas recomendadas de IA responsável usando produtos do Google Cloud e ferramentas de código aberto.
Este curso apresenta tópicos importantes sobre privacidade e segurança da IA. Ele também aborda recursos e métodos úteis para implementar práticas recomendadas de privacidade e segurança da IA com o uso de produtos do Google Cloud e ferramentas de código aberto.
Os aplicativos de IA generativa proporcionam novas experiências de usuário que eram quase impossíveis antes da invenção dos modelos de linguagem grandes (LLMs). Ao desenvolver aplicativos, como você pode usar a IA generativa para criar apps potentes e interativos no Google Cloud? Neste curso, você vai conhecer os aplicativos de IA generativa e aprender a usar o design de comandos e a geração aumentada de recuperação (RAG) para criar apps avançados com a ajuda dos LLMs. Você também vai saber o que é a arquitetura pronta para produção, usada nos aplicativos de IA generativa, e vai criar um aplicativo de chat com base em RAG e LLM.
Neste curso, apresentamos os conceitos de interpretabilidade e transparência em IA. Vamos abordar a importância da transparência em IA para desenvolvedores e engenheiros. O curso também abrange ferramentas e métodos práticos para ajudar a alcançar a interpretabilidade e a transparência em dados e modelos de IA.
Este curso é uma introdução aos Notebooks da Vertex AI, que são ambientes baseados em notebooks do Jupyter. Eles fornecem uma plataforma unificada para todo o fluxo de trabalho de machine learning, desde a preparação de dados até a implantação e monitoramento de modelos. Tópicos do curso: (1) Diferentes tipos de Notebooks da Vertex AI e os recursos deles e (2) Como criar e gerenciar Notebooks da Vertex AI.
Neste curso, profissionais de machine learning vão conhecer as principais ferramentas, técnicas e práticas recomendadas para avaliar modelos de IA generativa e preditiva. Essa avaliação é muito importante para garantir que os sistemas de ML produzam resultados confiáveis, precisos e de alto desempenho na produção. Os participantes vão entender em detalhes as várias métricas e metodologias de avaliação, além da aplicação correta delas em diferentes tarefas e tipos de modelo. O foco do curso está nos desafios específicos dos modelos de IA generativa e nas estratégias para lidar com eles de forma eficaz. Usando a plataforma Vertex AI do Google Cloud, os participantes vão aprender a implementar processos robustos de avaliação para selecionar e otimizar os modelos, com monitoramento contínuo.
Este é um curso de microlearning de nível introdutório que explica o que são modelos de linguagem grandes (LLM), os casos de uso em que podem ser aplicados e como é possível fazer o ajuste de comandos para aprimorar o desempenho dos LLMs. O curso também aborda as ferramentas do Google que ajudam a desenvolver seus próprios apps de IA generativa.
O objetivo desse curso é equipar você com o conhecimento e as ferramentas necessários para resolver os desafios enfrentados por equipes de MLOps durante o desenvolvimento e gerenciamento de modelos de IA generativa. Também queremos mostrar como a Vertex AI ajuda equipes de IA a simplificar processos de MLOps e a alcançar o sucesso em projetos de IA generativa.
Este é um curso de microaprendizagem introdutório que busca explicar a IA generativa: o que é, como é usada e por que ela é diferente de métodos tradicionais de machine learning. O curso também aborda as ferramentas do Google que ajudam você a desenvolver apps de IA generativa.
Neste curso, os participantes vão conhecer as ferramentas de MLOps e as práticas recomendadas para a implantação, a avaliação, o monitoramento e a operação de sistemas de ML de produção no Google Cloud. MLOps é uma disciplina com foco na implantação, teste, monitoramento e automação de sistemas de ML em produção. Também incluímos experiências práticas de uso da ingestão de streaming do Vertex AI Feature Store na camada do SDK.
Neste curso, os participantes vão conhecer as ferramentas de MLOps e as práticas recomendadas para a implantação, a avaliação, o monitoramento e a operação de sistemas de ML de produção no Google Cloud. MLOps é uma disciplina com foco na implantação, no teste, no monitoramento e na automação de sistemas de ML em produção. Profissionais de engenharia de machine learning usam ferramentas para fazer melhorias contínuas e avaliações de modelos implantados. São profissionais que trabalham com ciências de dados e desenvolvem modelos para garantir a velocidade e o rigor na implantação de modelos com melhor desempenho.
Conquiste o selo de habilidade introdutório Prepare os dados para relatórios e dashboards do Looker para mostrar que você sabe: filtrar, ordenar e dinamizar dados; mesclar resultados de diferentes Análises do Looker; e usar funções e operadores para criar dashboards e relatórios do Looker para análise e visualização de dados.
O curso apresenta os benefícios de usar a Vertex AI Feature Store e ensina a melhorar a acurácia dos modelos de ML e a identificar as colunas de dados que apresentam os atributos mais úteis. Ele também oferece conteúdo teórico e laboratórios sobre engenharia de atributos com BigQuery ML, Keras e TensorFlow.
Este curso tem uma abordagem realista para o fluxo de trabalho de ML usando um estudo de caso em que uma equipe tem vários casos de uso e exigências comerciais em ML. Essa equipe precisa conhecer as ferramentas necessárias para a governança e o gerenciamento de dados e decidir a melhor abordagem para o processamento deles. A equipe terá três opções para criar modelos de ML em dois casos de uso. Neste curso, explicamos quando usar o AutoML, o BigQuery ML ou o treinamento personalizado para alcançar os objetivos.
Neste curso, vamos conhecer os componentes e as práticas recomendadas para criar sistemas de ML com alto desempenho em ambientes de produção. Vamos abordar algumas considerações comuns relacionadas à criação desses sistemas, como treinamento estático e dinâmico, inferência estática e dinâmica, TensorFlow distribuído e TPUs. O objetivo deste curso é conhecer as características de um sistema de ML eficiente, que vão muito além da capacidade de fazer boas previsões.
Este curso ensina a criar modelos de ML com o TensorFlow e o Keras, melhorar a acurácia deles e desenvolver modelos para uso em escala.
O curso começa com a seguinte discussão: como melhorar a qualidade dos dados e fazer uma análise exploratória deles? Descrevemos o AutoML na Vertex AI e como criar, treinar e implantar um modelo de ML sem escrever nenhuma linha de código. Você vai conhecer os benefícios do BigQuery ML. Depois vamos falar sobre como otimizar um modelo de machine learning (ML) e como a generalização e a amostragem podem ajudar na avaliação de qualidade dos modelos de ML em treinamentos personalizados.
Neste curso, apresentamos os recursos de IA e machine learning (ML) no Google Cloud que criam projetos de IA generativa e preditiva. Vamos conhecer as tecnologias, os produtos e as ferramentas disponíveis em todo o ciclo de vida de dados à IA, o que inclui os fundamentos dessa tecnologia, o desenvolvimento e as soluções dela. O objetivo é ajudar cientistas de dados, desenvolvedores de IA e engenheiros de ML a aprimorar habilidades e o conhecimento com experiências de aprendizado envolventes e exercícios práticos.
Neste curso, vamos conhecer o Gemini no BigQuery, um pacote de recursos com tecnologia de IA que auxilia no fluxo de trabalho de dados para inteligência artificial. Esses recursos incluem preparação e análise detalhada de dados, solução de problemas e geração de código, além da descoberta e visualização do fluxo de trabalho. Com explicações conceituais, um caso de uso prático e o laboratório, o curso ensina aos profissionais de dados como aumentar a produtividade e acelerar o pipeline de desenvolvimento.
Este curso demonstra como usar modelos de ML/IA para tarefas generativas no BigQuery. Nele, você vai conhecer o fluxo de trabalho para solucionar um problema comercial com modelos do Gemini utilizando um caso de uso prático que envolve gestão de relacionamento com o cliente. Para facilitar a compreensão, o curso também proporciona instruções detalhadas de soluções de programação que usam consultas SQL e notebooks Python.
Neste curso, vamos falar sobre a engenharia de dados no Google Cloud, os papéis e responsabilidades dos engenheiros de dados e como alinhá-los aos produtos do Google Cloud. Além disso, você aprenderá a lidar com os desafios da engenharia de dados.
Na segunda parte desta série, vamos nos aprofundar no desenvolvimento de pipelines usando o SDK do Beam. Primeiro, vamos conferir um resumo dos conceitos do Apache Beam. Depois disso, falaremos sobre como processar dados de streaming usando janelas, marcas d’água e gatilhos. Em seguida, vamos ver as opções de origens e coletores para seus pipelines, além de esquemas para expressar seus dados estruturados e como fazer transformações com estado usando as APIs State e Timer. A próxima tarefa será conferir as práticas recomendadas para maximizar o desempenho do pipeline. No final do curso, apresentaremos as APIs SQL e Dataframes, que representam sua lógica de negócios no Beam. Além disso, veremos como desenvolver pipelines de maneira iterativa usando os notebooks do Beam.
Conclua o selo de habilidade introdutório Como criar uma malha de dados com o Dataplex para mostrar sua capacidade de usar o Dataplex para criar uma malha de dados e assim facilitar a segurança, a governança e a descoberta de dados no Google Cloud. Você vai praticar e testar suas habilidades em aplicar tags a recursos, atribuir papéis do IAM e avaliar a qualidade dos dados no Dataplex.
Conclua o selo de habilidade intermediário Dados de engenharia para modelagem preditiva com o BigQuery ML para mostrar que você sabe: criar pipelines de transformação de dados no BigQuery usando o Dataprep by Trifacta; usar o Cloud Storage, o Dataflow e o BigQuery para criar fluxos de trabalho de extração, transformação e carregamento de dados (ELT); e criar modelos de machine learning usando o BigQuery ML.
Conclua o selo de habilidade intermediário Criar um data warehouse com o BigQuery para mostrar que você sabe mesclar dados para criar novas tabelas; solucionar problemas de mesclagens; adicionar dados ao final com uniões; criar tabelas particionadas por data; além de trabalhar com JSON, matrizes e structs no BigQuery. Os selos de habilidade são digitais e exclusivos. Eles são emitidos pelo Google Cloud como forma de reconhecer sua proficiência nos produtos e serviços do Cloud, comprovando sua capacidade de aplicar o conhecimento em um ambiente prático e interativo. Conclua o curso com selo de habilidade e o laboratório com desafio da avaliação final para receber uma certificação digital que você pode compartilhar com seus contatos.
Conquiste o selo de habilidade introdutório Preparar dados para APIs de ML no Google Cloud para demonstrar que você é capaz de: limpar dados com o Dataprep by Trifacta, executar pipelines de dados no Dataflow, criar clusters e executar jobs do Apache Spark no Dataproc e chamar APIs de ML, incluindo as APIs Cloud Natural Language, Google Cloud Speech-to-Text e Video Intelligence.
A incorporação de machine learning em pipelines de dados aumenta a capacidade de extrair insights dessas informações. Neste curso, mostramos as várias formas de incluir essa tecnologia em pipelines de dados do Google Cloud. Para casos de pouca ou nenhuma personalização, vamos falar sobre o AutoML. Para usar recursos de machine learning mais personalizados, vamos apresentar os Notebooks e o machine learning do BigQuery (BigQuery ML). No curso, você também vai aprender sobre a produção de soluções de machine learning usando a Vertex AI.
O processamento de dados de streaming é cada vez mais usado pelas empresas para gerar métricas sobre as operações comerciais em tempo real. Neste curso, você vai aprender a criar pipelines de dados de streaming no Google Cloud. O Pub/Sub é apresentado como a ferramenta para gerenciar dados de streaming de entrada. No curso, também abordamos a aplicação de agregações e transformações a dados de streaming usando o Dataflow, além de formas de armazenar registros processados no BigQuery ou no Bigtable para análise. Os participantes vão ganhar experiência prática na criação de componentes de pipelines de dados de streaming no Google Cloud usando o Qwiklabs.
Os pipelines de dados geralmente se encaixam em um desses três paradigmas: extração e carregamento (EL), extração, carregamento e transformação (ELT) ou extração, transformação e carregamento (ETL). Este curso descreve qual paradigma deve ser usado em determinadas situações e quando isso ocorre com dados em lote. Além disso, vamos falar sobre várias tecnologias no Google Cloud para transformação de dados, incluindo o BigQuery, a execução do Spark no Dataproc, gráficos de pipeline no Cloud Data Fusion e processamento de dados sem servidor com o Dataflow. Os participantes vão ganhar experiência prática na criação de componentes de pipelines de dados no Google Cloud usando o Qwiklabs.
Na última parte da série de cursos do Dataflow, vamos abordar os componentes do modelo operacional do Dataflow. Veremos ferramentas e técnicas para solucionar problemas e otimizar o desempenho do pipeline. Depois analisaremos as práticas recomendadas de teste, implantação e confiabilidade para pipelines do Dataflow. Por fim, faremos uma revisão dos modelos, que facilitam o escalonamento dos pipelines do Dataflow para organizações com centenas de usuários. Essas lições garantem que a plataforma de dados seja estável e resiliente a circunstâncias imprevistas.
Este é o primeiro de uma série de três cursos sobre processamento de dados sem servidor com o Dataflow. Nele, vamos relembrar o que é o Apache Beam e qual é a relação entre ele e o Dataflow. Depois, falaremos sobre a visão do Apache Beam e os benefícios do framework de portabilidade desse modelo de programação. Com esse processo, o desenvolvedor pode usar a linguagem de programação favorita com o back-end de execução que quiser. Em seguida, mostraremos como o Dataflow permite a separação entre a computação e o armazenamento para economizar dinheiro. Além disso, você vai aprender como as ferramentas de identidade, acesso e gerenciamento interagem com os pipelines do Dataflow. Por fim, vamos ver como implementar o modelo de segurança ideal para seu caso de uso no Dataflow.
Os dois principais componentes de um pipeline de dados são data lakes e warehouses. Neste curso, destacamos os casos de uso para cada tipo de armazenamento e as soluções de data lake e warehouse disponíveis no Google Cloud de forma detalhada e técnica. Além disso, também descrevemos o papel de um engenheiro de dados, os benefícios de um pipeline de dados funcional para operações comerciais e analisamos por que a engenharia de dados deve ser feita em um ambiente de nuvem. Este é o primeiro curso da série "Engenharia de dados no Google Cloud". Após a conclusão, recomendamos que você comece o curso "Como criar pipelines de dados em lote no Google Cloud".
Este curso ajuda estudantes a criar um plano de estudo para o exame de certificação PDE (Professional Data Engineer). É possível conferir a amplitude e o escopo dos domínios abordados no exame. Os estudantes também podem acompanhar os preparativos para o exame e criar planos de estudos individuais.