가입 로그인

Georgii Zemlianyi

회원 가입일: 2023

실버 리그

42770포인트
Vertex AI로 머신러닝 작업(MLOps): 모델 평가 Earned 4월 8, 2025 EDT
생성형 AI를 위한 머신러닝 작업(MLOps) Earned 4월 8, 2025 EDT
Vertex AI Search for Commerce Earned 4월 8, 2025 EDT
BI Reporting: Looker Visualization on BigQuery Earned 1월 30, 2025 EST
Vertex AI로 머신러닝 작업(MLOps) 기능 관리 Earned 1월 28, 2025 EST
기업의 머신러닝 Earned 1월 28, 2025 EST
Google Cloud의 AI 및 머신러닝 소개 Earned 1월 27, 2025 EST
Google Cloud에서 Keras를 사용해 ML 모델을 빌드, 학습, 배포하기 Earned 1월 24, 2025 EST
Serverless Data Processing with Dataflow: Operations Earned 10월 28, 2024 EDT
프로덕션 머신러닝 시스템 Earned 8월 28, 2024 EDT
특성 추출 Earned 7월 27, 2024 EDT
Serverless Data Processing with Dataflow: Develop Pipelines Earned 4월 1, 2024 EDT
Serverless Data Processing with Dataflow: Foundations Earned 3월 16, 2024 EDT
Building Resilient Streaming Systems on Google Cloud Platform Earned 3월 11, 2024 EDT
Google Cloud로 데이터 레이크 및 데이터 웨어하우스 현대화하기 Earned 2월 26, 2024 EST
Data Lake Modernization on Google Cloud: Cloud Data Fusion Earned 1월 30, 2024 EST
Data Lake Modernization on Google Cloud Earned 1월 30, 2024 EST
Data Lake Modernization on Google Cloud: Migrate Workflows Earned 1월 21, 2024 EST
Data Lake Modernization on Google Cloud: Cloud Composer Earned 1월 19, 2024 EST
Data Lake Modernization on Google Cloud: Data Governance Earned 1월 19, 2024 EST
Data Lake Modernization on Google Cloud: Intro to Data Lakes Earned 1월 16, 2024 EST
Migrate Cloudera to Google Cloud Earned 1월 3, 2024 EST
Cloudera to Google Cloud Earned 11월 30, 2023 EST
인코더-디코더 아키텍처 Earned 5월 24, 2023 EDT
이미지 캡셔닝 모델 만들기 Earned 5월 24, 2023 EDT
이미지 생성 소개 Earned 5월 24, 2023 EDT
Transformer 모델 및 BERT 모델 Earned 5월 24, 2023 EDT
어텐션 메커니즘 Earned 5월 23, 2023 EDT
대규모 언어 모델 소개 Earned 5월 23, 2023 EDT
생성형 AI 소개 Earned 5월 23, 2023 EDT

이 과정은 머신러닝 실무자에게 생성형 AI 모델과 예측형 AI 모델을 평가하는 데 필요한 도구, 기술, 권장사항을 제공합니다. 모델 평가는 프로덕션 단계의 ML 시스템이 안정적이고 정확하고 성능이 우수한 결과를 제공할 수 있게 하는 중요한 분야입니다. 강의 참가자는 다양한 평가 측정항목, 방법, 각각 다른 모델 유형과 작업에 적합한 애플리케이션에 대해 깊이 있게 이해할 수 있습니다. 이 과정에서는 생성형 AI 모델의 고유한 문제를 강조하고 이를 효과적으로 해결하기 위한 전략을 소개합니다. 강의 참가자는 Google Cloud의 Vertex AI Platform을 활용해 모델 선택, 최적화, 지속적인 모니터링을 위한 견고한 평가 프로세스를 구현하는 방법을 알아볼 수 있습니다.

자세히 알아보기

이 과정에서는 생성형 AI 모델을 배포하고 관리할 때 MLOps팀이 직면하는 고유한 과제를 파악하는 데 필요한 지식과 도구를 제공하고 Vertex AI가 어떻게 AI팀이 MLOps 프로세스를 간소화하고 생성형 AI 프로젝트에서 성공을 거둘 수 있도록 지원하는지 살펴봅니다.

자세히 알아보기

This on-demand course provides partners the skills required to design, deploy, and monitor Vertail AI Search for Commerce solutions including retail search and recommendation AI for enterprise customers.

자세히 알아보기

This workload aims to upskill Google Cloud partners to perform specific tasks for modernization using LookML on BigQuery. A proof-of-concept will take learners through the process of creating LookML visualizations on BigQuery. During this course, learners will be guided specifically on how to write Looker modeling language, also known as LookML and create semantic data models, and learn how LookML constructs SQL queries against BigQuery. At a high level, this course will focus on basic LookML to create and access BigQuery objects, and optimize BigQuery objects with LookML.

자세히 알아보기

이 과정에서는 Google Cloud에서 프로덕션 ML 시스템을 배포, 평가, 모니터링, 운영하기 위한 MLOps 도구와 권장사항을 소개합니다. MLOps는 프로덕션에서 ML 시스템을 배포, 테스트, 모니터링, 자동화하는 방법론입니다. 학습자는 SDK 레이어에서 Vertex AI Feature Store의 스트리밍 수집을 사용하여 실습을 진행하게 됩니다.

자세히 알아보기

이 과정에서는 우수사례를 중심으로 ML 워크플로에 대한 실질적인 접근 방식을 취합니다. ML팀은 다양한 ML 비즈니스 요구사항과 사용 사례에 직면합니다. 팀에서는 데이터 관리 및 거버넌스에 필요한 도구를 이해하고 가장 효과적으로 데이터 전처리에 접근하는 방식을 파악해야 합니다. 두 가지 사용 사례를 위한 ML 모델을 빌드하는 세 가지 옵션이 팀에 제시됩니다. 이 과정에서는 목표를 달성하기 위해 AutoML, BigQuery ML 또는 커스텀 학습을 사용하는 이유를 설명합니다.

자세히 알아보기

이 과정에서는 예측 및 생성형 AI 프로젝트를 모두 빌드하는 Google Cloud 기반 AI 및 머신러닝(ML) 제품군을 소개합니다. AI 기반, 개발, 솔루션을 모두 포함하여 데이터에서 AI로 이어지는 수명 주기 전반에 걸쳐 사용할 수 있는 기술과 제품, 도구를 살펴봅니다. 이 과정의 목표는 흥미로운 학습 경험과 실제적인 실무형 실습을 통해 데이터 과학자, AI 개발자, ML 엔지니어의 기술 및 지식 역량 강화를 지원하는 것입니다.

자세히 알아보기

이 과정에서는 TensorFlow 및 Keras를 사용한 ML 모델 빌드, ML 모델의 정확성 개선, 사용 사례 확장을 위한 ML 모델 작성에 대해 다룹니다.

자세히 알아보기

In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.

자세히 알아보기

이 과정에서는 프로덕션 환경에서 고성능 ML 시스템을 빌드하기 위한 구성요소와 권장사항을 자세히 살펴봅니다. 정적 학습, 동적 학습, 정적 추론, 동적 추론, 분산 TensorFlow, TPU 등 고성능 ML 시스템 빌드와 관련된 일반적인 고려사항을 다룹니다. 이 과정에서는 정확한 예측 능력 외에도 양질의 ML 시스템을 만드는 특성을 탐구하는 데 중점을 둡니다.

자세히 알아보기

이 과정에서는 Vertex AI Feature Store 사용의 이점, ML 모델의 정확성을 개선하는 방법, 가장 유용한 특성을 만드는 데이터 열을 찾는 방법을 살펴봅니다. 이 과정에는 BigQuery ML, Keras, TensorFlow를 사용한 특성 추출에 관한 콘텐츠와 실습도 포함되어 있습니다.

자세히 알아보기

In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.

자세히 알아보기

This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.

자세히 알아보기

This 1-week, accelerated on-demand course builds upon Google Cloud Platform Big Data and Machine Learning Fundamentals. Through a combination of video lectures, demonstrations, and hands-on labs, you'll learn to build streaming data pipelines using Google cloud Pub/Sub and Dataflow to enable real-time decision making. You will also learn how to build dashboards to render tailored output for various stakeholder audiences.

자세히 알아보기

데이터 파이프라인의 두 가지 주요 구성요소는 데이터 레이크와 웨어하우스입니다. 이 과정에서는 스토리지 유형별 사용 사례를 살펴보고 Google Cloud에서 사용 가능한 데이터 레이크 및 웨어하우스 솔루션을 기술적으로 자세히 설명합니다. 또한 데이터 엔지니어의 역할, 성공적인 데이터 파이프라인이 비즈니스 운영에 가져오는 이점, 클라우드 환경에서 데이터 엔지니어링을 수행해야 하는 이유도 알아봅니다. 'Google Cloud의 데이터 엔지니어링' 시리즈의 첫 번째 과정입니다. 이 과정을 완료한 후 'Google Cloud에서 일괄 데이터 파이프라인 빌드하기' 과정에 등록하세요.

자세히 알아보기

Welcome to Cloud Data Fusion, where we discuss how to use Cloud Data Fusion to build complex data pipelines.

자세히 알아보기

This course focuses on how you can bring your on-premises data lakes and workloads to Google Cloud to unlock cost savings and scale.

자세히 알아보기

Welcome to Migrate Workflows, where we discuss how to migrate Spark and Hadoop tasks and workflows to Google Cloud.

자세히 알아보기

Welcome to Cloud Composer, where we discuss how to orchestrate data lake workflows with Cloud Composer.

자세히 알아보기

Welcome to Data Governance, where we discuss how to implement data governance on Google Cloud.

자세히 알아보기

Welcome to Intro to Data Lakes, where we discuss how to create a scalable and secure data lake on Google Cloud that allows enterprises to ingest, store, process, and analyze any type or volume of full fidelity data.

자세히 알아보기

This skill badge aims to evaluate a partner's ability to migrate data from Cloudera to Google Cloud Platform. Learners will gain hands-on experience through labs and achieve comprehensive knowledge and practical skills for migrating data from Cloudera to Google Cloud Platform.

자세히 알아보기

This workload aims to upskill Google Cloud partners to perform specific tasks associated with priority workloads. Learners will perform the tasks of migrating data from five products hosted on Cloudera or Hortonworks to corresponding Google Cloud services and hosted products. The migration solutions addressed will be: HDFS data to Google Cloud Dataproc and Cloud Storage Hive data to Cloud Dataproc and the Cloud Dataproc Metastore Hive data to Google Cloud BigQuery Impala data to Google Cloud BigQuery HBase to Google Cloud Bigtable Sample data will be used during all five migrations. Learners will complete several labs that focus on the process of transferring schema, data and related processes to corresponding Google Cloud products.There will be one or more challenge labs that will test the learners understanding of the topics.

자세히 알아보기

이 과정은 기계 번역, 텍스트 요약, 질의 응답과 같은 시퀀스-투-시퀀스(Seq2Seq) 작업에 널리 사용되는 강력한 머신러닝 아키텍처인 인코더-디코더 아키텍처에 대한 개요를 제공합니다. 인코더-디코더 아키텍처의 기본 구성요소와 이러한 모델의 학습 및 서빙 방법에 대해 알아봅니다. 해당하는 실습 둘러보기에서는 TensorFlow에서 시를 짓는 인코더-디코더 아키텍처를 처음부터 간단하게 구현하는 코딩을 해봅니다.

자세히 알아보기

이 과정에서는 딥 러닝을 사용해 이미지 캡션 모델을 만드는 방법을 알아봅니다. 인코더 및 디코더와 모델 학습 및 평가 방법 등 이미지 캡션 모델의 다양한 구성요소에 대해 알아봅니다. 이 과정을 마치면 자체 이미지 캡션 모델을 만들고 이를 사용해 이미지의 설명을 생성할 수 있게 됩니다.

자세히 알아보기

이 과정에서는 최근 이미지 생성 분야에서 가능성을 보여준 머신러닝 모델 제품군인 확산 모델을 소개합니다. 확산 모델은 열역학을 비롯한 물리학에서 착안했습니다. 지난 몇 년 동안 확산 모델은 연구계와 업계 모두에서 주목을 받았습니다. 확산 모델은 Google Cloud의 다양한 최신 이미지 생성 모델과 도구를 뒷받침합니다. 이 과정에서는 확산 모델의 이론과 Vertex AI에서 이 모델을 학습시키고 배포하는 방법을 소개합니다.

자세히 알아보기

이 과정은 Transformer 아키텍처와 BERT(Bidirectional Encoder Representations from Transformers) 모델을 소개합니다. 셀프 어텐션 메커니즘 같은 Transformer 아키텍처의 주요 구성요소와 이 아키텍처가 BERT 모델 빌드에 사용되는 방식에 관해 알아봅니다. 또한 텍스트 분류, 질문 답변, 자연어 추론과 같이 BERT를 활용할 수 있는 다양한 작업에 대해서도 알아봅니다. 이 과정은 완료하는 데 대략 45분이 소요됩니다.

자세히 알아보기

이 과정에서는 신경망이 입력 시퀀스의 특정 부분에 집중할 수 있도록 하는 강력한 기술인 주목 메커니즘을 소개합니다. 주목 메커니즘의 작동 방식과 이 메커니즘을 다양한 머신러닝 작업(기계 번역, 텍스트 요약, 질문 답변 등)의 성능을 개선하는 데 활용하는 방법을 알아봅니다.

자세히 알아보기

이 과정은 입문용 마이크로 학습 과정으로, 대규모 언어 모델(LLM)이란 무엇이고, LLM을 활용할 수 있는 사용 사례로는 어떤 것이 있으며, 프롬프트 조정을 사용해 LLM 성능을 개선하는 방법은 무엇인지 알아봅니다. 또한 자체 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.

자세히 알아보기

생성형 AI란 무엇이고 어떻게 사용하며 전통적인 머신러닝 방법과는 어떻게 다른지 설명하는 입문용 마이크로 학습 과정입니다. 직접 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.

자세히 알아보기