로드 중...
검색 결과가 없습니다.
LinkedIn 피드에서 공유 Twitter Facebook

Professional Data Engineer Certification Learning Path

school 활동 15개
update 최종 업데이트: 7개월
person 관리: Google Cloud Partners

This learning path guides you through a curated collection of on-demand courses, labs, and skill badges that provide you with real-world, hands-on experience using Google Cloud technologies essential to the Data Engineer role. Once you complete the path, check out the Google Cloud Data Engineer certification to take the next steps in your professional journey.

You can follow this learning path at your own pace but other learning options are available which give you the opportunity to earn a no-cost certification exam voucher. If you’d like to continue on-demand visit Partner Certification Kickstart. If you’re interested in a hybrid learning approach visit Partner Certification Academy.

학습 과정 시작
Preparing for your Professional Data Engineer Journey 활동 썸네일
01 Preparing for your Professional Data Engineer Journey
book 과정
access_time 5시간
show_chart 고급

This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.

과정 시작하기
Google Cloud의 데이터 엔지니어링 입문 활동 썸네일
02 Google Cloud의 데이터 엔지니어링 입문
book 과정
access_time 9시간 30분
show_chart 입문

이 과정에서는 Google Cloud의 데이터 엔지니어링, 데이터 엔지니어의 역할과 책임, 그리고 이러한 요소가 Google Cloud 제공 서비스와 어떻게 연결되는지에 대해 알아봅니다. 또한 데이터 엔지니어링 과제를 해결하는 방법에 대해서도 배우게 됩니다.

과정 시작하기
Google Cloud로 데이터 레이크 및 데이터 웨어하우스 현대화하기 활동 썸네일
03 Google Cloud로 데이터 레이크 및 데이터 웨어하우스 현대화하기
book 과정
access_time 8시간
show_chart 중급

데이터 파이프라인의 두 가지 주요 구성요소는 데이터 레이크와 웨어하우스입니다. 이 과정에서는 스토리지 유형별 사용 사례를 살펴보고 Google Cloud에서 사용 가능한 데이터 레이크 및 웨어하우스 솔루션을 기술적으로 자세히 설명합니다. 또한 데이터 엔지니어의 역할, 성공적인 데이터 파이프라인이 비즈니스 운영에 가져오는 이점, 클라우드...

과정 시작하기
Google Cloud에서 일괄 데이터 파이프라인 빌드하기 활동 썸네일
04 Google Cloud에서 일괄 데이터 파이프라인 빌드하기
book 과정
access_time 13시간
show_chart 중급

데이터 파이프라인은 일반적으로 추출-로드(EL), 추출-로드-변환(ELT) 또는 추출-변환-로드(ETL) 패러다임 중 하나에 속합니다. 이 과정에서는 일괄 데이터에 사용해야 할 패러다임과 사용 시기에 대해 설명합니다. 또한 BigQuery, Dataproc에서의 Spark 실행, Cloud Data Fusion의 파이프라인 그래프, Dataflow를 사용한 서버리스 데이터 처리 등 데이터 변환을...

과정 시작하기
Google Cloud 기반 복원력이 우수한 스트리밍 분석 시스템 구축하기 활동 썸네일
05 Google Cloud 기반 복원력이 우수한 스트리밍 분석 시스템 구축하기
book 과정
access_time 12시간 15분
show_chart 중급

스트리밍을 통해 비즈니스 운영에 대한 실시간 측정항목을 얻을 수 있게 되면서 스트리밍 데이터 처리의 사용이 늘고 있습니다. 이 과정에서는 Google Cloud에서 스트리밍 데이터 파이프라인을 빌드하는 방법을 다룹니다. 수신되는 스트리밍 데이터 처리와 관련해 Pub/Sub를 설명합니다. 이 과정에서는 Dataflow를 사용해 집계 및...

과정 시작하기
Smart Analytics, Machine Learning, and AI on Google Cloud - 한국어 활동 썸네일
06 Smart Analytics, Machine Learning, and AI on Google Cloud - 한국어
book 과정
access_time 24시간
show_chart 중급

머신러닝을 데이터 파이프라인에 통합하면 데이터에서 더 많은 인사이트를 도출할 수 있습니다. 이 과정에서는 머신러닝을 Google Cloud의 데이터 파이프라인에 포함하는 방법을 알아봅니다. 맞춤설정이 거의 또는 전혀 필요 없는 경우에 적합한 AutoML에 대해 알아보고 맞춤형 머신러닝 기능이 필요한 경우를 위해 Notebooks 및...

과정 시작하기
Serverless Data Processing with Dataflow: Foundations 활동 썸네일
07 Serverless Data Processing with Dataflow: Foundations
book 과정
access_time 3시간
show_chart 중급

This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache...

과정 시작하기
Serverless Data Processing with Dataflow: Develop Pipelines 활동 썸네일
08 Serverless Data Processing with Dataflow: Develop Pipelines
book 과정
access_time 21시간
show_chart 고급

In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows,...

과정 시작하기
Serverless Data Processing with Dataflow: Operations 활동 썸네일
09 Serverless Data Processing with Dataflow: Operations
book 과정
access_time 14시간 45분
show_chart 고급

In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best...

과정 시작하기
Google Cloud에서 ML API용으로 데이터 준비하기 활동 썸네일
10 Google Cloud에서 ML API용으로 데이터 준비하기
book 과정
access_time 5시간
show_chart 입문

초급 Google Cloud에서 ML API용으로 데이터 준비하기 기술 배지를 완료하여 Dataprep by Trifacta로 데이터 정리, Dataflow에서 데이터 파이프라인 실행, Dataproc에서 클러스터 생성 및 Apache Spark 작업 실행, Cloud Natural Language API, Google Cloud Speech-to-Text API, Video Intelligence API를 포함한 ML...

과정 시작하기
BigQuery로 데이터 웨어하우스 빌드 활동 썸네일
11 BigQuery로 데이터 웨어하우스 빌드
book 과정
access_time 5시간 15분
show_chart 중급

중급 BigQuery로 데이터 웨어하우스 빌드 기술 배지를 완료하여 데이터를 조인하여 새 테이블 만들기, 조인 관련 문제 해결, 합집합으로 데이터 추가, 날짜로 파티션을 나눈 테이블 만들기, BigQuery에서 JSON, 배열, 구조체 작업하기와 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및...

과정 시작하기
BigQuery ML을 사용한 예측 모델링을 위한 데이터 엔지니어링 활동 썸네일
12 BigQuery ML을 사용한 예측 모델링을 위한 데이터 엔지니어링
book 과정
access_time 4시간 45분
show_chart 중급

중급 BigQuery ML을 사용한 예측 모델링을 위한 데이터 엔지니어링 기술 배지를 획득하여 Dataprep by Trifact로 데이터 변환 파이프라인을 BigQuery에 빌드, Cloud Storage, Dataflow, BigQuery를 사용한 ETL(추출, 변환, 로드) 워크플로 빌드, BigQuery ML을 사용하여 머신러닝 모델을 빌드하는 기술 역량을 입증할 수...

과정 시작하기
Dataplex로 데이터 메시 빌드하기 활동 썸네일
13 Dataplex로 데이터 메시 빌드하기
book 과정
access_time 5시간 30분
show_chart 입문

초급 Dataplex로 데이터 메시 빌드하기 기술 배지 과정을 완료하여, Dataplex를 통해 데이터 메시를 빌드해 Google Cloud에서 데이터 보안, 거버넌스, 탐색을 활용하는 역량을 입증하세요. Dataplex에서 애셋에 태그를 지정하고, IAM 역할을 할당하고, 데이터 품질을 평가하는 기술을 연습하고 테스트할 수 있습니다. 기술 배지는...

과정 시작하기
BigQuery의 Gemini로 생산성 향상 활동 썸네일
14 BigQuery의 Gemini로 생산성 향상
book 과정
access_time 4시간
show_chart 입문

이 과정에서는 데이터-AI 워크플로를 지원하는 AI 기반 기능 모음인 BigQuery의 Gemini에 관해 살펴봅니다. 이러한 기능에는 데이터 탐색 및 준비, 코드 생성 및 문제 해결, 워크플로 탐색 및 시각화 등이 있습니다. 이 과정은 개념 설명, 실제 사용 사례, 실무형 실습을 통해...

과정 시작하기
BigQuery에서 Gemini 모델 사용하기 활동 썸네일
15 BigQuery에서 Gemini 모델 사용하기
book 과정
access_time 3시간
show_chart 중급

이 과정은 BigQuery에서 생성형 AI 작업에 AI/ML 모델을 사용하는 방법을 보여줍니다. 고객 관계 관리와 관련된 실제 사용 사례를 통해 Gemini 모델로 비즈니스 문제를 해결하는 워크플로를 설명합니다. 이해를 돕기 위해 SQL 쿼리와 Python 노트북을 사용하는 코딩 솔루션을 단계별로 안내합니다.

과정 시작하기