Berke Azal
회원 가입일: 2022
골드 리그
30230포인트
회원 가입일: 2022
Demonstrate your ability to implement updated prompt engineering techniques and utilize several of Gemini's key capacilities including multimodal understanding and function calling. Then integrate generative AI into a RAG application deployed to Cloud Run. This course contains labs that are to be used as a test environment. They are deployed to test your understanding as a learner with a limited scope. These technologies can be used with fewer limitations in a real world environment.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
이 과정에서는 생성형 AI 모델과 상호작용하고 비즈니스 아이디어의 프로토타입을 제작하여 프로덕션으로 출시할 수 있는 도구인 Vertex AI Studio를 소개합니다. 몰입감 있는 사용 사례, 흥미로운 강의, 실무형 실습을 통해 프롬프트부터 프로덕션에 이르는 수명 주기를 살펴보고 Vertex AI Studio를 Gemini 멀티모달 애플리케이션, 프롬프트 설계, 프롬프트 엔지니어링, 모델 조정에 활용하는 방법을 알아봅니다. 이 과정의 목표는 Vertex AI Studio로 프로젝트에서 생성형 AI의 잠재력을 활용하는 것입니다.
책임감 있는 AI란 무엇이고 이것이 왜 중요하며 Google에서는 어떻게 제품에 책임감 있는 AI를 구현하고 있는지 설명하는 입문용 마이크로 학습 과정입니다. Google의 7가지 AI 원칙도 소개합니다.
A Business Leader in Generative AI can articulate the capabilities of core cloud Generative AI products and services and understand how they benefit organizations. This course provides an overview of the types of opportunities and challenges that companies often encounter in their digital transformation journey and how they can leverage Google Cloud's generative AI products to overcome these challenges.
This course explores Google Cloud technologies to create and generate embeddings. Embeddings are numerical representations of text, images, video and audio, and play a pivotal role in many tasks that involve the identification of similar items, like Google searches, online shopping recommendations, and personalized music suggestions. Specifically, you’ll use embeddings for tasks like classification, outlier detection, clustering and semantic search. You’ll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) systems and question-answering solutions, on your own proprietary data using Google Cloud’s Vertex AI.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
이 과정에서는 AI 기반 검색 기술, 도구, 애플리케이션을 살펴봅니다. 벡터 임베딩을 활용하는 시맨틱 검색, 시맨틱 방식과 키워드 방식을 결합한 하이브리드 검색, 그라운딩된 AI 에이전트로서 AI 할루시네이션을 최소화하는 검색 증강 생성(RAG)에 대해 알아보세요. Vertex AI 벡터 검색을 활용해 지능형 검색 엔진을 빌드하는 실무 경험을 쌓을 수 있습니다.
This course continues to explore the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Cloud Data Fusion.
This course will help ML Engineers, Developers, and Data Scientists implement Large Language Models for Generative AI use cases with Vertex AI. The first two modules of this course contain links to videos and prerequisite course materials that will build your knowledge foundation in Generative AI. Please do not skip these modules. The advanced modules in this course assume you have completed these earlier modules.
이 과정에서는 딥 러닝을 사용해 이미지 캡션 모델을 만드는 방법을 알아봅니다. 인코더 및 디코더와 모델 학습 및 평가 방법 등 이미지 캡션 모델의 다양한 구성요소에 대해 알아봅니다. 이 과정을 마치면 자체 이미지 캡션 모델을 만들고 이를 사용해 이미지의 설명을 생성할 수 있게 됩니다.
이 과정에서는 최근 이미지 생성 분야에서 가능성을 보여준 머신러닝 모델 제품군인 확산 모델을 소개합니다. 확산 모델은 열역학을 비롯한 물리학에서 착안했습니다. 지난 몇 년 동안 확산 모델은 연구계와 업계 모두에서 주목을 받았습니다. 확산 모델은 Google Cloud의 다양한 최신 이미지 생성 모델과 도구를 뒷받침합니다. 이 과정에서는 확산 모델의 이론과 Vertex AI에서 이 모델을 학습시키고 배포하는 방법을 소개합니다.
이 과정은 Transformer 아키텍처와 BERT(Bidirectional Encoder Representations from Transformers) 모델을 소개합니다. 셀프 어텐션 메커니즘 같은 Transformer 아키텍처의 주요 구성요소와 이 아키텍처가 BERT 모델 빌드에 사용되는 방식에 관해 알아봅니다. 또한 텍스트 분류, 질문 답변, 자연어 추론과 같이 BERT를 활용할 수 있는 다양한 작업에 대해서도 알아봅니다. 이 과정은 완료하는 데 대략 45분이 소요됩니다.
이 과정은 기계 번역, 텍스트 요약, 질의 응답과 같은 시퀀스-투-시퀀스(Seq2Seq) 작업에 널리 사용되는 강력한 머신러닝 아키텍처인 인코더-디코더 아키텍처에 대한 개요를 제공합니다. 인코더-디코더 아키텍처의 기본 구성요소와 이러한 모델의 학습 및 서빙 방법에 대해 알아봅니다. 해당하는 실습 둘러보기에서는 TensorFlow에서 시를 짓는 인코더-디코더 아키텍처를 처음부터 간단하게 구현하는 코딩을 해봅니다.
이 과정에서는 신경망이 입력 시퀀스의 특정 부분에 집중할 수 있도록 하는 강력한 기술인 주목 메커니즘을 소개합니다. 주목 메커니즘의 작동 방식과 이 메커니즘을 다양한 머신러닝 작업(기계 번역, 텍스트 요약, 질문 답변 등)의 성능을 개선하는 데 활용하는 방법을 알아봅니다.
In this course, you'll use text embeddings for tasks like classification, outlier detection, text clustering and semantic search. You'll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) solutions, such as for question-answering systems, using Google Cloud's Vertex AI and Google Cloud databases.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
기업에서 인공지능과 머신러닝의 사용이 계속 증가함에 따라 책임감 있는 빌드의 중요성도 커지고 있습니다. 대부분의 기업은 책임감 있는 AI를 실천하기가 말처럼 쉽지 않습니다. 조직에서 책임감 있는 AI를 운영하는 방법에 관심이 있다면 이 과정이 도움이 될 것입니다. 이 과정에서 책임감 있는 AI를 위해 현재 Google Cloud가 기울이고 있는 노력, 권장사항, Google Cloud가 얻은 교훈을 알아보면 책임감 있는 AI 접근 방식을 구축하기 위한 프레임워크를 수립할 수 있을 것입니다.
This on-demand course provides partners the skills required to design, deploy, and monitor Vertail AI Search for Commerce solutions including retail search and recommendation AI for enterprise customers.
This course provides hands-on experience with Google Cloud's Search for Retail, focusing on practical skills in setting up and managing retail search functionalities using APIs and console configurations. Participants will engage with real-world scenarios to learn how to import product data, manage user events, configure search parameters, and optimize search results within a retail environment.
Organizations around the world rely on Apache Kafka to integrate existing systems in real time and build a new class of event streaming applications that unlock new business opportunities. Google and Confluent are in a partnership to deliver the best event streaming service based on Apache Kafka and to build event driven applications and big data pipelines on Google Cloud Platform. In this course, you will first learn how to deploy and create a streaming data pipeline with Apache Kafka, then try out the different functionalities of the Confluent Platform.
이 과정에서는 데이터-AI 수명 주기를 지원하는 Google Cloud 빅데이터 및 머신러닝 제품과 서비스를 소개합니다. Google Cloud에서 Vertex AI를 사용하여 빅데이터 파이프라인 및 머신러닝 모델을 빌드하는 프로세스, 문제점 및 이점을 살펴봅니다.
스트리밍을 통해 비즈니스 운영에 대한 실시간 측정항목을 얻을 수 있게 되면서 스트리밍 데이터 처리의 사용이 늘고 있습니다. 이 과정에서는 Google Cloud에서 스트리밍 데이터 파이프라인을 빌드하는 방법을 다룹니다. 수신되는 스트리밍 데이터 처리와 관련해 Pub/Sub를 설명합니다. 이 과정에서는 Dataflow를 사용해 집계 및 변환을 스트리밍 데이터에 적용하는 방법과 처리된 레코드를 분석을 위해 BigQuery 또는 Bigtable에 저장하는 방법에 대해서도 다룹니다. Google Cloud에서 Qwiklabs를 사용해 스트리밍 데이터 파이프라인 구성요소를 빌드하는 실습을 진행해 볼 수도 있습니다.
데이터 파이프라인의 두 가지 주요 구성요소는 데이터 레이크와 웨어하우스입니다. 이 과정에서는 스토리지 유형별 사용 사례를 살펴보고 Google Cloud에서 사용 가능한 데이터 레이크 및 웨어하우스 솔루션을 기술적으로 자세히 설명합니다. 또한 데이터 엔지니어의 역할, 성공적인 데이터 파이프라인이 비즈니스 운영에 가져오는 이점, 클라우드 환경에서 데이터 엔지니어링을 수행해야 하는 이유도 알아봅니다. 'Google Cloud의 데이터 엔지니어링' 시리즈의 첫 번째 과정입니다. 이 과정을 완료한 후 'Google Cloud에서 일괄 데이터 파이프라인 빌드하기' 과정에 등록하세요.