Google Cloud는 생성형 AI 애플리케이션을 빌드하는 전체 수명 주기에 걸쳐 사용할 수 있는 다양한 제품과 도구를 제공합니다.

생성형 AI 애플리케이션 빌드 알아보기

Vertex AI의 생성형 AI

Google의 대규모 생성형 AI 모델에 액세스하여 AI 기반 애플리케이션에서 사용할 수 있도록 모델을 테스트, 조정, 배포할 수 있습니다.

Gemini 빠른 시작

Google Cloud의 AI-ML 플랫폼인 Vertex AI를 통해 Gemini API에 요청을 보내는 방법을 알아보세요.

생성형 AI 애플리케이션의 인프라 선택

사용 사례에 가장 적합한 제품과 도구를 선택하고 시작하는 데 필요한 문서에 액세스하세요.

생성형 AI를 사용해야 하는 경우

생성형 AI, 기존 AI 또는 이 두 가지의 조합이 비즈니스 사용 사례에 적합한지 확인합니다.

생성형 AI 애플리케이션 개발

생성형 AI 애플리케이션을 개발하는 각 단계에서 발생하는 과제를 해결하는 방법을 알아봅니다.

코드 샘플 및 샘플 애플리케이션

인기 있는 사용 사례의 코드 샘플을 보고 보안, 효율성, 복원력, 고성능, 경제성을 겸비한 생성형 AI 애플리케이션의 예시를 배포합니다.

모델 탐색 및 호스팅

Google Cloud는 Gemini를 포함하여 Vertex AI를 통해 최신 파운데이션 모델 집합을 제공합니다. 또한 서드 파티 모델을 Vertex AI Model Garden 또는 GKE나 Compute Engine의 자체 호스팅에 배포할 수 있습니다.

Vertex AI의 Google 모델(Gemini, Imagen)

ML 모델 라이브러리에서 Google 모델과 애셋을 탐색, 테스트, 맞춤설정, 배포합니다.

Vertex AI Model Garden의 기타 모델

ML 모델 라이브러리에서 일부 OSS 모델과 애셋을 탐색, 테스트, 맞춤설정, 배포합니다.

HuggingFace를 통한 텍스트 생성 모델

HuggingFace 텍스트 생성 모델을 Vertex AI 또는 Google Kubernetes Engine(GKE)에 배포하는 방법을 알아봅니다.

GKE의 AI/ML 조정

GKE는 AI/ML 워크로드를 효율적으로 조정하여 확장 가능한 생성형 AI를 학습하고 제공할 수 있도록 GPU 및 TPU를 지원합니다.

Compute Engine의 GPU

VM 인스턴스에 GPU를 연결하여 Compute Engine에서 생성형 AI 워크로드를 가속화합니다.

프롬프트 설계 및 엔지니어링

프롬프트 설계는 프롬프트 및 응답 쌍을 작성하여 언어 모델에 추가 컨텍스트와 안내를 제공하는 프로세스입니다. 프롬프트를 작성한 후에는 사전 학습을 위한 프롬프트 데이터 세트로 모델에 공급합니다. 모델에서 예측을 제공하면 기본 제공되는 안내로 응답합니다.

Vertex AI Studio

Google의 Gemini 및 PaLM 2 대규모 언어 모델(LLM)로 전송된 프롬프트를 설계, 테스트, 맞춤설정할 수 있습니다.

프롬프팅 전략 개요

프롬프트 엔지니어링 워크플로와 모델 응답에 영향을 미치는 데 사용할 수 있는 일반적인 전략을 알아봅니다.
특정 사용 사례에 대한 예시 프롬프트와 응답을 봅니다.

그라운딩 및 RAG

그라운딩은 AI 모델을 데이터 소스에 연결하여 응답 정확성을 향상시키고 할루시네이션을 줄입니다. 일반적인 그라운딩 기법인 RAG는 관련 정보를 검색하여 모델 프롬프트에 추가하므로 출력은 사실과 최신 정보를 기반으로 합니다.

Vertex AI 그라운딩

Google 검색이나 Vertex AI Search에 저장된 자체 데이터로 Vertex AI 모델을 그라운딩할 수 있습니다.
Google 검색으로 그라운딩을 사용하여 모델을 인터넷에서 제공되는 최신 지식과 연결합니다.

AlloyDB의 벡터 임베딩

AlloyDB를 사용하여 벡터 임베딩을 생성하고 저장한 후 pgvector 확장 프로그램을 사용하여 임베딩에 색인을 생성하고 임베딩을 쿼리합니다.

Cloud SQL 및 pgvector

Postgres SQL에 벡터 임베딩을 저장한 후 pgvector 확장 프로그램을 사용하여 임베딩에 색인을 생성하고 임베딩을 쿼리합니다.

LangChain 애플리케이션에 BigQuery 데이터 통합

LangChain을 사용하여 BigQuery에서 데이터를 추출하고 모델 응답을 보강 및 그라운딩합니다.

Firestore의 벡터 임베딩

Firestore 데이터에서 벡터 임베딩을 만든 후 임베딩에 색인을 생성하고 임베딩을 쿼리합니다.

Memorystore(Redis)의 벡터 임베딩

LangChain을 사용하여 Memorystore에서 데이터를 추출하고 모델 응답을 보강 및 그라운딩합니다.

에이전트 및 함수 호출

에이전트를 사용하면 대화형 사용자 인터페이스를 쉽게 설계하고 모바일 앱에 통합할 수 있으며 함수 호출은 모델 기능을 확장합니다.

Vertex AI Agent Builder

엔터프라이즈급 생성형 AI 애플리케이션에 Google의 파운데이션 모델, 검색 전문 지식, 대화형 AI 기술을 활용합니다.

Vertex AI 함수 호출

함수 호출을 모델에 추가하여 추출된 캘린더 정보를 기반으로 예약과 같은 작업을 사용 설정합니다.

모델 맞춤설정 및 학습

특정 용어로 언어 모델 학습과 같은 전문화된 태스크를 수행하려면 프롬프트 설계나 그라운딩만으로 수행하는 경우보다 더 많은 학습이 필요할 수 있습니다. 이 시나리오에서는 모델 조정을 사용하여 성능을 향상시키거나 자체 모델을 학습시킬 수 있습니다.

Vertex AI에서 모델 평가

Vertex AI에서 기반 모델 및 조정된 생성형 AI 모델의 성능을 평가합니다.

Vertex AI 모델 조정

범용 파운데이션 모델은 특정 태스크에서 성능이 향상되도록 조정의 이점을 활용할 수 있습니다.

Cloud TPU

TPU는 Google에서 커스텀 개발 ASIC로서 LLM 학습과 같은 머신러닝 워크로드를 가속화하는 데 사용됩니다.

빌드 시작

LangChain은 프롬프트에 컨텍스트를 빌드하고 모델 응답에 반응할 수 있는 생성형 AI 앱용 오픈소스 프레임워크입니다.