아키텍처 센터는 다양한 AI 및 머신러닝 주제 전반에 대한 콘텐츠 리소스를 제공합니다. 이 페이지에서는 생성형 AI, 기존 AI, 머신러닝을 시작하는 데 도움이 되는 정보를 제공합니다. 또한 아키텍처 센터의 모든 AI 및 머신러닝(ML) 콘텐츠 목록을 제공합니다.
시작하기
이 페이지에 나열된 문서는 Google Cloud에서 AI 및 ML 솔루션의 설계, 빌드, 배포를 시작하는 데 도움이 됩니다.
생성형 AI 살펴보기
Cloud 문서 사이트에서 먼저 Google Cloud의 생성형 AI의 기본 사항에 대해 알아보세요.
- 생성형 AI 애플리케이션 개발 단계를 알아보고 사용 사례에 맞는 제품과 도구를 살펴보려면 Google Cloud에서 생성형 AI 애플리케이션 빌드를 참조하세요.
- 생성형 AI, 기존 AI(예측 및 분류 포함) 또는 이 둘의 조합이 비즈니스 사용 사례에 적합한 경우를 식별하려면 생성형 AI 또는 기존 AI를 사용해야 하는 경우를 참조하세요.
- 비즈니스 가치 기반 의사 결정 방식을 사용하여 AI 비즈니스 사용 사례를 정의하려면 생성형 AI 비즈니스 사용 사례 평가 및 정의를 참조하세요.
- 모델 선택, 평가, 조정, 개발에서 발생한 문제를 해결하려면 생성형 AI 애플리케이션 개발을 참조하세요.
AI 모델을 만들기 위한 파이프라인을 배포하는 생성형 AI 및 머신러닝 청사진을 살펴보려면 기업에서 생성형 AI 및 머신러닝 모델 빌드 및 배포를 참조하세요. 이 가이드에서는 사전 데이터 탐색 및 실험부터 모델 학습, 배포, 모니터링에 이르기까지 전체 AI 개발 수명 주기를 설명합니다.
생성형 AI를 사용하는 다음 아키텍처 예시를 살펴보세요.
- 생성형 AI 문서 요약
- 생성형 AI 기술 자료
- Cloud SQL을 사용한 생성형 AI RAG
- GKE를 사용하는 RAG 지원 생성형 AI 애플리케이션을 위한 인프라
- Vertex AI를 사용하는 RAG 지원 생성형 AI 애플리케이션을 위한 인프라
- Google Cloud 및 Labelbox를 사용한 모델 개발 및 데이터 라벨링
Google Cloud 생성형 AI 제품에 대한 자세한 내용은 Vertex AI, Gemini API, GKE에서 기반 모델 실행을 참조하세요.
설계 및 빌드
AI 워크로드에 가장 적합한 스토리지 옵션 조합을 선택하려면 Google Cloud의 AI 및 ML 워크로드를 위한 스토리지 설계를 참조하세요.
Google Cloud는 생성형 AI로 문서를 요약하고 이미지 처리 파이프라인을 빌드하고 생성형 AI 솔루션으로 혁신을 달성하는 데 도움이 되는 AI 및 머신러닝 서비스 제품군을 제공합니다.
계속 탐색
이 페이지의 후반부와 왼쪽 탐색 메뉴에 나와 있는 문서는 AI 또는 ML 솔루션을 빌드하는 데 도움이 됩니다. 이 문서는 다음 카테고리로 정리됩니다.
- 생성형 AI: 이러한 아키텍처를 따라 생성형 AI 솔루션을 설계하고 빌드합니다.
- 모델 학습: 머신러닝, 제휴 학습, 맞춤화된 지능형 환경을 구현합니다.
- MLOps: 머신러닝 시스템을 위한 지속적 통합, 지속적 배포, 지속적 학습을 구현하고 자동화합니다.
- AI 및 ML 애플리케이션: AI 및 ML 워크로드에 맞춤설정된 Google Cloud에서 애플리케이션을 빌드합니다.
아키텍처 센터의 AI 및 머신러닝 리소스
리소스 이름이나 설명에 있는 제품 이름 또는 문구를 입력하여 다음 AI 및 머신러닝 리소스 목록을 필터링할 수 있습니다.
MLOps using TensorFlow Extended, Vertex AI Pipelines, Cloud Build를 사용하는 MLOps 아키텍처 이 문서에서는 TensorFlow Extended(TFX) 라이브러리를 사용하는 머신러닝(ML) 시스템의 전반적인 아키텍처를 설명합니다. 또한 지속적 통합(CI), 지속적 배포(CD), 지속적 학습(CT)을 설정하는 방법을 설명합니다... 사용되는 제품: Cloud Build |
Google Cloud에서 머신러닝 구현을 위한 권장사항 데이터 및 코드 기반의 커스텀 학습 모델을 중심으로 Google Cloud에서 머신러닝(ML)을 구현하기 위한 권장사항을 소개합니다. 사용되는 제품: Vertex AI, Vertex AI, Vertex AI, Vertex Explainable AI, Vertex Feature Store, Vertex 파이프라인, Vertex 텐서보드 |
기업에서 생성형 AI 및 머신러닝 모델을 빌드하고 배포 AI 모델을 만들기 위한 파이프라인을 배포하는 생성형 AI 및 머신러닝(ML) 청사진을 설명합니다. |
Dataflow 및 Cloud Vision API를 사용한 ML 비전 분석 솔루션 빌드 Cloud Vision으로 대규모 이미지 파일을 처리하기 위해 Dataflow 파이프라인을 배포하는 방법입니다. Dataflow는 BigQuery ML 기본 제공 모델을 학습시키는 데 결과를 사용할 수 있도록 결과를 BigQuery에 저장합니다. 사용되는 제품: BigQuery, Cloud Build, Cloud Pub/Sub, Cloud Storage, Cloud Vision, Dataflow |
교차 사일로 및 교차 기기를 지원하는 Google Cloud 제휴 학습 교차 사일로 또는 교차 기기 아키텍처를 지원하는 제휴 학습 플랫폼을 만들 수 있도록 안내를 제공합니다. |
Google Cloud에서 R을 사용한 데이터 과학: 탐색적 데이터 분석 가이드 Google Cloud에서 R을 사용하여 대규모로 데이터 과학을 시작하는 방법을 보여줍니다. 이 문서는 R 및 Jupyter 노트북 사용 경험이 있고 SQL에 익숙한 사용자를 대상으로 작성되었습니다. 사용되는 제품: BigQuery, Cloud Storage, Notebooks |
Google Cloud의 AI 및 ML 워크로드를 위한 스토리지 설계 AI 및 ML 워크로드 단계를 Google Cloud 스토리지 옵션에 매핑하고 AI 및 ML 워크로드에 권장되는 스토리지 옵션을 선택합니다. 사용되는 제품: Cloud Storage, Filestore, Persistent Disk |
Google Cloud 지리정보 기능과 지리정보 분석 애플리케이션에서 이러한 기능을 사용하는 방법을 알아봅니다. 사용되는 제품: BigQuery, Dataflow |
Afi.ai를 사용한 Google Workspace 백업 Afi.ai를 사용하여 자동 Google Workspace 백업을 설정하는 방법을 설명합니다. 사용되는 제품: Cloud Storage |
머신러닝(ML) 솔루션의 품질을 평가, 보장, 제어하는 데 도움이 되는 몇 가지 가이드라인을 소개합니다. |
Google Kubernetes Engine(GKE) 및 Pub/Sub를 사용하여 마이크로서비스를 구현하여 장기 실행 프로세스를 비동기적으로 호출하는 방법을 보여줍니다. 사용되는 제품: Artifact Registry, Cloud Build, Cloud Pub/Sub, Cloud SQL, Cloud Storage, Cloud Vision, Compute Engine, Container Registry, Google Kubernetes Engine(GKE) |
GKE를 사용하는 RAG 지원 생성형 AI 애플리케이션을 위한 인프라 GKE를 사용하여 RAG를 지원하는 생성형 AI 애플리케이션을 위한 인프라를 설계하는 방법을 보여줍니다. 사용되는 제품: Cloud SQL, Cloud Storage, Google Kubernetes Engine(GKE) |
Vertex AI를 사용하는 RAG 지원 생성형 AI 애플리케이션을 위한 인프라 검색 증강 생성으로 생성형 AI 애플리케이션을 실행하도록 인프라를 설계합니다. 사용되는 제품: BigQuery, Cloud Logging, Cloud Monitoring, Cloud Pub/Sub, Cloud Run, Cloud Storage, Document AI, Vertex AI |
Jump Start 솔루션: Cloud Functions에서 AI/ML 이미지 처리 사전 학습된 머신러닝 모델과 Cloud Functions에 배포된 이미지 처리 앱을 사용하여 이미지를 분석합니다. |
데이터를 저장, 처리, 분석, 활성화하는 BigQuery를 사용하여 분석 레이크하우스를 만들어 데이터 레이크와 데이터 웨어하우스를 통합합니다. |
점프 스타트 솔루션: BigQuery를 사용한 데이터 웨어하우스 BigQuery를 사용하여 대시보드 및 시각화 도구로 데이터 웨어하우스를 빌드합니다. |
Vertex AI 생성형 AI 및 대규모 언어 모델(LLM)을 사용하여 주문형 문서를 처리하고 요약합니다. |
Vertex AI 생성형 AI 및 대규모 언어 모델(LLM)을 사용하여 주문형으로 문서에서 질의 응답 쌍을 추출합니다. |
점프 스타트 솔루션: Cloud SQL을 사용한 생성형 AI RAG 벡터 임베딩 및 Cloud SQL로 검색 증강 생성(RAG) 애플리케이션을 배포합니다. |
Intelligent Products Essentials를 사용한 MLOps Intelligent Products Essentials 및 Vertex AI를 사용하여 MLOps를 구현하기 위한 참조 아키텍처에 대해 설명합니다. 사용되는 제품: BigQuery, Cloud Scheduler, Dataflow, Dataproc, Intelligent Products Essentials, Vertex AI |
MLOps: 머신러닝의 지속적 배포 및 자동화 파이프라인 머신러닝(ML) 시스템을 위한 지속적 통합(CI), 지속적 배포(CD), 지속적 학습(CT)을 구현하고 자동화하는 기술을 설명합니다. |
Google Cloud 및 Labelbox를 사용한 모델 개발 및 데이터 라벨링 ML 모델 개발을 가속화하는 데 도움이 되는 표준화된 파이프라인 빌드에 대한 안내를 제공합니다. |
Bigtable 및 GKE에서 OpenTSDB로 시계열 데이터 모니터링 시계열 데이터는 추세 분석, 모니터링, 머신러닝을 비롯한 여러 애플리케이션에 사용할 수 있는 매우 중요한 애셋입니다. 시계열 데이터는 서버 인프라, 애플리케이션 코드, 기타 소스로부터 생성할 수 있습니다. OpenTSDB... 사용되는 제품: Bigtable, Google Kubernetes Engine(GKE) |
Google Cloud의 환경 지속 가능성에 대한 접근 방식을 설명합니다. 여기에는 Google Cloud에서 탄소 발자국을 이해하는 데 사용할 수 있는 정보와 기타 리소스가 포함됩니다. 사용되는 제품: BigQuery, Compute Engine, Google Kubernetes Engine(GKE) |
NVIDIA® T4 GPU 및 Triton 추론 서버를 사용하여 딥 러닝 모델을 위한 고성능 온라인 추론 시스템을 설계하고 배포하는 방법을 설명합니다. 사용되는 제품: Cloud Load Balancing, Google Kubernetes Engine(GKE) |
Spark MLlib를 사용하여 빌드되고 Vertex AI를 사용하여 관리되는 머신러닝(ML) 모델의 온라인 예측을 제공(실행)하는 방법을 보여줍니다. 사용되는 제품: Vertex AI |
Google Cloud에서 경향 모델링을 위한 Kubeflow 파이프라인 사용 Google Cloud에서 경향 모델링을 수행하는 자동화된 파이프라인 예시를 설명합니다. 사용되는 제품: BigQuery, Cloud Functions, Vertex AI |