Explainable AI

머신러닝 모델을 파악하고 해석하는 도구이자 프레임워크입니다.

AI 결과의 이해 및 신뢰 구축 이미지

AI 결과의 이해 및 신뢰 구축

Explainable AI는 머신러닝 모델에서 수행한 예측을 파악하고 해석할 수 있도록 지원하는 도구이자 프레임워크입니다. 이 도구를 사용하면 모델 성능을 디버깅하고 향상하며 다른 사람이 모델의 동작을 파악하도록 도울 수 있습니다. AutoML TablesVertex AI에서 모델 예측을 위한 특성 기여 분석을 생성하고 What-If 도구를 사용하여 모델 동작을 시각적으로 조사할 수도 있습니다.
해석 가능하고 포괄적인 AI 설계

해석 가능하고 포괄적인 AI 설계

데이터와 모델 사이의 편향, 드리프트 등의 차이를 감지하고 해결하도록 설계된 도구를 사용하여 해석 가능하고 포괄적이며 완전한 AI 시스템을 빌드합니다. 데이터 과학자는 AutoML Tables, Vertex AI Predictions, Notebooks의 AI Explanations를 통해 데이터 세트 또는 모델 아키텍처를 향상하고 모델 성능을 디버깅하는 데 필요한 유용한 정보를 얻을 수 있습니다. What-If 도구를 통해서는 모델 동작을 한눈에 파악할 수 있습니다.

안심하고 AI 배포 이미지

안심하고 AI 배포

머신러닝 모델에 대한 사람이 이해할 수 있는 설명을 사용하여 최종 사용자의 신뢰도와 투명성을 높입니다. AutoML Tables나 Vertex AI에 모델을 배포하면 특정 요소가 최종 결과에 미치는 영향의 정도를 보여주는 예측과 점수를 실시간으로 확인할 수 있습니다. 설명은 데이터 샘플 또는 모집단의 근본적인 관계를 밝히지는 못하지만 모델이 데이터에서 찾아내는 패턴을 반영합니다.

모델 거버넌스 간소화

모델 거버넌스 간소화

간소화된 성능 모니터링 및 학습을 통해 머신러닝 모델을 관리하고 개선해야 하는 조직의 업무를 단순화할 수 있습니다. 모델이 Vertex AI에서 수행하는 예측을 간편하게 모니터링합니다. 또한 지속적 평가 기능을 사용해 모델의 예측과 정답 라벨을 비교하여 모델 성능에 대한 지속적인 피드백을 받아 모델 성능을 최적화합니다.

특징

AI Explanations

각 요소가 AutoML TablesNotebook에서 모델 예측에 기여한 정도 또는 Vertex AI Prediction API를 통해 모델 예측에 기여한 정도를 점수로 표현합니다. 점수 설명 문서 읽어보기

What-If 도구

AI Platform에 통합된 What-If 도구를 사용하면 데이터 세트의 다양한 기능에 대한 모델 성능, 최적화 전략은 물론 개별 데이터 포인트 값 조작까지 조사할 수 있습니다.

지속적 평가

Vertex AI에 배포한 학습된 머신러닝 모델에서 예측을 샘플링하고 지속적 평가 기능으로 예측 입력에 정답 라벨을 제공할 수 있습니다. 데이터 라벨링 서비스에서는 모델 성능을 향상시키기 위해 모델의 예측과 정답 라벨을 비교합니다.

고객

가격 책정

Explainable AI 도구는 AutoML Tables 또는 Vertex AI 사용자에게 무료로 제공됩니다. Cloud AI는 사용된 노드 시간에 대해 요금이 청구되며, 모델 예측을 위해 AI Explanations를 실행하려면 컴퓨팅과 스토리지 용량이 필요합니다. 따라서 Explainable AI 사용 시 노드 사용 시간이 늘어날 수 있습니다.

가격 책정 세부정보 보기

다음 단계 수행

$300의 무료 크레딧과 20여 개의 항상 무료 제품으로 Google Cloud에서 빌드하세요.

시작하는 데 도움이 필요하신가요?
신뢰할 수 있는 파트너 지원

Cloud AI 제품은 SLA 정책을 준수하며 지연 시간이나 가용성 보장 측면에서 다른 Google Cloud 서비스와는 다를 수 있습니다.