질문 117 Google Cloud에서 일괄 추론 ML 파이프라인을 구현하고 있습니다. 모델이 TensorFlow를 사용하여 개발되었으며 클라우드 스토리지에 SavedModel 형식으로 저장되어 있습니다. BigQuery 테이블에 저장된 10TB의 데이터가 포함된 과거 데이터 집합에 모델을 적용해야 합니다. 추론을 어떻게 수행해야 하나요?
TensorFlow를 사용하여 개발되어 클라우드 스토리지에 SavedModel 형식으로 저장된 모델과 BigQuery 테이블에 저장된 10TB의 데이터를 포함하는 기록 데이터 세트를 사용하여 Google Cloud에서 일괄 추론 ML 파이프라인을 구현하는 가장 좋은 옵션은 BigQuery의 기록 데이터에 모델을 적용하도록 Vertex AI 일괄 예측 작업을 구성하는 것입니다. 이 옵션을 사용하면 최소한의 코드와 구성으로 대규모 일괄 추론을 수행하기 위해 Vertex AI와 BigQuery의 강력함과 단순성을 활용할 수 있습니다. Vertex AI는 Google Cloud에서 머신 러닝 솔루션을 구축하고 배포하기 위한 통합 플랫폼입니다. Vertex AI는 일괄 예측 작업을 실행하여 많은 수의 인스턴스에 대한 예측을 일괄적으로 생성할 수 있습니다. 또한 Vertex AI는 데이터 분석, 모델 개발, 모델 배포, 모델 모니터링, 모델 거버넌스를 위한 다양한 도구와 서비스를 제공할 수 있습니다. 배치 예측 작업은 Vertex AI에서 모델 코드를 실행할 수 있는 리소스입니다. 일괄 예측 작업을 사용하면 많은 수의 인스턴스에 대한 예측을 일괄적으로 생성하고 예측 결과를 원하는 대상에 저장할 수 있습니다. 일괄 예측 작업은 JSON, CSV 또는 TFRecord와 같은 다양한 입력 형식을 사용할 수 있습니다. 일괄 예측 작업은 클라우드 스토리지나 BigQuery와 같은 다양한 입력 소스도 받아들일 수 있습니다. 텐서플로우 모델은 텐서플로우를 사용하여 구축된 머신 러닝 모델을 나타내는 리소스입니다. TensorFlow는 대규모 데이터 처리 및 머신 러닝을 수행할 수 있는 프레임워크입니다. 텐서플로는 선형 회귀, 로지스틱 회귀, K-평균 클러스터링, 행렬 인수분해, 심층 신경망 등 다양한 유형의 모델을 구축하고 훈련하는 데 도움을 줄 수 있습니다. SavedModel 형식은 TensorFlow 모델과 관련 자산을 저장할 수 있는 형식의 한 유형입니다. SavedModel 포맷을 사용하면 TensorFlow 모델을 저장 및 로드하고 예측을 위해 사용할 수 있습니다. 저장된 모델 형식은 Google 클라우드에 대규모 데이터를 저장하고 액세스할 수 있는 서비스인 클라우드 스토리지에 저장할 수 있습니다. 과거 데이터 세트는 특정 도메인에 대한 과거 정보가 포함된 데이터 모음입니다. 과거 데이터 세트는 데이터의 과거 추세와 패턴을 분석하고 미래를 예측하는 데 도움이 될 수 있습니다. 기록 데이터 세트는 Google Cloud에 대규모 데이터를 저장하고 쿼리할 수 있는 서비스인 BigQuery에 저장할 수 있습니다. BigQuery는 SQL 쿼리를 사용하여 데이터를 분석하고 데이터 탐색, 데이터 변환, 데이터 시각화 등 다양한 작업을 수행할 수 있도록 도와줍니다. BigQuery의 기록 데이터에 모델을 적용하도록 Vertex AI 일괄 예측 작업을 구성하면 최소한의 코드와 구성으로 Google Cloud에서 일괄 추론 ML 파이프라인을 구현할 수 있습니다. Vertex AI API 또는 gcloud 명령줄 도구를 사용하여 일괄 예측 작업을 구성하고 모델 이름, 모델 버전, 입력 소스, 입력 형식, 출력 대상 및 출력 형식을 제공할 수 있습니다. Vertex AI는 자동으로 일괄 예측 작업을 실행하고 BigQuery의 기록 데이터에 모델을 적용합니다. 또한 Vertex AI는 예측 결과를 클라우드 스토리지 또는 BigQuery1와 같이 사용자가 선택한 대상에 저장합니다. 다른 옵션은 다음과 같은 이유로 옵션 D만큼 좋지 않습니다: * 옵션 A: 기록 데이터를 Avro 형식으로 클라우드 스토리지로 내보내고, 내보낸 데이터에 대한 예측을 생성하도록 Vertex AI 일괄 예측 작업을 구성하는 것은 BigQuery의 기록 데이터에 모델을 적용하도록 Vertex AI 일괄 예측 작업을 구성하는 것보다 더 많은 기술과 단계가 필요하며 일괄 추론 프로세스의 복잡성과 비용을 증가시킬 수 있습니다. Avro는 데이터를 바이너리 형식으로 저장하고 직렬화할 수 있는 형식의 일종입니다. Avro는 데이터를 압축 및 인코딩하고 스키마 진화 및 호환성을 지원하는 데 도움이 될 수 있습니다. 기록 데이터를 Avro 형식으로 클라우드 스토리지로 내보내고, 내보낸 데이터에 대한 예측을 생성하도록 Vertex AI 일괄 예측 작업을 구성하면 최소한의 코드와 구성으로 일괄 추론을 수행할 수 있습니다. BigQuery API 또는 bq 명령줄 도구를 사용하여 기록 데이터를 Avro 형식으로 Cloud Storage로 내보내고, Vertex * AI API 또는 gcloud 명령줄 도구를 사용하여 일괄 예측 작업을 구성하고 모델 이름, 모델 버전, 입력 소스, 입력 형식, 출력 대상 및 출력 형식을 제공합니다. 그러나 기록 데이터를 Avro 형식으로 클라우드 스토리지로 내보내고, 내보낸 데이터에 대한 예측을 생성하도록 Vertex AI 일괄 예측 작업을 구성하는 것은 BigQuery에서 기록 데이터에 모델을 적용하도록 Vertex AI 일괄 예측 작업을 구성하는 것보다 더 많은 기술과 단계를 필요로 하며, 일괄 추론 프로세스의 복잡성과 비용을 증가시킬 수 있습니다. 코드를 작성하고, 기록 데이터를 클라우드 스토리지로 내보내고, 일괄 예측 작업을 구성하고, 내보낸 데이터에 대한 예측을 생성해야 합니다. 또한 이 옵션은 배치 추론 프로세스를 간소화하고 빠른 쿼리 성능, 서버리스 확장 및 비용 최적화2와 같은 다양한 이점을 제공할 수 있는 배치 예측 작업의 입력 소스로 BigQuery를 사용하지 않습니다. * 옵션 B: BigQuery ML에서 모델 생성 문을 사용하여 TensorFlow 모델을 가져오고, 기록 데이터를 TensorFlow 모델에 적용하면 Vertex AI를 사용하여 배치 예측 작업을 실행할 수 없으며, 배치 추론 프로세스의 복잡성과 비용이 증가할 수 있습니다. BigQuery ML은 SQL 쿼리를 사용하여 BigQuery에서 머신 러닝 모델을 생성하고 실행할 수 있는 BigQuery의 기능입니다. BigQuery ML은 선형 회귀, 로지스틱 회귀, K-평균 클러스터링, 행렬 인수 분해, 심층 신경망 등 다양한 유형의 모델을 구축하고 훈련하는 데 도움을 줄 수 있습니다. 모델 만들기 문은 BigQuery ML에서 머신 러닝 모델을 만들 수 있는 SQL 문의 한 유형입니다. 모델 생성 문을 사용하면 모델 이름, 모델 유형, 모델 옵션 및 모델 쿼리를 지정하는 데 도움이 될 수 있습니다. BigQuery ML에서 모델 생성 문을 사용하여 TensorFlow 모델을 가져오고, 기록 데이터를 TensorFlow 모델에 적용하면 최소한의 코드와 구성으로 일괄 추론을 수행할 수 있습니다. BigQuery API 또는 bq 명령줄 도구를 사용하여 BigQuery ML에서 모델 생성 문을 사용하여 TensorFlow 모델을 가져오고 모델 이름, 모델 유형, 모델 옵션 및 모델 쿼리를 제공할 수 있습니다. 또한 BigQuery API 또는 bq 명령줄 도구를 사용하여 기록 데이터를 TensorFlow 모델에 적용하고 모델 이름, 입력 데이터 및 출력 대상을 제공할 수 있습니다. 그러나 BigQuery ML에서 create model 문을 사용하여 TensorFlow 모델을 가져와서 기록 데이터를 TensorFlow 모델에 적용하면 Vertex AI를 사용하여 배치 예측 작업을 실행할 수 없으며 배치 추론 프로세스의 복잡성과 비용이 증가할 수 있습니다. 코드를 작성하고, TensorFlow 모델을 가져오고, 기록 데이터를 적용하고, 예측을 생성해야 합니다. 또한 이 옵션은 데이터 분석, 모델 개발, 모델 배포, 모델 모니터링, 모델 거버넌스를 위한 다양한 도구와 서비스를 제공하는 Google Cloud의 머신 러닝 솔루션 구축 및 배포를 위한 통합 플랫폼인 Vertex AI를 사용하지 않습니다3. * 옵션 C: 기록 데이터를 CSV 형식으로 클라우드 스토리지로 내보내고, 내보낸 데이터에 대한 예측을 생성하도록 Vertex AI 일괄 예측 작업을 구성하는 것은 BigQuery의 기록 데이터에 모델을 적용하도록 Vertex AI 일괄 예측 작업을 구성하는 것보다 더 많은 기술과 단계가 필요하며 일괄 추론 프로세스의 복잡성과 비용이 증가될 수 있습니다. CSV는 쉼표로 구분된 값 형식으로 데이터를 저장하고 직렬화할 수 있는 형식의 일종입니다. CSV는 데이터를 저장하고 교환하는 데 도움이 되며, 다양한 데이터 유형과 형식을 지원합니다. 기록 데이터를 CSV 형식으로 클라우드 스토리지로 내보내고, 내보낸 데이터에 대한 예측을 생성하도록 Vertex AI 일괄 예측 작업을 구성하면 최소한의 코드와 구성으로 일괄 추론을 수행할 수 있습니다. BigQuery API 또는 bq 명령줄 도구를 사용하여 기록 데이터를 CSV 형식으로 Cloud Storage로 내보내고, Vertex AI API 또는 gcloud 명령줄 도구를 사용하여 일괄 예측 작업을 구성하고 모델 이름, 모델 버전, 입력 소스, 입력 형식, 출력 대상 및 출력 형식을 제공할 수 있습니다. 그러나 기록 데이터를 CSV 형식으로 클라우드 스토리지로 내보내고, 내보낸 데이터에 대한 예측을 생성하도록 Vertex AI 일괄 예측 작업을 구성하는 것은 BigQuery의 기록 데이터에 모델을 적용하도록 Vertex AI 일괄 예측 작업을 구성하는 것보다 더 많은 기술과 단계가 필요하며 일괄 추론 프로세스의 복잡성과 비용이 증가될 수 있습니다. 코드를 작성하고, 기록 데이터를 클라우드 스토리지로 내보내고, 일괄 예측 작업을 구성하고, 내보낸 데이터에 대한 예측을 생성해야 합니다. 또한 이 옵션은 다음의 입력 소스로 BigQuery를 사용하지 않습니다. * 배치 예측 작업은 배치 추론 프로세스를 간소화하고 빠른 쿼리 성능, 서버리스 확장, 비용 최적화 등 다양한 이점을 제공할 수 있습니다2. 참조: * 배치 예측 | 버텍스 AI | 구글 클라우드 * 테이블 데이터 내보내기 | BigQuery | Google Cloud * 모델 만들기 및 사용 | BigQuery ML | Google Cloud
질문 122 최근에 TensorFlow에서 광범위하고 심층적인 모델을 개발했습니다. 데이터의 인스턴스 수준 변환을 수행하여 BigQuery에서 원시 데이터를 전처리하는 SQL 스크립트를 사용하여 학습 데이터 집합을 생성했습니다. 매주 모델을 재학습하기 위해 학습 파이프라인을 만들어야 합니다. 훈련된 모델은 일일 권장 사항을 생성하는 데 사용됩니다. 모델 개발 및 훈련 시간을 최소화하고 싶습니다. 트레이닝 파이프라인은 어떻게 개발해야 하나요?
* 설명: TensorFlow Extended(TFX)는 TensorFlow를 사용해 엔드투엔드 머신 러닝 파이프라인을 구축하기 위한 플랫폼입니다. TFX는 TFX SDK 또는 Kubeflow 파이프라인을 사용하여 오케스트레이션할 수 있는 구성 요소 집합을 제공합니다. TFX 구성 요소는 데이터 수집, 데이터 유효성 검사, 데이터 변환, 모델 학습, 모델 평가, 모델 제공 등과 같은 파이프라인의 다양한 측면을 처리할 수 있습니다. TFX 구성 요소는 BigQuery, Dataflow, Vertex AI와 같은 다른 Google Cloud 서비스도 활용할 수 있습니다. * A가 아닌 이유: 파이프라인을 구현하기 위해 Kubeflow Pipelines SDK를 사용하는 것은 유효한 옵션이지만, 전처리 스크립트를 실행하기 위해 BigQueryJobOp 구성 요소를 사용하는 것은 최적이 아닙니다. 이 경우 데이터 변환을 위한 별도의 SQL 스크립트를 작성하고 유지 관리해야 하므로 불일치 및 오류가 발생할 수 있습니다. 또한 학습과 서비스 모두에 동일한 전처리 로직을 재사용하기가 더 어려워집니다. * B가 아닌 이유: 파이프라인을 구현하기 위해 Kubeflow Pipelines SDK를 사용하는 것은 유효한 옵션이지만, 데이터를 전처리하기 위해 DataflowPythonJobOp 구성 요소를 사용하는 것은 최적이 아닙니다. 이 경우 데이터 변환을 위해 별도의 Python 스크립트를 작성하고 유지 관리해야 하므로 불일치 및 오류가 발생할 수 있습니다. 또한 학습과 서비스 모두에 동일한 전처리 로직을 재사용하기가 더 어려워집니다. * D를 사용하지 않는 이유 파이프라인을 구현하기 위해 TensorFlow 확장 SDK를 사용하는 것은 유효한 옵션이지만, 전처리 단계를 모델의 input_fn의 일부로 구현하는 것은 최적이 아닙니다. 이렇게 하면 * 전처리 로직이 모델 코드와 긴밀하게 결합되어 모듈성과 유연성이 떨어질 수 있습니다. 또한 학습과 서비스 모두에 동일한 전처리 로직을 재사용하기가 더 어려워질 수 있습니다.
질문 123 은행에서 근무하는 경우 은행 공급업체에서 제공한 사용자 지정 표 형식의 ML 모델이 있습니다. 민감도 때문에 학습 데이터를 사용할 수 없습니다. 이 모델은 각 예측 인스턴스에 대해 문자열을 입력으로 받아들이는 Vertex Al 모델 서비스 컨테이너로 패키징되어 있습니다. 각 문자열에서 특징 값은 쉼표로 구분됩니다. 이 모델을 온라인 예측을 위해 프로덕션에 배포하고 최소한의 노력으로 시간 경과에 따른 특징 분포를 모니터링하려면 어떻게 해야 하나요?
온라인 예측을 위해 맞춤형 표 형식의 ML 모델을 프로덕션에 배포하고 최소한의 노력으로 시간에 따른 특징 분포를 모니터링하는 가장 좋은 옵션은 은행 공급업체에서 제공한 모델을 사용하고, 민감도 때문에 학습 데이터를 사용할 수 없으며, 모델이 각 예측 인스턴스에 대해 문자열을 입력으로 받아들이는 Vertex AI 모델 제공 컨테이너로 패키지되어 있는 경우, 모델을 Vertex AI 모델 레지스트리에 업로드하고, Vertex AI 엔드포인트에 모델을 배포하고, 특징 드리프트 감지를 모니터링 목표로 하는 Vertex AI 모델 모니터링 작업을 생성하고 인스턴스 스키마를 제공하는 방법입니다. 이 옵션을 사용하면 최소한의 코드와 구성으로 모델을 서비스하고 모니터링할 수 있는 Vertex AI의 강력한 성능과 단순성을 활용할 수 있습니다. Vertex AI는 Google Cloud에서 머신 러닝 솔루션을 구축하고 배포하기 위한 통합 플랫폼입니다. Vertex AI는 학습된 모델을 온라인 예측 엔드포인트에 배포하여 개별 인스턴스에 대해 지연 시간이 짧은 예측을 제공할 수 있습니다. 또한 Vertex AI는 데이터 분석, 모델 개발, 모델 배포, 모델 모니터링, 모델 거버넌스를 위한 다양한 도구와 서비스를 제공할 수 있습니다. Vertex AI 모델 레지스트리는 Vertex AI에 모델을 저장하고 관리할 수 있는 리소스입니다. Vertex AI 모델 레지스트리는 모델을 정리 및 추적하고 모델 이름, 모델 설명, 모델 레이블 등 다양한 모델 정보에 액세스할 수 있도록 도와줍니다. Vertex AI 모델 서빙 컨테이너는 Vertex AI에서 커스텀 모델 코드를 실행할 수 있는 리소스입니다. Vertex AI 모델 서빙 컨테이너를 사용하면 모델 코드와 종속 요소를 컨테이너 이미지로 패키징하고 컨테이너 이미지를 온라인 예측 엔드포인트에 배포할 수 있습니다. 버텍스 AI 모델을 제공하는 컨테이너는 JSON, CSV 또는 TFRecord와 같은 다양한 입력 형식을 사용할 수 있습니다. 문자열 입력 형식은 각 예측 인스턴스에 대해 문자열을 입력으로 받아들이는 입력 형식의 한 유형입니다. 문자열 입력 형식을 사용하면 기능 값을 하나의 문자열로 인코딩하고 쉼표로 구분할 수 있습니다. 모델을 Vertex AI 모델 레지스트리에 업로드하고 Vertex AI 엔드포인트에 모델을 배포하면 최소한의 코드와 구성으로 온라인 예측을 위해 모델을 제공할 수 있습니다. Vertex AI API 또는 gcloud 명령줄 도구를 사용하여 모델을 Vertex AI 모델 레지스트리에 업로드하고 모델 이름, 모델 설명 및 모델 레이블을 제공할 수 있습니다. 또한 Vertex AI API 또는 gcloud 명령줄 도구를 사용하여 모델을 Vertex AI 엔드포인트에 배포하고 엔드포인트 이름, 엔드포인트 설명, 엔드포인트 레이블 및 엔드포인트 리소스를 제공할 수 있습니다. Vertex AI 모델 모니터링 작업은 Vertex AI에 배포된 모델의 성능과 품질을 모니터링할 수 있는 리소스입니다. Vertex AI 모델 모니터링 작업은 데이터 드리프트, 예측 드리프트, 학습/서비스 왜곡 또는 모델 부실과 같은 모델 관련 문제를 감지하고 진단하는 데 도움이 될 수 있습니다. 피처 드리프트는 시간 경과에 따른 모델 학습에 사용된 피처와 모델 서비스에 사용된 피처의 분포 차이를 측정하는 일종의 모델 모니터링 메트릭입니다. 피처 드리프트는 온라인 데이터가 시간이 지남에 따라 변화하고 있으며 모델 성능이 저하되고 있음을 나타낼 수 있습니다. 기능 드리프트 감지를 모니터링 목표로 삼고 인스턴스 스키마를 제공하는 Vertex AI 모델 모니터링 작업을 생성하면 최소한의 노력으로 시간 경과에 따른 기능 분포를 모니터링할 수 있습니다. Vertex AI API 또는 gcloud 명령줄 도구를 사용하여 Vertex AI 모델 모니터링 작업을 생성하고 모니터링 목표, 모니터링 빈도, 알림 임계값, 알림 채널을 제공할 수 있습니다. 또한 예측 입력 데이터의 기능과 그 유형을 설명하는 JSON 파일인 인스턴스 스키마를 제공할 수도 있습니다. 인스턴스 스키마는 버텍스 AI 모델 모니터링이 문자열 입력 형식을 구문 분석하고, 특징 분포와 거리 점수를 계산하는 데 도움이 될 수 있습니다1. 다른 옵션은 다음과 같은 이유로 옵션 A만큼 좋지 않습니다: * 옵션 B: 모델을 Vertex AI 모델 레지스트리에 업로드하고 Vertex AI 엔드포인트에 모델을 배포하고, 기능 왜곡 감지를 모니터링 목표로 하여 Vertex AI 모델 모니터링 작업을 생성하고 인스턴스 스키마를 제공하면 시간에 따른 온라인 데이터의 변화를 모니터링하는 데 도움이 되지 않으며 오류나 성능 저하를 유발할 수 있습니다. 피처 스큐는 모델 모니터링 지표의 한 유형으로, 모델 학습에 사용된 피처의 분포와 * 특정 시점에 모델을 학습시키는 데 사용된 특징입니다. 특징 왜곡은 모델이 대표 데이터에 대해 학습되지 않았거나 시간이 지남에 따라 데이터가 변화하고 있음을 나타낼 수 있습니다. 특징 왜곡 감지를 모니터링 목표로 삼아 버텍스 AI 모델 모니터링 작업을 생성하고 인스턴스 스키마를 제공하면 최소한의 노력으로 특정 시점의 특징 분포를 모니터링할 수 있습니다. 그러나 모델을 Vertex AI 모델 레지스트리에 업로드하고, Vertex AI 엔드포인트에 모델을 배포하고, 기능 왜곡 감지를 모니터링 목표로 하는 Vertex AI 모델 모니터링 작업을 생성하고, 인스턴스 스키마를 제공하면 시간 경과에 따른 온라인 데이터의 변화를 모니터링하는 데 도움이 되지 않으며 오류나 성능 저하가 발생할 수 있습니다. Vertex AI API 또는 gcloud 명령줄 도구를 사용하여 모델을 Vertex AI 모델 레지스트리에 업로드하고, Vertex AI 엔드포인트에 모델을 배포하고, Vertex AI 모델 모니터링 작업을 생성하고, 인스턴스 스키마를 제공해야 합니다. 또한 이 옵션은 시간에 따른 온라인 데이터의 변화와 모델 성능 및 품질을 측정하는 데 보다 직접적이고 관련성이 높은 지표인 기능 드리프트는 모니터링하지 않습니다1. * 옵션 C: 키-값 쌍을 입력 형식으로 받아들이도록 서빙 컨테이너를 리팩터링하고, 모델을 Vertex AI 모델 레지스트리에 업로드하고, Vertex AI 엔드포인트에 모델을 배포하고, 기능 드리프트 감지를 모니터링 목표로 하는 Vertex AI 모델 모니터링 작업을 생성하는 것은 Vertex AI 모델 레지스트리에 모델을 업로드하고 Vertex AI 엔드포인트에 모델을 배포하고, 모니터링 목표를 기능 드리프트 감지 및 인스턴스 스키마를 제공하는 것보다 많은 기술과 단계를 필요로 할 수 있습니다. 키-값 쌍 입력 형식은 각 예측 인스턴스에 대해 키-값 쌍을 입력으로 받아들이는 입력 형식의 한 유형입니다. 키-값 쌍 입력 형식을 사용하면 JSON 개체에서 기능 이름과 값을 지정하고 콜론으로 구분할 수 있습니다. 키-값 쌍을 입력 형식으로 받아들이도록 서빙 컨테이너를 리팩터링하고, 모델을 Vertex AI 모델 레지스트리에 업로드하고, Vertex AI 엔드포인트에 모델을 배포하고, 기능 드리프트 감지를 모니터링 목표로 하는 Vertex AI 모델 모니터링 작업을 생성하면 최소한의 코드와 구성으로 모델을 서빙하고 모니터링할 수 있습니다. 키-값 쌍을 입력 형식으로 받아들이도록 서빙 컨테이너를 리팩터링하는 코드를 작성하고, Vertex AI API 또는 gcloud 명령줄 도구를 사용하여 모델을 Vertex AI 모델 레지스트리에 업로드하고, Vertex AI 엔드포인트에 모델을 배포하고, Vertex AI 모델 모니터링 작업을 생성할 수 있습니다. 그러나 키-값 쌍을 입력 형식으로 받아들이도록 서빙 컨테이너를 리팩터링하고, 모델을 Vertex AI 모델 레지스트리에 업로드하고, Vertex AI 엔드포인트에 모델을 배포하고, 기능 드리프트 감지를 모니터링 목표로 하는 Vertex AI 모델 모니터링 작업을 생성하는 것은 Vertex AI 모델 레지스트리에 모델을 업로드하고 Vertex AI 엔드포인트에 모델을 배포하고, 모니터링 목표로 기능 드리프트 감지 및 인스턴스 스키마를 제공하는 것보다 많은 기술과 단계를 필요로 할 수 있습니다. 코드를 작성하고, 서빙 컨테이너를 리팩터링하고, 모델을 Vertex AI 모델 레지스트리에 업로드하고, Vertex AI 엔드포인트에 모델을 배포하고, Vertex AI 모델 모니터링 작업을 생성해야 합니다. 또한 이 옵션은 Vertex AI 모델 모니터링이 문자열 입력 형식을 구문 분석하고 기능 분포 및 거리 점수를 계산하는 데 도움이 되는 JSON 파일인 인스턴스 스키마를 사용하지 않습니다1. * 옵션 D: 키-값 쌍을 입력 형식으로 받아들이도록 서빙 컨테이너를 리팩터링하고, 모델을 Vertex AI 모델 레지스트리에 업로드하고, Vertex AI 엔드포인트에 모델을 배포하고, 특징 왜곡 감지를 모니터링 목표로 하는 Vertex AI 모델 모니터링 작업을 생성하는 것은 Vertex AI 모델 레지스트리에 모델을 업로드하고 Vertex AI 엔드포인트에 모델을 배포하는 것보다 많은 기술과 단계를 필요로 할 수 있습니다, 특징 편향 감지를 모니터링 목표로 삼고 인스턴스 스키마를 제공하는 Vertex AI 모델 모니터링 작업을 생성하면 시간이 지남에 따라 온라인 데이터의 변화를 모니터링하는 데 도움이 되지 않으며 오류나 성능 저하가 발생할 수 있습니다. 특징 왜곡은 모델 모니터링 메트릭의 한 유형으로, 특정 시점에 모델을 학습시키는 데 사용된 특징과 모델을 서비스하는 데 사용된 특징의 분포 차이를 측정하는 것입니다. 특징 왜곡은 모델이 대표 데이터에 대해 학습되지 않았거나 시간이 지남에 따라 데이터가 변화하고 있음을 나타낼 수 있습니다. 특징 왜곡 감지를 모니터링 목표로 삼아 버텍스 AI 모델 모니터링 작업을 생성하면 최소한의 노력으로 특정 시점의 특징 분포를 모니터링할 수 있습니다. 그러나 * 키-값 쌍을 입력 형식으로 받아들이는 컨테이너를 제공하고, 모델을 Vertex AI 모델 레지스트리에 업로드하고, Vertex AI 엔드포인트에 모델을 배포하고, 특징 왜곡 감지를 모니터링 목표로 하는 Vertex AI 모델 모니터링 작업을 생성하는 것은 Vertex AI 모델 레지스트리에 모델을 업로드하고 Vertex AI 엔드포인트에 모델을 배포하는 것보다 더 많은 기술과 단계를 필요로 합니다, 기능 드리프트 감지를 모니터링 목표로 삼고 인스턴스 스키마를 제공하는 Vertex AI 모델 모니터링 작업을 생성하면 시간 경과에 따른 온라인 데이터의 변화를 모니터링하는 데 도움이 되지 않으며 오류나 성능 저하가 발생할 수 있습니다. 코드를 작성하고, 서빙 컨테이너를 리팩터링하고, 모델을 Vertex AI 모델 레지스트리에 업로드하고, Vertex AI 엔드포인트에 모델을 배포하고, Vertex AI 모델 모니터링 작업을 생성해야 합니다. 또한 이 옵션은 시간에 따른 온라인 데이터의 변화와 모델 성능 및 품질을 측정하는 보다 직접적이고 관련성 있는 지표인 기능 드리프트는 모니터링하지 않습니다1. 참조: * 모델 모니터링 사용 | Vertex AI | Google Cloud