정점 AI: 머신 러닝 파이프라인을 실행하는 가장 간단한 방법
구글은 2021년 5월 구글의 AI 툴을 활용해 모델을 빠르게 전개할 수 있도록 도와주는 통합 머신러닝 플랫폼 버텍스 AI를 발표했다. 겉으로 보면 버텍스 AI가 구글의 기존 AI 플랫폼을 리브랜드한 것일 수도 있고, 아마존 세이지메이커나 애저 ML 같은 경쟁자들을 겨냥한 것으로 보인다.
그러나 이는 그 이상의 의미를 가지고 있습니다. 즉, 기업이 절실히 필요로 하는 포괄적인 MLOps 솔루션을 보장합니다.
버텍스 AI를 알았을 때, 저는 어떻게 하면 이 플랫폼을 사용하여 머신 러닝을 그들의 운영에 통합하기를 원하는 회사들의 장벽을 제거할 수 있을까 하는 생각을 멈출 수 없었습니다. 그러나 Vertex AI가 기계 학습에서 수행하는 역할을 이해하기 위해서는 먼저 MLOps를 이해해야 한다.
MLOps란?
MLOps는 모델 생산 문제를 줄이고 ML 모델과 관련 장치를 최대한 활용하며 리스크를 완화하는 방법이다.
모델을 준비하기 위한 많은 장치들이 있지만, 모델은 단지 시작에 불과합니다. 인공지능의 성취의 열쇠는 다음과 같습니다.
· 공동 작업: 서로 다른 전문분야를 가진 사람들은 효과적으로 함께 일할 수 있는 권한을 부여받는다.
· 프로벤던스: 모든 모델에 대해 해당 모델을 만드는 데 사용된 코드 버전, 데이터 버전 및 매개 변수를 추적할 수 있습니다.
· 재현성: 실험 모델과 생산 모델 모두 온디맨드 방식으로 쉽게 재현할 수 있습니다.
· 연속성: 모델 및 관련 인프라를 자동적이고 일관성 있게 구축, 테스트 및 구현할 수 있습니다.
정점 AI란 무엇인가?
버텍스 AI의 목표는 머신러닝과 인공지능을 위한 통합 플랫폼이 되는 것이다. Azure Machine Learning에 익숙한 사람들을 위해, 이것은 구글의 Azure ML에 대한 대답입니다.
그러나 호스트 환경에 대한 몇 가지 추가 기능을 제공하고 몇 가지 이점을 더욱 간소화할 수 있습니다. 이에 대해 자세히 설명하겠습니다.
정점 AI가 ML 워크플로우에 적합한 방법:
Vertex AI는 일반적인 ML 작업 프로세스에서 일상적인 심부름을 수행하는 데 필요한 모든 장치를 통합합니다. 각 단계에 대해 간략하게 설명하고 Vertex AI가 어떻게 도움이 되는지 분명하게 설명하겠습니다.
Vertex AI를 사용하여 ML Workflow에서 다음 단계를 관리할 수 있습니다.
- 연수유입
· 데이터 세트 업로드
· 데이터에 대한 기계 사용능력 모델 교육
훈련하는 동안 모델의 정확도를 평가할 수 있으며, 사용자 지정 훈련을 사용하는 경우 하이퍼 파라미터 튜닝도 사용할 수 있다.
- 배치
· Vertex AI에 훈련된 모델 업로드 및 저장
· 모델의 예측을 제공할 수 있도록 모델을 끝점으로 배치
· 예측을 위해 엔드포인트에 대한 요청 실행
· 엔드포인트에서 트래픽 분할 지정
· 모델 및 엔드포인트 관리
정점 AI의 워크플로우
각 ML 프로젝트는 테스트로 시작합니다. 일반적으로 다양한 전략, 배치 및 데이터셋이 포함된 더미입니다. 따라서 이 단계에서 조정된 노력에 뒤지지 않기 위해서는 후속 조치가 필수적이다.
1) 데이터 수집 및 라벨링
이 워크플로의 첫 번째 단계는 데이터를 로드하는 것입니다. Vertex AI에서는 지도 데이터 세트를 만들 수 있어 도움이 된다. 정보의 초점 영역을 갖는다는 것은 진실의 샘이 하나 있다는 것을 의미한다.
(현재로서는) 누락된 주요 구성요소는 정보 형성이며, 이는 완전한 모델 출처가 필요하다고 가정할 때 기본이다. 데이터 세트는 사진, 테이블, 텍스트 및 비디오 등 다양한 종류가 있습니다.
2) 교육
ML 활동에서 주로 필요한 한 가지는 버텍스 AI에서 모델을 훈련시키는 것이다. AutoML을 활용하거나 커스터마이징에 관계없이 모델을 준비할 수 있으며, AI 플랫폼 교육에서 접근할 수 있는 광범위한 커스터마이징 선택과 활용 사례를 활용할 수 있다.
AI 플랫폼 교육을 활용하여 분산 준비, 하이퍼 파라미터 튜닝, GPU로 사이클 속도 향상과 같은 다양한 머신 유형을 활용하여 ML 준비를 제어할 수 있다.
· 코드를 구성하지 않고 쌓인 데이터 집합을 활용하여 모델을 준비해야 한다고 가정하면 AutoML을 사용할 수 있습니다. 또한 기능 엔지니어링과 같은 모든 데이터 준비 단계를 처리합니다.
· 두 번째 옵션은 더 많은 작업을 수행하는 사용자 지정 교육이지만, 더 많은 제어력을 제공합니다. AutoML 멘토가 할 수 있는 것보다 더 많은 작업을 수행하는 경우에 유용합니다.
· 세 번째 옵션은 AutoML Edge입니다. 비전 관련 대상(사진 및 비디오)의 경우 인터넷 사용이 불가능한 휴대폰 또는 사내 프레임워크에 사용되는 모델을 준비할 수도 있습니다.
버텍스 AI의 파이프라인은 큐브플로 파이프라인입니다. 이러한 새로운 사람들에게, 쿠베플로는 쿠베르네테스에 대한 갑작스러운 수요 급증을 처리할 수 있는 AI 시스템이다.
흥미롭게도, Vertex AI를 사용하면 파운데이션을 운영하지 않고도 Kubeflow를 얻을 수 있는데, 이것은 번거로울 것입니다. 그러나 한편으로, 대부분의 사람들은 KubeFlow에 의심이 있다는 것에 동의할 것이다.
3) 평가
ML 모형을 사용하기 전에 ML 모델이 기대값을 예측하는 기능을 수행하고 있는지 확인해야 합니다.
이제 꽃의 훈련 이미지를 데이터 세트에 추가하고 다시 훈련할 수 있습니다. Vertex AI의 설명 가능한 AI 기능은 Vertex Prediction, AutoML Tables 및 Notebook에 통합된 강력하고 실행 가능한 설명을 통해 모델 예측에 대한 이해와 신뢰를 구축하는 데 도움이 될 수 있습니다.
4) 배포
이 단계에서는 모델이 교육되면 최종적으로 모델을 배포할 수 있습니다. 우리는 사용자가 예측을 사용할 수 있는 엔드포인트에서 모델을 예측하는 기계 학습 모델을 제공한다. 우리는 또한 Vertex AI에서 이것을 할 수 있으므로 Vertex AI가 훈련되지 않은 모델에 대한 옵션도 제공한다.
AutoML과 사용자 정의 모델 모두에 대해 배포 중에 트래픽 분할을 생성하여 다른 모델을 실험할 수 있습니다. A/B 테스트를 수행하고자 하는 경우, 이는 모델에 필요한 리소스를 미세 조정하고 Vertex AI가 확장해야 하는 최대 컴퓨팅 노드 수를 지정하여 자동 확장 기능을 이용할 수 있습니다.
5) 모니터링
Vertex AI Endpoint는 또한 예측 및 초당 요청, 지연 시간 및 예측의 오류 백분율에 대한 모니터링 기능을 제공합니다. 개념/데이터 드리프트 문제를 처리하려면 추가적인 노력이 필요합니다. 그럼에도 불구하고, Vertex AI로 예측 요청의 오류, 예측 지연 및 처리량의 충분성을 감지하는 데 충분하다.
Vertex AI는 테이블 모델과 사용자 지정 훈련된 모델에 대한 추가 모니터링 기능을 제공하여 현재 모델의 동작을 심층적으로 검사한다. 그래도 AutoML 모델은 곧 지원될 것 같습니다.
6) 예측
데이터를 클라우드 스토리지 버킷에 업로드하고 예측을 위해 선택합니다. 데이터 유형은 모델에 따라 달라집니다.
모델 리소스를 배포된 모델로 엔드포인트에 배포할 때 사용자 지정 학습된 모델 또는 AutoML 표 모델을 사용하여 온라인 예측을 처리할 시스템 유형을 제공해야 합니다. Vertex AI는 다양한 종류의 AutoML 모델에 대한 기계 유형을 자동으로 구성합니다.
결론
이제 Vertex AI가 데이터 수집에서 실제 가동에 이르기까지 ML 모델을 만드는 맥락에서 어떤 역할을 하는지 이해하셨기를 바랍니다.
버텍스 AI의 세 가지 가장 좋은 점은 사용자 인터페이스에 접근 가능하고 깨끗하고 직관적이며 여러 진입점을 가지고 있다는 것이다.
AutoML을 사용하든 완전히 사용자 지정된 코드와 확장 가능한 인프라를 사용하든 Vertex AI를 사용하여 몇 분 안에 모델을 제작할 수 있습니다.
경험이 풍부한 MLOps 전문가와 설계자는 독점적인 지식과 경험을 가진 Vertex AI 서비스를 구현할 수 있는 기술을 보유하고 있다.