MLOps 7

[MLOps] 1. Motivation for MLOps

link: https://ml-ops.org/content/motivation Why you Might Want to use Machine Learning. 왜 ML을 적용하고 싶은가? Statista Digital Economy Compass 2019,에 따르면 최근 트렌드는 Data driven 세상. 엄청난 기하급수적으로 증가하는 데이터가 모이는 세상인 것과 이렇게 모여진 데이터에서 insight를 찾아내는 rtificial Intelligence / Machine Learning / Data Science 가 증가한다는 것. 모든 ML pipeline은 model을 만드는데 필요한 모든 연산들의 set이다. 요약: 그래서 대체 MLOps가 뭔데? MLOps, as a DevOps extension..

MLOps 2024.04.09

[MLOps] Data Management (data version control) - DVC

최근 회사에서 MLOps 의 필요성이 많이 대두되고 있어서 (ex. 연구시 AI model에 dependency가 있는 package들의 관리가 필요한데, 이를 개발팀에서 좀 도와줬으면 한다.. 등) 패스트캠퍼스의 강의 내용과 제가 이해한 바를 정리한 글입니다. 관련 내용과 실습한 code는 https://github.com/Gracechung-sw/mlops-practice 에서 확인하실 수 있습니다. Data Management에 있어서 강의 외에도 실제 실습에 도움이 많이 되었던 글은 MLOps Basics [Week 3]: Data Version Control - DVC 입니다. 아래 글에서 인용 박스 안에 적힌 내용은 강의가 아닌 실제 현업 경험 중 연관되어 생각난 것들을 적어둔 것입니다. In..

MLOps 2023.04.30

[Lecture] Deploying Machine Learning Models in Production Week2 - 5. Batch Inference Scenarios, 6. Batch Processing with ETL

Batch Inference Scenarios 이번에는 Online inference가 아닌 Batch Inference에서의 model performance와 resoure requirements에 대해서 알아보았다. Batch Inference는 Prediction based on batch inference is when your ML model is used in a batch scoring job for a large number of data points where predictions are not required or not feasible to generate in real-time. 이런 경우에 사용된다. 그리고, Batch jobs for prediction are usually ge..

MLOps 2021.11.21

[Lecture] Deploying Machine Learning Models in Production Week2 - 3. Online Inference

머신러닝 모델을 만들면 Product에 모델을 배포하고, inference 요청에 대한 응답(모델의 예측값을 사용자에게 응답)을 할 수 있도록 모델 API를 제공해야 한다. 즉, model serving을 해야 한다. 어떤 식으로 모델을 배포할 수 있는지 소개하는 과정의 Week 2: Model Serving: Patterns and Infrastructure을 학습했고, 그중 3번째 주제인 Online Inference와 실습에 대해서 배운 것을 정리해 보았다. Online Inference inference방식으로는 batch inference와 online inference가 있다. batch inference는 말 그대로 데이터를 배치 단위로 인퍼런스 하는 것이다. 이러한 배치 단위의 작업들은 일..

MLOps 2021.11.21

[Lecture] Deploying Machine Learning Models in Production Week2 - 2. Scaling Infrastructure

머신러닝 모델을 만들면 Product에 모델을 배포하고, inference 요청에 대한 응답(모델의 예측값을 사용자에게 응답)을 할 수 있도록 모델 API를 제공해야 한다. 즉, model serving을 해야 한다. 어떤 식으로 모델을 배포하고 운영할 수 있는지 소개하는 과정의 Week 2: Model Serving: Patterns and Infrastructure - Scaling Infrastructure 내용에 대해서 배운 것을 정리해 보았다. Scaling Infrastructure Why Horizontal Over Vertical Scaling Benefit of elasticity: Shrink or growth no of nodes based on load, throughput, lat..

MLOps 2021.11.07