초격차 패키지 Online.

10개 프로젝트로 한 번에 끝내는
MLOps 파이프라인 구현

  • 기업의 서버 환경에 따른
    MLOps 파이프라인 구축

    클라우드 환경과 도커 & 에어플로우 기반의
    MLOps 파이프라인 구축부터 CI/CD 배포까지!

  • 가상 환경이 아닌 실제 IT 기업들의
    MLOps 구축 시 고려해야 할 노하우 학습

    모델을 상용화해서 서비스화할 시에
    고려해야 할 요소들을 IT 기업의 사례로 학습

  • 10개의 최종 프로젝트로
    완벽하게 구현하는 MLOps 파이프라인

    MLOps 대표 사용 목표인 데이터의 업데이트 빈도
    기반 변화하는 MLOps 파이프라인 설계/구축

코스 프로모션 배너 전용입니다.
0 0시간 0 0 코스 프로모션 배너 전용입니다.

MLOps 서비스 구축/운영을 위해서는
어떤 역량이 필요할까요?

MLOps란

채용공고에서 알 수 있듯이
MLOps 기반 서비스 구축/운영에는

MLOps 구축

모든 단계의 경험이 필요로 합니다.

그러나 기존 강의들은 ML모델 개발에만 집중하여
서비스 목적에 맞는 모델 유지/관리 문제 해결에 한계가 있었습니다.

MLOps란
MLOps 구축

ML 모델 개발만 학습했을 때 발생하는 문제점

즉, MLOps를 구축하기 위해서
모델 개발 > 최적화 > CI/CD > 자동화 까지
하나의 흐름으로 경험해 봐야 합니다.

그래서 준비했습니다.
MLOps의 모든 흐름을 한번에 끝내기 위한 단 하나의 강의

MLOps 구축

실무의 경험을 그대로 옮겨 담은
IT 대기업 사례 기반의 10가지 MLOps 프로젝트 구축

MLOps 구축 프로젝트

프로젝트 뿐만 아니라,
수강생의 다양한 구축 환경을 고려한 폭 넓은 커리큘럼,
MLOps 학습에 필요한 부가적인 구성까지 제대로 준비 했습니다.

모델 개발에서 운영,관리까지!
MLOps 전체 파이프라인 구축을 위해 집중한


4가지 초격차 포인트!

미리보기

아직 고민 중이신가요?
강의를 미리보고 결정하세요!

Model Serving
Monitoring & Trouble Shooting

MLOps 파이프라인 구축에 더 도움이 될 수 있는

4가지의 부가자료 혜택까지!

초격차 Point 1

IT 대기업 이커머스, 금융, 제조업 실제 사례 기반
10가지 MLOps 파이프라인 구축 프로젝트

N사, H사, 카카오뱅크, CJ 올리브네트웍스의 MLOps 엔지니어 강사님들과 함께
모델 업데이트 빈도 기준에 따라 변화되는 MLOps 파이프라인을 설계 & 구축합니다.

MLOps 구축 프로젝트


| 학습 목표
N사 커머스에 입점한 여러 쇼핑몰에서 실시간으로 유입되는 상품 카테고리를
자동으로 분류하기 위한 서빙 파이프라인과 Inference 환경 구축

| 학습 내용
MLFlow 활용 상황 파악
KServe 및 여러 인프라 구축 및 활용법
gitops와 KServe를 이용한 Serving 파이프라인
Kafka를 이용한 실시간 유입 상품 Inference
효율적인 자원 사용을 위한 방법

| 주요 Key Point
상품 카테고리를 자동으로 분류하는
모델 배포의 자동화


| 학습 목표
커스텀한 MLOps Library를 개발하고 각 고객을 식별하여
관리할 수 있는 AI 서비스를 개발합니다.

| 학습 내용
FastAPI 활용 방법
Custom Library 생성 방법
Kubernetes 환경 구축 및 활용 방법
ArgoCD 기반 CI/CD 구축 및 활용 방법
GCP 기반 ETL 구축

| 주요 Key Point
모델 학습 후, 바로 AI 서비스로 배포될 수 있는 환경 구성과
서비스의 원활한 운영을 위한 CI/CD 파이프라인 구축

MLOps 구축 프로젝트


| 학습 목표
금융 환경에서 이상탐지 모델을 MLOps에 적용하기 위해
밑바닥부터 모든 환경을 구축합니다.

| 학습 내용
도입에 적합한 MLOps 솔루션 리서치
이상탐지 데이터 & 모델 구성
Gitlab 기반 CI/CD 환경 구성
Airflow를 활용한 ML 파이프라인 구성
ML 모델을 CI/CD에 배포
Bento ML을 이용한 ML 모델 서빙

| 주요 Key Point
금융환경에서 MLOps 구축에 필요한 제약 조건을 이해하고,
실제 파이프라인을 A to Z 모두 하나하나 구현 해봅니다.


| 학습 목표
개발한 이상탐지 모델 기반 MLOps 환경에서 이상탐지의 성능을
높이기 위한 모니터링 환경 구축과 메트릭 분석을 직접 수행합니다.

| 학습 내용
성능 튜닝을 위한 모니터링 환경을 이해
grafana & prometheus를 활용한 대시보드 구성
MLFlow 모델 모니터링
Airflow & BentoML을 활용한 모니터링 메트릭 수집
Airflow & BentoML 기반 모니터링 성능 개선

| 주요 Key Point
MLOps 모니터링을 위한 환경을 이해하고, 성능 개선에 필요한
메트릭을 분석합니다.


| 학습 목표
MLFlow를 활용하여 모델을 개발부터 배포 단계까지의 과정을
간소화하고 효율적으로 관리하는 방법을 학습합니다.

| 학습 내용
MLFlow 환경 설정
은행 마케팅 고객 데이터 셋 로딩
모델 개발 및 하이퍼파라미터 튜닝
모델 평가 및 배포

| 주요 Key Point
MLOps를 사용하기 전에 비해 MLFlow를 활용하여 모델을
효율적으로 개발하는 방법 학습


| 학습 목표
AWS SageMaker를 활용하여 신용 승인 예측 모델을 개발하고 한 달 주기로
모델을 자동으로 업데이트 후 배포하는 MLOps 파이프라인을 구축합니다.

| 학습 내용
신용 승인 데이터의 이해
신용 승인 모델 개발
CI/CD 구축 및 모델 스케쥴링
로그 및 모니터링 설정

| 주요 Key Point
한 달 주기로 모델을 업데이트 하는 CI/CD 구축 후,
로그 및 모델 성능 모니터링을 구성

MLOps 구축 프로젝트


| 학습 목표
챗봇 등 자연어 처리에서 자주 활용하는 개체명 인식을 학습 시키기 위한
Kubeflow 활용 및 파이프라인을 구성합니다.

| 학습 내용
Kubeflow 활용 시나리오 파악
Cloud Native 환경 구축에 대한 이해
IaaC에 기반한 Cloud Engineering 및 Terraform 활용
설치형 환경에서의 Cloud 접근 및 서비스 활용
Jupyter Notebook, Terminal 등 ML/DL 연구자를 위한 리소스 할당
Kubeflow 파이프라인 구축을 통한 연구와 서비스의 연계


| 주요 Key Point
ML/DL 연구자와의 학습 리소스 할당과 학습 결과물의 파이프라인 연계


| 학습 목표
실무에서 경험할 수 있는 Multiple ML/DL Framework에 대한
고성능 모델 서빙 파이프라인을 구성합니다.

| 학습 내용
NVIDIA 공식 Serving 방식인 Trition Inference Server에 대한 이해
범용성 높고 재활용성이 높은 Triton을 활용한
Multiple ML/DL Framework 대응
Dynamic Batching, Ensemble 등을 활용한 고성능 모델 서빙

| 주요 Key Point
MLOps Engineer가 자주 맞이하게 되는 다양한 프레임워크로
구성된 ML/DL 모델들의 서빙에 필수적인 Triton Inference
Server에 대한 사용 및 활용방법


| 학습 목표
Data Drift 탐지를 통해 운영하고 있는 이상 탐지 모델 성능을 모니터링하고
성능이 떨어졌을 때, 배치성으로 모델을 재학습 및 배포합니다.

| 학습 내용
Data Drift를 통한 트리거 발동 구현
Airflow 환경 구축
배치성 트리거 기반 재학습 파이프라인 개발


| 주요 Key Point
운영 중인 이상 탐지 모델의 성능을 지속적으로 판단하기 위한
모델 성능 모니터링 및 업데이트 자동화


| 학습 목표
도메인에 종속받지 않고 어떤 상황에서든지 서비스에 적용하고자
하는 ML 모델을 얻기 위한 Airflow 환경 구축

| 학습 내용
MLOps 활용 상황 파악
MLEngineer를 위한 독립적인 Airflow 환경 구축
Airflow를 활용한 ML 모델 학습 파이프라인
효율적인 자원 사용을 위한 모델 학습 방법

| 주요 Key Point
다양한 데이터로 실험해보면서 독립적으로 ML 모델을
구축해볼 수 있는 환경 구성

초격차 Point 2

머신러닝 서비스를 구축하기 위한 모델 개발부터
Airflow & Docker를 활용한 MLOps 파이프라인 구축

MLOps를 활용한 머신러닝 서비스 구축을 위해 머신러닝 모델을 개발하는 과정부터

모델을 실제 서비스단에서 관리하고 모니터링하는 방법을 한 번에 학습합니다.

∞ Model Development

MLOps를 활용하여, Model을 개발하면서 발생하는 비효율화를 어떻게 제거하는지 방법을 학습합니다.

∞ Model Operation

MLOps를 활용하여, Model을 서빙하고 운영하면서 발생하는 비효율화를 어떻게 제거하는지 방법을 학습합니다.

초격차 Point 3

ML Flow, AWS Sagemaker, GCP 3개의 클라우드
플랫폼 환경에서 구축하는 MLOps 파이프라인 구축

클라우드 환경에서의 MLOps를 설계하는 방법을 학습하고, 각 클라우드 플랫폼에서
제공하는 ML 플랫폼으로 서버 환경 별 MLOps 파이프라인을 구현합니다.

MLFlow를 활용한 MLOps 파이프라인 구축
MLFlow를 활용한 MLOps 파이프라인 구축

MLFlow 기술을 활용해 반복되는 데이터 엔지니어링과 모델 학습을 효율적으로 하는 방법을 학습합니다.
MLFlow 기술을 활용해 Model Serving 방법을 학습합니다.

AWS를 활용한 MLOps 파이프라인 구축
AWS를 활용한 MLOps 파이프라인 구축

데이터 준비를 위해 Data Labeling과 Feature Engineering을 수행합니다.
모델을 개발하기 위한 학습부터 모델 선택까지 전 과정을 학습합니다.
모델을 개발하기 위한 학습부터 모델 선택까지 전 과정을 학습합니다.
ML을 서비스화 하기 위한 전체 파이프라인을 직접 구성합니다.
서비스화 한 ML을 모니터링하며 문제점을 발견하고 해결합니다.

GCP를 활용한  MLOps 파이프라인 구축
GCP를 활용한  MLOps 파이프라인 구축

GCP 플랫폼에 대한 이해와 GCP 환경에서 MLOps 파이프라인을 구축하기 위한 환경을 구현합니다.
모델 학습을 위한 데이터를 어떻게 준비하는지 학습합니다.
GCP 플랫폼 기반으로 어떻게 모델을 구축하는지 학습합니다.
ML 파이프라인을 구성하며 반복되는 작업을 어떻게 최적화하는지 학습합니다.
CI/CD를 직접 구성합니다.

초격차 Point 4

대표적인 3가지 자동화 목표에 따른
MLOps 파이프라인 특성 학습
의 이해

MLOps의 등장 배경과 핵심 구성 요소를 학습하고
각 단계 별로 자동화할 수 있는 MLOps 파이프라인의 특징을 이해합니다.

MLOps 모델 최적화


1. 데이터 분석, 데이터 준비, 모델 학습, 모델 검증을 포함한
모든 단계를 수동으로 수행합니다.
2. 모델 구현시에 최적화/모델 선택을 manually(손수) 진행합니다.
모델 업데이트 주기가 길거나 관리할 모델이 적은경우에 사람이
직접 
모델 업데이트를 진행합니다.
3. 구현 변경사항과 모델 버전이 자주 배포되지 않으므로 CI/CD가
고려되지 않습니다.
4. 모델 최적화를 진행하기 위한 모니터링을 수행합니다.
CI/CD 파이프라인



1. ML 파이프라인 자동화를 통해 모델을 지속적으로 학습하고
모델 
예측 서비스를 지속적으로 수행할 수 있습니다.
2. 실시간 파이프라인 트리거를 기반으로 하는 새로운 데이터를
사용하여 모델이 프로덕션 단계에서 자동으로 학습됩니다.
3.새로운 데이터로 학습된 새 모델에 예측 서비스를 지속적으로
배포합니다.
4. 학습된 모델을 예측 서비스로 제공하기 위한 자동 반복
실행되는 전체 학습 파이프라인을 배포합니다.
MLOps 모델 자동화


1. 프로덕션 단계에서 파이프라인을 빠르고 안정적으로 업데이트
하기위한 강력하고 자동화 된 CI/CD 시스템을 구축합니다.
2. 특성 추출, 모델 아키텍쳐, 초매게변수에 대한 새로운
아이디어를 빠르게 살펴볼 수 있습니다.
3. CI : 소스 코드를 빌드하고 이후 단계에서 배포할 파이프라인
구성요소(패키지, 실행 파일 및 아티팩트)를 테스트합니다.
4. CD : CI 단계에서 생성된 아티팩트를 대상 환경에 배포하고,
모델의 새로운 구현이 포함된 파이프라인을 출력합니다.
5. 일정에 따라 혹은 트리거에 대한 응답으로 프로덕션 환경에서
파이프라인을 자동으로 실행합니다.

궁금한 내용은 언제든
디스코드 질의응답 채널에 질문하세요!

현직 MLOps 엔지니어 강사님들이 직접 답변 드립니다!

10개 프로젝트로 한 번에 끝내는 MLOps 파이프라인 구현

*교육 내용 범주 안에서만 질의응답 가능합니다.
*2023년 11월 24일부터 2025년 11월 24일까지 운영됩니다.

아무리 구성이 좋아도 아무나 가르친다면 의미 없죠!
MLOps를 가장 대표적으로 활용하고 있는 IT 대기업 & 스타트업 MLOps 엔지니어 전문가들과 함께 배워보세요!

MLOps란
  • 상세 커리큘럼.

    자세한 커리큘럼 및 내용은 여기서 확인하세요!

10개 프로젝트로 한 번에 끝내는 MLOps 파이프라인 구현
Question 1.
어떤 분들이
수강하시면 좋을까요?
• 모델을 지속적으로 관리하고 프로덕션화에 필요한 역량을 쌓고 싶은 Data Scientist
• AI 서비스를 운영하기 위해 머신러닝 모델을 소프트웨어 시스템에 통합하고 관리하는
방법을 배우고 싶은 소프트웨어 엔지니어 및 개발자
• 모델을 훈련 후, 운영 환경으로의 신속한 배포와 지속적인 모니터링이 필요한
ML Engineer

Question 2.
필요한
선수지식이 있을까요?
• 주요 머신러닝 알고리즘의 이해(Anomaly Detection, Regression,
Classfication 등)
• Python(Pandas, Numpy, Scikit Learn) 라이브러리의 이해, Tensorflow 기본
• Docker & Kubernetes & 클라우드 플랫폼 등 각 서버의 기본적인 이해
• Git 활용법

Question 3.
개발 환경
• Mac & Linux 환경(Window 환경에서도 가능하나 일부 환경 설정에 어려움이
있을 수 있습니다.
• Python, Jupyter Notebook, Scikit Learn, ML을 위한 Python 라이브러리
• Pytorch, Tensorflow 프레임워크
• MLFlow, AWS SageMaker, GCP 클라우드 플랫폼
• Kubernetes, minikube, Docker, Airflow 환경
• ArgoCD, heml, FastAPI 환경
• Visual Studio Code

커리큘럼

아래의 모든 강의를 초격차 패키지 하나로 모두 들을 수 있습니다.
지금 한 번만 결제하고 모든 강의를 평생 소장하세요!

Part 1. 머신러닝, 제대로 알고 가자!

Part 2. 머신러닝 상품화

Part 3. 머신러닝 상품화를 위한 클라우드 플랫폼

Part 4. IT 대기업 이커머스, 금융, 제조업 사례 기반 10개의 MLOps 파이프라인 구축

이 강의도 추천해요.
AI 강의