[번들] 8개의 sLM 모델로 끝내는 sLM 파인튜닝
초격차 패키지 Online.
8개의 sLM 모델로 끝내는
sLM 파인튜닝
-
LLM보다 현실적으로 더 나은 대안,
sLM 활용 방법을 배워야 하는 명확한 이유소규모 조직에서 LLM의 주요 한계인 데이터 크기, 높은 컴퓨팅 파워 문제를 해결하고 원하는 서비스 개발에 따라 모델 결합 방법 학습
-
8개의 sLM 모델을 학습하며 Task에 맞춘
5개의 sLM 모델 파인튜닝 프로젝트 실습LLaMA3, Phi-2, Gemma 등 기업에서 적용하고자 하는 LLM Task 마다 각각 강점을 보이는 최신 sLM 활용한 5개 프로젝트 실습
-
기업에서 AI 서비스를 개발할 때 고민하는
보안 위협과 불용어/비속어 처리까지기업 내부 네트워크 상에서 sLM을 구축하여 데이터 유출의 위험을 낮추면서 자유롭게 sLM을 활용하는 현실적인 노하우까지!
기본 정보
∙ 5개 대주제(약 30시간30분 분량)
∙ 입문 - 실전 -심화
사전 지식
∙ Python과 Pytorch 프레임워크 활용 가능
∙ Linux 기본적인 명령어 활용 가능
강의 특징
∙ 수강료 1회 결제로 평생 소장
◆
AI 대전환 시대, LLM 개발에 이어 sLM 등장!
Galaxy S24의 인공지능 실시간 통번역 기능에 LLaMA-2가 적용된 사례처럼
최근 LLM 모델의 크기가 작더라도 특정 분야에 효과적인
성능을 내고 있는
sLM의 실 적용 사례에 관심이 급부상하고 있습니다.
◆
인공지능 시장에서 LLM 개발에 집중하고 있던 주요 기업들은
왜 sLM을 주목하고 있을까요?
AI 기술 개발 이후 서비스에 적용하는 단계로 넘어오며 비용 절감의 중요성이 커지자
도메인(산업) 별 특화된 언어 모델 적용
에 대한 관심이 커지고 있습니다.
◆
sLM을 활용하였을 때
AI 서비스 개발에서 얻을 수 있는 3가지 장점
파라미터 크기 대비 성능 효율성
sLM은 낮은 파라미터 자원으로도
LLM과 비교 시 높은 성능을 보여주고 있습니다.
2024.04 기준
산업 도메인 특화 sLM
sLM은 특정 산업에 활용하기 위한
파인튜닝 시
LLM보다 더 정확한 결과를
얻을 수 있습니다.
보안에 특화된 sLM
sLM은 기업 및 기관 내부에 설치하는 구축형 On-premise 방식으로
기업에서 생성 AI 구현에 가장 효과적으로 활용할 수 있습니다.
-
Meta LLaMA-3Meta에서 개발한 sLM LLaMA-3는 Code Shield에서 생성된 안전하지 않는 코드에 대한 추론 시간 필터링이 추가되어 안전하지 않는 코드 제안, 코드 해석기 남용 위험을 완화합니다.
-
Naver Hyperclova-X네이버에서 개발한 sLM Hyperclova-X는 자체 하이브리드 클라우드 솔루션인 뉴로클라우드에서 물리적으로 기업 자체의 데이터 센터를 보유하며 강력한 보안을 담보할 수 있습니다.
-
Google GemmaGoogle에서 개발한 sLM Gemma는 민감한 데이터 검사와 비즈니스 AI 원칙 준수와 같은 기능을 자동화하며 보안을 염두에 두고 개발되었습니다.
파라미터 자원(투자 비용) 대비 높은 성능 효율성, 도메인 특화 강점, 강력한 보안 유지까지
기업에서 AI 서비스 개발에 필요한 3박자를 모두 갖춘
sLM의 도입이 늦어지면 늦어질수록
AI 서비스 개발 경쟁에서 점점 뒤쳐지게 될 것입니다.
스폐셜 기간 한정 패키지
여러분을 LLM 전문가로 만들어 줄 두 강의를
저렴한 가격으로 한 번에!
패키지 상품을 선택하고 패키지 상품을 선택하고 LLM 파인 튜닝에 대한 개념부터
실전 LLM 서비스 개발을 위한 노하우까지 평생 소장하세요.
(※ 위 묶음 상품은 1+1 페이백 등 프로모션과 중복 적용되지 않습니다.)
그래서 준비했습니다!
8개 sLM 모델로 끝내는 sLM 모델 파인튜닝 초격차 패키지
-
5개의 프로젝트가 sLM 학습에 꼭 필요한 이유는 무엇인가요?!
초격차 Point 1
8개의 sLM 모델 학습하기
LLM Task 별 최적의 성능을 보여주는 sLM을 공부하면서
각 sLM별 강점과 특징에 대해 학습합니다.
초격차 Point 2
sLM을 개발하기 위한 기반 기술
더욱 완성도 높은 sLM 모델을 구축하기 위해
필요한 대표 5가지 기술을 학습합니다.
초격차 Point 3
sLM에 특화된 Fine Tuning &
Prompt Engineering
각각의 sLM 모델에 특화된 Task들을 학습하고 특징에 맞게 성능을 올리는
sLM 특화 Fine Tuning & Prompt Engineering 방법을 학습합니다.
3개의 예제 프로젝트 실습으로 끝내는 sLM Fine Tuning
4개의 sLM 모델의 특성을 반영한 Prompt Engineering 프로젝트 실습
강사님과 함께 고민하며 실제 기업에서 sLM을 구축할 때
유의해야 할 2가지 Plus 학습 Point를 추가로 준비하였습니다.
Plus Point 1
sLM에서 가장 중요한 비속어/불용어 처리 & 보안 구축
기업에서 LLM 서비스를 개발하면서 발생하는 비속어 & 불용어를 처리하는 방법과
더욱 견고한 sLM 서비스를 개발하기 위한 보안 솔루션 구축 방법을 학습합니다.
-
◆ 학습 목표
기업에서 sLM을 서비스화하기 위해 필수로 고려해야 할 대표 2가지 불용어/비속어 처리 & 보안 솔루션 구축 방법을 학습합니다.
-
◆ 학습 내용
-할루시네이션, 모델 편향성 문제 등의 sLM 보안 이슈 이해
- AI 서비스 내에서 발견한 불용어 & 비속어 처리
- 10개의 sLM 보안 솔루션 알아보기
- LLM Guard(sLM 보안) & Javelin(RAG 보안)을 활용한 sLM 보안 구축
Plus Point 2
sLM의 성능을 올리는 또 다른 방법, DPO & Merge
HuggingFace Ko-Leaderboard 상위권에 올라와 있는 sLM 모델들의 공통 학습 방식 DPO와
학습 없이 CPU 계산만으로 모델을 구성하는 Merge를 학습합니다.
DPO 방법론을 활용하여 AI 업무 비서 sLM을 파인튜닝 하면서
학습에 필요한 GPU 리소스를 줄이면서 성능을 올리는 파인튜닝 실습을 진행합니다.
2024년 5월 12일자 기준 HuggingFace Ko-Leader Board에 있는
1위, 3위, 7위 sLM 모델 역시 DPO 방법론을 적용하여 높은 성능을 보여주고 있습니다.
여기서 끝이 아닙니다!
sLM이 가장 많이 활용되는 대표 5가지 분야에서 sLM 파인튜닝을 하면서
수강 후 기업 맞춤 sLM 구현까지 한 번에 가능한 실습까지 준비하였습니다.
Special Point
5개의 sLM 모델 구축 프로젝트로 끝내는
LLM 모델 파인튜닝
5개의 프로젝트를 실습하면서 각 sLM 모델의 Task 별 선택 기준과 장점, 데이터의 특성, 성능 평가 시
Loss 기준을 세워 모델들을 결합해보고 기업 특화형 sLM 구현 방법을 학습합니다.
실제 기업에서 가장 수요가 많은 대표 5개의 sLM Task를 직접 개발 및
파인튜닝을 통해 기업에서 sLM이 어떻게 활용되고 있는지 학습합니다.
-
◆ 학습 목표
건설, 조선 등 제조업 환경에서 전문적으로 쓰이는 비즈니스 용어의 이해, 현장에서 외국인 노동자들과 필요한 실시간 통역, 수만건의 특수 분야 도메인 자료를 해석 및 통역하기 위한 sLM 모델을 구축합니다.
-
◆ 학습 내용
- 한국어 LLaMA 모델 기반 그로크 & 허깅페이스 내에서 테스트
- 한글 기반 sLM 파인튜닝을 위한 데이터 셋 준비
- 파인튜닝 기반 한글 학습
- Sentence Transformer 기반 Vector Embedding
- RAG 구축 및 평가
-
◆ 학습 목표
프로덕트 런칭을 위한 기업 내부 기밀 문서, 인재 채용 문서 등을 GPT-4가 아닌 내부에서 처리해야 할 문서를 요약하기 위한 sLM 모델을 구축합니다.
-
◆ 학습 내용
- 네이버 뉴스 데이터 셋 기반 데이터 수집 및 요약
- 허깅페이스 내에서 Gemma 모델 준비 및 파인튜닝
- RAG 구현 하면서 LangChain을 활용한 요약 모델 구성
- G-평가를 활용한 sLM 성능 평가
-
◆ sLM 구축 시 고려해야 할 포인트
한글 이해 기능이 지원되지 않는 sLM Gemma에서 한글 데이터를 학습하여 sLM 모델이 한글을 이해할 수 있도록 고려
-
◆ 학습 목표
시뮬레이션 프로그램, 신소재/신약 개발 등에 필요한 화학식을 풀어서 이해하기 위한 용도의 화학식/수식 등 복잡한 수식 계산에 필요한 sLM 모델을 구축합니다.
-
◆ 학습 내용
- SFT, PEFT의 이해
- 수학 문제 추론 문제 데이터 셋 준비
- Phi-2 모델 기반 수식 문제에 최적화 된 모델 파인튜닝
- Multimodal 환경 구축
- LangChain을 이용한 Chain of Prompt 구축
-
◆ sLM 구축 시 고려해야 할 포인트
Text(텍스트 입력)와 Image(수학 문제 이미지)를 모두 인식하여 두 가지 sLM Task가 안정적으로 구현될 수 있게 고려
-
◆ 학습 목표
폐쇄망 기반의 Copilot 대비 음성 인식, 자율 주행, GPT-API 등 AI 모델을 프로그래밍화하고 코드를 생성하여 AI 서비스를 개발하는 분야에 필요한 코드 생성 sLM 모델을 구축합니다.
-
◆ 학습 내용
- MoE(Mixture of Experts) 방법론의 이해
- 코드 생성을 위해 필요한 기존 코드 데이터 수집
- 코드 생성에 최적화 된 모델 구성을 위한 Mixtral AI 파인튜닝
- Mergekit을 이용한 모델 병합 & Multimodal 환경 구축
- Promptfoo을 활용한 모델 평가
-
◆ sLM 구축 시 고려해야 할 포인트
MoE 방법론을 활용하여 2개 이상의 모델을 융합하면서도 빠른 답변 속도와 전문가 실력의 답변 퀄리티를 구현될 수 있게 고려
-
◆ 학습 목표
LLaMA-3와 Azure 환경에서 GPT 모델을 결합하여 기업의 한정된 자원 내에서 Task에 최적화 된 성능을 보여줄 수 있는Multi sLM 모델을 구축합니다.
-
◆ 학습 내용
- LLaMA-3를 활용한 Instruction Tuning 기법 이해 및 적용
- Azure 환경에서 GPT 모델과 LLaMA-3 모델 결합하는 방법
- Orchestrator Module, Agent 등 서비스 구성요소의 이해
- Azure AI Search를 이용한 Vector DB 설계 및 RAG 구현
- MS Azure 제공 API 활용 방법과 Gradio 기반의 서비스 배포
-
◆ sLM 구축 시 고려해야 할 포인트
- Q&A와 요약 2가지 Task를 한 번에 학습시켜 GPU 자원 절약
- 공통적인 패턴을 학습하여 일반화 능력 상승
- 다양한 Task를 한 번에 학습시켜 학습 시간 단축
- sLM의 견고성 구축
아무리 구성이 좋아도 아무나 가르친다면 의미 없죠!
sLM을 가장 대표적으로 활용하고 있는 IT 대기업 AI 엔지니어 전문가들과 함께 배워보세요!
궁금한 내용은 언제든
질의응답 게시판에 질문하세요!
강의를 수강하다 막히는 부분이 생기면 질의응답 게시판을 활용해보세요!
강사님과 AI 챗봇이 함께 답변을 남기는 질의응답 게시판을 운영합니다.
질의응답 게시판!
이렇게 이용하면 활용도 200%
✓
실습 중 에러가 나면? 강사 & 수강생간 실시간 질의응답으로 빠른 해결
✓
강의를 듣는 중 이해가 안가는 부분이 생기면 바로 질문
* 본 질의응답 채널은 2024. 07. 12 ~ 2026. 07. 12 동안 운영 됩니다.
* 교육 내용 범주 안에서 질의 응답이 가능합니다.
* 강사님이 현업 중 답변하시기에 답변까지 영업일 기준 7일 내외 시간이 소요될 수 있습니다.
어떤 분들이
수강하면 좋을까요?
• RAG, LangChain, Vector DB 등 LLM 기반 기술을 활용하여 AI/LLM 서비스를 개발하고자 하는 AI/ML Engineer & 개발자
• 기업 내부 보안 요소를 고려하여 AI/LLM 서비스를 개발하고자 하는
AI/ML Engineer & 개발자
필요한
선수지식이 있을까요?
• Linux 기본 명령어 활용
개발 환경
• Pytorch 프레임워크
• VS Code
• Colab Pro (유료)
• GPT-4 (유료)
• MS Azure (유료)
• HuggingFace
커리큘럼
아래의 모든 강의를 초격차 패키지 하나로 모두 들을 수 있습니다.
지금 한 번만 결제하고 모든 강의를 평생 소장하세요!
Part 1. Small Large Language Model의 기초
Part 2. sLM 구축을 위해 알아두어야 할 기반 기술
Part 3. 5개 프로젝트로 끝내는 sLM 구축
Part 4. 불용어/비속어 처리와 보안 실습
부록. 윤리적 및 성능향상을 위한 강화학습 및 다양한 Merge 기법