root layout

패스트캠퍼스

  1. 스터디
  2. 개발/데이터

패스트캠퍼스 환급챌린지 : 대용량 트래픽 처리를 위한 데이터베이스 첫 걸음: 100만 유저를 견디는 서버 구축 가이드 강의 최종 후기

2025.05.09 21:23 작성

image.png

image.png

image.png

image.png


1. 환급챌린지에 참여한 이유는 무엇이었는지?

저는 프론트엔드 개발자로 일하고 있는 실무자입니다. 하지만 회사의 특성상 백엔드 개발이 필요한 상황이 발생했고, 자연스럽게 DevOps 역할까지 맡게 되었습니다. 당시에는 Kafka 기반의 데이터 스트림 처리, 비동기 메시징 시스템, MSA 환경에서의 백엔드 구조와 API 설계 방식 등에 대해 깊은 이해가 필요했지만, 관련 경험이 부족했던 저는 많은 기술적 장벽에 부딪히고 있었습니다.

그 과정에서 패스트캠퍼스의 환급 챌린지 프로그램을 발견하게 되었고, 자연스럽게 참여를 결심하게 되었습니다. 단순히 강의를 듣는 것이 아니라, 챌린지 형태로 구성되어 있어 일정 기간 동안 꾸준한 학습과 실습을 병행해야 했고, 이를 달성하면 환급이라는 보상도 주어진다는 점이 큰 동기부여가 되었습니다. 특히 이 강의는 단순한 개념 전달이 아니라 실무에서 겪을 수 있는 문제들과 해결 방식에 집중한 커리큘럼이 돋보였고, 무엇보다 강사님이 이 분야에서 직접 다양한 프로젝트를 겪으며 체득한 노하우를 녹여냈다는 점에서 믿음이 갔습니다. 데이터 스트림, Kafka, 비동기 처리 등 제가 실제로 겪고 있던 문제들에 대해 실질적인 도움을 받을 수 있다는 기대감으로 참여하게 되었습니다.

2. 왜 이 강의를 선택하게 되었는지? (무엇을 얻고 싶었는지, 실제로 얻은 것은 무엇인지)

저는 단순한 기술 습득이 아니라, 백엔드 실무 환경에서 반드시 필요한 시스템 아키텍처의 흐름을 배우고 싶었습니다. 특히 로그 수집, 메시지 큐 활용, 비동기 이벤트 처리, NoSQL을 활용한 분산 저장 등, MSA 기반 백엔드 개발자에게 요구되는 핵심 역량을 체계적으로 익히고자 했습니다.

이 강의를 선택한 이유는 명확했습니다. 전체 커리큘럼이 MySQL에서 시작해 Elasticsearch, Redis, MongoDB, RabbitMQ, Kafka로 확장되는 구조로 짜여 있었고, 실무 환경에서 많이 도움이 될 것 같았습니다. 사실 다른 것들과 비교하면서 심사숙고 한 만큼 저에게는 딱 맞는 강의였습니다. 초기 1일차부터 전체적인 학습 방향성이 명확하게 제시되어 있었고, 무엇보다 제가 평소 궁금했던 "데이터가 사용자로부터 입력되어 메시지 큐를 거쳐 로그 저장소로 전달되기까지의 흐름"을 한 번에 파악할 수 있겠다는 생각이 들었습니다.

실제로 얻은 것은 기대 이상이었습니다. 단순히 기술을 나열하는 것이 아니라, 각각의 기술이 왜 필요한지, 어떤 문제를 해결하기 위해 사용되는지를 맥락 중심으로 학습할 수 있었습니다. 예를 들어, Kafka의 파티션 구조와 메시지 전달 방식, Redis 캐시를 활용한 API 성능 최적화 전략, MongoDB와 RDBMS의 데이터 처리 병행 전략 등은 지금 제가 맡고 있는 프로젝트에서도 바로 적용할 수 있는 지식이었습니다. 그래도 바로 적용은 안되었습니다. ㅎㅎㅎㅠㅠㅠ

몇번의 시행착오가 있었습니다. 지금은 더 안정적인 서비스 상태가 되었습니다.

회사 입장에서는 좋겠죠. 비용이 절감되었기 때문입니다. docker-compose로 하다 보니, kubernetes의 필요성을 느끼고 있습니다.

3. 이 강의만의 장점 (ex. 강사님의 강의력, 커리큘럼 등)

무엇보다 이 강의의 강점은 강사님의 실무 경험과 유연성입니다. 강사님은 강의 중 언급을 통해 Python FastAPI에 익숙하다는 점을 몇 차례 이야기하셨지만, 제가 긍정적으로 보는 것인지는 모르겠지만, 이번 강의에서는 학습자들이 익숙한 Java(Spring Boot)를 사용해 모든 실습을 진행하셨습니다. 이 점에서 강사님의 배려와 학습자 중심 접근이 돋보였으며, 기술 스택이 달라지더라도 아키텍처 개념과 설계 방식의 핵심적인 부분은 동일했기 때문에 강의내용에는 충실했습니다.

또한 강사님은 실무에서 ChatGPT와 같은 AI 도구를 사용해서 강의를 진행하면서 설명해 주셨고, 이를 통해 최근 AI 기반 개발 도구의 가능성과 한계를 체감할 수 있었습니다. 이 역시 아키텍처는 잘 이해하고 있어야 겠구나 생각했습니다. 저는 오히러 단순한 개발 강의가 아니라, AI 시대에 기술자로서 어떻게 적응하고 학습해야 하는지에 대한 인사이트도 함께 얻을 수 있었습니다.

실제로 저는 C#에서 Java, Python으로 넘어가는 과정을 경험한 입장에서 강사님의 언어 유연성과 적응력에 깊은 인상을 받았습니다. 누군가는 이러한 점을 장인정신으로 빗대 단점처럼 여길 수도 있겠지만, 사실 강사님이 강의중간에 박재된다고 걱정을 엄청했는데, 괜찮습니다. 저는 시대 변화에 민감하게 반응하며 실천으로 옮기는 긍정적인 사례로 보였습니다. 오히려 나이브 코딩을 보여준 좋은 강의 사례입니다.

엘론머스크가 나이브 코딩방식에 대해서 요즘 폰에 네이게이션이 있어서, 길을 외우고 가지 않아도 잘 가지 않느냐 누가 길을 다 외우고 다니냐고 정상적인 시대 흐름이라고 했습니다. 요즘 얼띤 토론의 중심이 있는 방식입니다.

강의를 한번 봐보세요. AI 시대에 코딩하는 방식도 경험할 수 있습니다.

저는 장점이라고 1표 드립니다.

강의의 또 다른 장점은 전반적인 커리큘럼의 짜임새입니다. 단순히 기술을 나열하는 방식이 아니라, 각 기술이 언제, 왜 필요한지를 맥락 속에서 설명하며 실습 중심으로 구성되어 있었습니다. 동시접속 1만->10만->100만->1000만 이런식으로 1000만 동시접속인 경우를 예로 들면 Kafka를 포함한 Message Broker 시스템을 다룰 때는 왜 도입해야 하는지에 대해서 직관적으로 이해할 수 있도록 구성되어 있었습니다. 이 과정을 통해 단순한 코드 실습을 넘어 시스템 간의 메시지 흐름, 메시지 큐 구성, Broker의 역할 등을 명확히 파악할 수 있었습니다.

MySQL의 이중화시 좋은 점, 주의할 점 등 데이터 마이그레이션 관점에서 설명한 점도 인상 깊었습니다. 단계가 넘어갈 때마다 주의 포인트를 집어주었고 인사이트를 얻는데 도움이 되었습니다. 아참 그리고 저는 시니어 개발자인데 타겟은 주니어 개발자이니까 1년 정도 개발한 개발자도 충분히 따라올 수 있는 구성이었습니다. 그래서 AI를 사용한 건지도 모르겠습니다.

강의 중 다양한 실무 사례와 장애 대응 방법, 성능 최적화 전략 등을 공유해 주셨는데, 이는 사고 경험이 많아서 노하우도 많아 보였습니다. 실무 적용에 즉시 활용할 수 있는 지식들이였습니다. 이런 실전 중심의 접근 방식이 이 강의의 강점이라고 생각합니다.

4. 강의를 추천하고 싶은 사람은 누구인지?

이 강의는 백엔드 개발에 관심 있는 프론트엔드 개발자, DevOps 업무를 병행하는 엔지니어, 실무에서 데이터 흐름과 인프라 아키텍처에 대한 이해가 필요한 모든 분들께 추천드립니다. 특히 '내가 하는 일이 왜 이렇게 구성되어야 하는가'에 대한 궁금증이 많은 분들, 단순히 코드를 짜는 것에 그치지 않고 시스템의 큰 그림을 그리고 싶은 분들에게 적합합니다. 딱 제가 그렇습니다.

개발 경력이 1~3년 정도인 분들이 전체적인 백엔드 생태계와 운영 시스템의 구조를 익히기에 최적의 강의라고 생각하며, 실무에서 DevOps나 플랫폼 엔지니어링을 고민 중인 분들에게도 매우 유익할 것입니다.

5. 다음으로 듣고 싶은 강의는 무엇인지?

얼마전에 Jenkins 기반 CI/CD도 중소기업지원 사업으로 강의를 들었는데, 이렇게 좋은 것을 왜 지금 접했을까? 생각했습니다.

단일 서비스 단위가 아닌 전체 클러스터 수준에서의 운영 전략에 대한 관심이 자연스럽게 생겼습니다. 그래서 다음에는 Kubernetes 기반의 컨테이너 오케스트레이션, 인프라 자동화, 서비스 모니터링 및 안정화를 주요 주제로 삼는 강의를 수강하고자 합니다.

특히 GitOps 환경에서 ArgoCD를 활용한 배포 자동화, Prometheus + Grafana를 활용한 시스템 모니터링, 그리고 Helm Chart를 통한 설정 관리 등에 대해 구체적으로 배우고 싶습니다. 이런 과정도 저울질을 많이 했었는데, Data Stream를 먼저 해야 한다는 생각에 미뤘습니다.

현재 진행 중인 데이터 기반 기능 고도화를 위해 Kafka Streams,

Apache Flink, Apache Beam 같은 실시간 데이터 스트리밍 프레임워크에 대한 것도 너무 궁금합니다.

AutoML에 대해서도 python으로 어떻게 만들지 고민중이라서 이런 강의에도 관심이 많이 갑니다.

AI를 요즘 파도처럼 접하다 보니, python에 대해서 좀더 공부해보고 싶다는 생각이 듭니다.

6. 앞으로의 계획 (ex. 커리어 목표, 이직 목표, 자기계발 목표 등)

이번 환급 챌린지를 계기로 단순한 기능 단위 개발자가 아닌, 기술 기획 능력을 갖춘 아키텍트형 개발자로 성장하면 좋겠다는 생각이 들었습니다.

특히 다양한 기술 스택을 단절되지 않게 연결하며 전체 서비스의 흐름을 설계하고 조율하는 능력을 갖추는 것이 제 커리어 방향의 핵심입니다.

현재 맡고 있는 DevOps 및 Backend 업무를 기반으로, 향후에는 데이터 아키텍처 설계, 인프라 운영 자동화, 사용자 행동 기반 추천 시스템 설계 등 더 높은 기술 기획과 서비스 전략 수립 단계에까지 역할을 확장하고자 합니다.

저희 회사에서는 이제 Redis를 도입할지를 논의하고 있습니다. 제가 이 강의를 듣고 더 확신이 생겼습니다.

AI를 도입한 후로 저처럼 개발 욕심이 많은 사람은 퇴근시간이 늦어지고 있지만, 그 만큼 기술적 격차가 있었다는 반증입니다.

그래서 단기적으로는 6개월 내에 Kafka 기반의 분산 로그 분석 시스템을 구축하고, Clickstream 기반 사용자 분석, 실시간 알림 전송 시스템, 비정상 행위 탐지 모델 등을 적용해볼 계획입니다. 동시에 CI/CD 파이프라인을 GitOps 기반으로 전환하고, Canary Deployment 및 Blue-Green Deployment를 통해 서비스 무중단 배포 체계를 정착시키는 것을 목표로 삼고 있습니다.

장기적으로는 테크 리더로서의 전환을 염두에 두고 있으며, 기술 역량 외에도 도메인 지식과 팀 내 커뮤니케이션 능력, 전략적 사고를 함께 발전시키는 데 집중할 계획입니다. 지금까지의 학습과 경험이 이러한 방향성을 향한 중요한 첫걸음이었다고 생각됩니다.


답변