Skip to content

Commit 4114658

Browse files
authored
add internship season 3 (#65)
1 parent b8972bf commit 4114658

File tree

3 files changed

+174
-4
lines changed

3 files changed

+174
-4
lines changed
1.74 MB
Loading

src/pages/internship-season3.mdx

Lines changed: 161 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,161 @@
1+
---
2+
title: maum.ai Brain팀 체험형 인턴 채용
3+
description: maum.ai Brain팀 체험형 인턴에 지원하세요!
4+
image: img/maumai_Symbol.png
5+
---
6+
7+
import Link from '@docusaurus/Link';
8+
import styles from './index.module.css';
9+
import Tabs from '@theme/Tabs';
10+
import TabItem from '@theme/TabItem';
11+
12+
import figinternbanner from './image/maumai_intern_banner3.png';
13+
import figAlgoSession from './image/algo-session.jpg';
14+
import figBrainRoom from './image/brain-room.png';
15+
import figHome from './image/maum-home.png';
16+
import figGPU from './image/h100-gpu.png';
17+
18+
<img className={styles.figCenter} src={figinternbanner} alt="internbanner" />
19+
20+
# maum.ai Brain팀 체험형 인턴에 지원하세요!
21+
22+
maum.ai Brain팀에서 여름 - 가을 기간 (약 3개월) 동안 함께하실 체험형 인턴을 모집합니다. 최소 세 달 안에 성과가 날 수 있고, 현업과 밀접하게 맞닿아있는 프로젝트를 진행할 수 있도록 구성하여 두 가지의 트랙을 선정했으며, 지원자는 두 가지 트랙 중 관심 있는 주제 하나를 선택해서 수행합니다.
23+
24+
회사에서 주어지는 풍부한 자원을 활용하여 프로젝트를 진행하고, 최종 결과물을 발표하게 됩니다. 또한, 프로젝트 진행 중에는 Brain팀의 다양한 멤버들과 함께 협업하며, 실무 경험을 쌓을 수 있습니다. 😎
25+
26+
<div className={styles.buttons}>
27+
<Link
28+
className="button button--primary button--lg"
29+
style={{backgroundColor: "darkblue"}}
30+
to="https://forms.gle/BY3Wk1WtP9gjovMm8">
31+
Brain팀 체험형 인턴 지원하기
32+
</Link>
33+
</div><br/>
34+
35+
---
36+
37+
## Track 1: Vision-Language Models in Your Pocket
38+
> VLM/VLA 등 멀티모달 언어 모델을 이해하고 최적화하여 on-device 환경에서 사용 가능한 고성능 추론 엔진을 개발합니다.
39+
40+
##### 연구 방향
41+
VLM (Visual Language Model) 은 시각 정보와 자연어를 함께 이해하고 처리하는 생성형 모델로, 이미지 캡셔닝, 비주얼 질문 응답 (VQA), 멀티모달 검색 등 다양한 분야에서 빠르게 활용 범위를 넓혀가고 있습니다.
42+
하지만 이러한 모델은 LLM에 비해 연산량이 방대하여 클라우드가 아닌 모바일/엣지 디바이스에서 실시간으로 실행하기에 어려움이 많습니다.
43+
본 트랙에서는 VLM/VLA의 구조적 특성을 분석하고, 연산 최적화, token pruning 기법 등을 통해 on-device 환경에서 실행 가능한 고성능 멀티모달 추론 엔진을 구현합니다.
44+
VLM/VLA를 구성하는 컴포넌트 별 연산량, 메모리 사용량, 에너지 효율 등을 고려한 end-to-end 최적화가 핵심 과제입니다.
45+
46+
##### 이런 일을 함께 할 거예요
47+
- VLM/VLA 등 멀티모달 언어 모델을 이해하고 작동 원리를 파헤치기
48+
- On-device 환경에서 NPU를 활용해 모델 실행하기
49+
- 성능 최적화를 위한 최신 기술 습득 및 현장 적용하기
50+
51+
##### 이런 분을 찾고 있어요
52+
- C/C++, Python 등 범용 프로그래밍 언어로 원하는 기능을 구현할 수 있으신 분
53+
- ML 시스템 관련 논문을 읽고 이해할 수 있을 정도의 영어 실력과 CS 기초 지식을 가지신 분
54+
- 배움에 대한 열정과 도전 정신이 있으신 분
55+
56+
##### 이런 분들은 꼭꼭 지원하세요!
57+
- 임베디드 및 모바일 환경에서 생성 모델을 실행하고 최적화 해보신 분
58+
- 멀티모달 언어 모델을 구현 및 최적화 해보신 분
59+
- 생성 모델 서빙 최적화 기법을 적용하거나 연구해보신 분
60+
61+
---
62+
63+
## Track 2: Dieting Bits - Smaller, Faster, Still Smart
64+
> 최신 양자화 알고리즘을 습득하고 이를 on-device 환경에 적용하여 경량화된 고성능 추론 엔진을 개발합니다.
65+
66+
##### 연구 방향
67+
양자화 (quantization) 는 파라미터와 연산을 정수 또는 저비트 표현으로 바꾸어 모델을 작고 빠르게 만드는 기술입니다.
68+
특히 대형 멀티모달 모델처럼 연산량이 큰 모델을 엣지 디바이스에서 실행하기 위해서는 정밀도 손실을 최소화하면서 모델을 효율적으로 양자화하는 것이 핵심입니다.
69+
본 트랙에서는 최신 양자화 알고리즘을 습득하고 이를 VLM/VLA 모델에 적용하여, 실제 온디바이스 환경에서 빠르고 정확하게 동작하는 추론 시스템을 구현합니다.
70+
양자화 민감도 분석, calibration, weight/activation quantization 등 다양한 기술 스택을 다루며, 모델의 성능 저하를 최소화하면서 하드웨어의 특성을 고려한 효율적인 경량화가 목표입니다.
71+
72+
##### 이런 일을 함께 할 거예요
73+
- 최신 양자화 기법 및 양자화 알고리즘의 작동 원리를 파헤치기
74+
- On-device 환경에서 heterogeneous architecture를 활용해 양자화 알고리즘 실행하기
75+
- 성능 최적화를 위한 고급 양자화 기법 탐색 및 적용하기
76+
77+
##### 이런 분을 찾고 있어요
78+
- C/C++, Python 등 범용 프로그래밍 언어로 원하는 기능을 구현할 수 있으신 분
79+
- ML 시스템 관련 논문을 읽고 이해할 수 있을 정도의 영어 실력과 CS 기초 지식을 가지신 분
80+
- 배움에 대한 열정과 도전 정신이 있으신 분
81+
82+
##### 이런 분들은 꼭꼭 지원하세요!
83+
- ML 컴파일러를 사용해 생성 모델을 실행하고 최적화 해보신 분
84+
- 멀티모달 언어 모델을 컴파일 및 경량화 해보신 분
85+
- 최신 양자화 기법을 적용하거나 연구해보신 분
86+
87+
---
88+
89+
## 제출 서류
90+
91+
- 이력서 (필수)
92+
- 포트폴리오 URL (선택사항)
93+
94+
## 전형 절차
95+
96+
- 서류 접수 기간: 7월 28일 - 8월 10일 (23:59까지)
97+
- 기술진 면접 (화상): 8월 13일 - 8월 14일 예정 (2일 중 택1, 1시간 화상 면접)
98+
- 최종 합격자 발표: 8월 15일 예정
99+
- 전형 절차: 서류 전형 → 기술진 면접(화상) → 최종 합격자 발표
100+
101+
인턴 기간: 여름 - 가을 약 3개월
102+
(8월 18일 - 11월 17일, 지원자의 학사일정에 따라 달라질 수 있음)
103+
104+
전형절차는 변동될 수 있으며, 기술진 면접 결과에 따라 임원진 면접 절차가 추가될 수 있습니다.<br/>
105+
서류 합/불 여부 및 기술진 면접 시간 조율은 모든 지원자에게 8월 12일경 발송될 예정입니다.
106+
107+
## 지원 기타
108+
109+
- 해당 전형은 체험형 인턴으로 진행되며, 복학 여부, 평과 결과에 따라 계약 연장을 검토할 수 있습니다.
110+
- 문의 사항이 있을 경우, [email protected] 로 문의주시면 최대한 빠르게 답변드릴 수 있도록 하겠습니다.
111+
112+
<br/><br/>
113+
114+
## 근무 환경 및 복지
115+
116+
<br/>
117+
118+
<img className={styles.figCenter} src={figAlgoSession} alt="algo-session" />
119+
120+
<br/>
121+
122+
### 근무 형태
123+
124+
Brain팀은 시차출퇴근제를 진행하고 있습니다.
125+
**코어타임은 10시 30분부터 17시까지**로, 오전 8시 ~ 오전 10시 30분 사이에 각자가 정한 시간에 출근합니다. 이후 8시간 근무 후 퇴근하시면 됩니다.
126+
127+
업무 중 보여주시는 퍼포먼스에 따라 학기 중 주 2회 재택근무도 실시할 예정입니다. 😉
128+
129+
<br/>
130+
131+
### 근무 환경
132+
133+
Brain팀 구성원에게는 **입사 시 GPU 탑재 데스크탑부터 MacBook까지 원하는 기기를 지원**해드리며, **모니터 및 모니터암을 기본으로 제공**하여 Brain팀 구성원분들의 목 건강도 책임집니다! 💪
134+
135+
<img className={styles.figCenter} src={figGPU} alt="gpu" />
136+
137+
Brain팀에는 **연구용으로만 On-premise로 V100 10대, A100 30대, H100 96대 이상을 운용**하고 있고, 인원당 On-premise GPU를 최소 2대 이상 사용하실 수 있게끔 연구 및 개발환경을 구축하고 있습니다. (2025년 5월 기준)
138+
139+
<img className={styles.figCenter} src={figHome} alt="home" />
140+
141+
maum.ai는 전 직원 **점심 식사 식대를 제공**합니다.(1일 10000원) 판교 사옥 근처의 많은 식당을 자유롭게 이용할 수 있습니다!
142+
143+
또한 사옥 내에도 로봇 바리스타가 비치되어 있어 자유롭게 음료 음용이 가능합니다. 🍹
144+
145+
<br/>
146+
147+
### 사무실 위치
148+
149+
maum.ai Brain팀에서 함께 하시게 될 경우, **판교 본사 오피스 및 연구소**에서 근무하시게 됩니다.
150+
151+
maum.ai 판교 본사 오피스는 **판교IT센터 4층**에 위치하고 있습니다.
152+
153+
<div className={styles.mapResponsive}>
154+
<iframe className={styles.googleMap} src="https://www.google.com/maps/embed?pb=!1m18!1m12!1m3!1d3169.0726295115574!2d127.09005017586666!3d37.411758172079104!2m3!1f0!2f0!3f0!3m2!1i1024!2i768!4f13.1!3m3!1m2!1s0x357ca75847776f07%3A0x7739a77102bd032!2zKOyjvCnrp4jsnYzsl5DsnbTslYTsnbQ!5e0!3m2!1sko!2skr!4v1718269729881!5m2!1sko!2skr" width="600" height="450" allowfullscreen="" loading="lazy" referrerpolicy="no-referrer-when-downgrade"></iframe>
155+
</div>
156+
157+
<br/>
158+
159+
#### 오시는 길
160+
161+
판교역 2번 출구 '판교역동편' 정류장에서 55, 310 등 시내버스 탑승 후 '기업성장센터' 정류장에서 하차하시면 됩니다. 버스로 15분 가량 소요됩니다.

src/pages/internship.mdx

Lines changed: 13 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -19,16 +19,25 @@ import figGPU from './image/h100-gpu.png';
1919

2020
<br/>
2121

22-
2024년 겨울방학 Brain팀 체험형 인턴 2기를 포함한 모든 인턴 활동이 현재 종료되었습니다. <br/>
22+
현재 2025년 하계 Brain팀 체험형 인턴 3기 모집 중에 있습니다. 자세한 내용은 아래 링크를 참고해주세요.
23+
24+
<div className={styles.buttons}>
25+
<Link
26+
className="button button--primary button--lg"
27+
color="red"
28+
to="/internship-season3">
29+
Brain팀 체험형 인턴 3기 지원하러 가기
30+
</Link>
31+
</div>
2332

2433
## 과거 지원페이지
2534

2635
> 2024년 겨울방학 Brain팀 체험형 인턴 2기<br/>
2736
> NLP, Audio, MLE 주제를 중심으로 진행되었습니다.<br/>
28-
> 경쟁률 **95:5**, 최종 합격 총 5명<br/>
37+
> 경쟁률 **19:1**, 최종 합격 총 5명<br/>
2938
> [더 자세히 알아보기](/internship-season2)
3039
3140
> 2024년 여름방학 Brain팀 체험형 인턴 1기<br/>
3241
> NLP (LLM) 주제를 중심으로 진행되었습니다.<br/>
33-
> 경쟁률 **33:3**, 최종 합격 track당 1명씩 총 3명<br/>
34-
> [더 자세히 알아보기](/internship-season1)
42+
> 경쟁률 **11:1**, 최종 합격 track당 1명씩 총 3명<br/>
43+
> [더 자세히 알아보기](/internship-season1)

0 commit comments

Comments
 (0)