Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Update publication with internship2 #62

Merged
merged 3 commits into from
Dec 9, 2024
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
Binary file added src/pages/image/maumai_intern_banner2.png
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
245 changes: 245 additions & 0 deletions src/pages/internship-season2.mdx
Original file line number Diff line number Diff line change
@@ -0,0 +1,245 @@
---
title: maum.ai Brain팀 채용
description: maum.ai Brain팀에 지원하세요!
image: img/maumai_Symbol.png
---

import Link from '@docusaurus/Link';
import styles from './index.module.css';
import Tabs from '@theme/Tabs';
import TabItem from '@theme/TabItem';

import figinternbanner from './image/maumai_intern_banner2.png';
import figAlgoSession from './image/algo-session.jpg';
import figBrainRoom from './image/brain-room.png';
import figHome from './image/maum-home.png';
import figGPU from './image/h100-gpu.png';

<img className={styles.figCenter} src={figinternbanner} alt="internbanner" />

# maum.ai Brain팀 체험형 인턴에 지원하세요!

마음에이아이 브레인 팀에서 겨울방학 기간(약 2개월)동안 함께하실 체험형 인턴을 채용합니다. 최소 2달 안에 성과가 날 수 있고, 현업과 밀접하게 맞닿아있는 프로젝트를 진행할 수 있도록 구성하여 4가지의 Track을 선정했으며, 지원자는 4가지의 Track중 관심 있는 주제 하나를 선택해서 수행합니다.

회사에서 주어지는 풍부한 자원을 활용하여 프로젝트를 진행하고, 최종 결과물을 발표하게 됩니다. 또한, 프로젝트 진행 중에는 Brain팀의 다양한 멤버들과 함께 협업하며, 실무 경험을 쌓을 수 있습니다. 😎

<div className={styles.buttons}>
<Link
className="button button--primary button--lg"
style={{backgroundColor: "darkblue"}}
to="https://forms.gle/FUiPZmh21XRSFY4i8">
Brain팀 체험형 인턴 지원하기✍
</Link>
</div><br/>

저희 사내에서 Embodied Agent를 연구/개발하는 WoRV팀도 인턴을 뽑고 있으며 아래 링크에서 확인하실 수 있습니다.

<div className={styles.buttons}>
<Link
className="button button--primary button--lg"
style={{backgroundColor: "black"}}
to="https://stingy-laser-8fa.notion.site/ML-Engineer-ec668c7103dc4cd0a6e46141e5ace688">
WoRV팀 인턴 구경하기
</Link>
</div>

---

## Track 1: Re:제로부터 시작하는 ON-DEVICE AI

##### 연구 방향
ChatGPT, Copilot… 요즘 AI 없이는 살기 힘든 시대죠?
MaumAI의 ML Engineer 팀은 이런 LLM을 더 빠르고, 더 효율적으로 서빙하는 방법을 연구하는 사람들이 모인 팀입니다.
그 중에서도 on-device AI는 가장 뜨거운 주제!
우리는 최신 스마트폰과 edge device에서 LLM을 서빙하는 최적의 방법을 찾고, 더 적은 자원으로 더 큰 성능을 끌어내는 기술을 연구하고 있어요.
:위를_가리키는_손_모양: 이 글도 사실 ChatGPT의 도움을 받았지만,
이걸 진짜 세상에서 실현하는 건 바로 당신의 손에 달려 있습니다!

##### 이런 일을 함께 할 거예요
- 최신 LLM 서빙 기법 및 PyTorch 모델의 작동 원리를 파헤치기 ⛏️
- NPU를 활용해 PyTorch 모델 실행하기🔥
- 성능 최적화를 위한 최신 기술 습득 및 현장 적용하기⚡

##### 이런 분을 찾고 있어요
- 🐍 C/C++, Python 등 범용 프로그래밍 언어로 원하는 기능을 구현할 수 있으신 분
- 📖 ML 시스템 관련 논문을 읽고 이해할 수 있을 정도의 영어 실력과 CS 기초 지식을 가지신 분
- 💡 처음이어도 괜찮아요.
배움에 대한 열정과 도전 정신이 더 중요합니다!

---

## Track 2: Data Feast for LLMs: Gathering, Prepping, and Fine-Tuning the Perfect Meal
> 고품질 데이터 수집부터 파이프라인 구축, 미세 조정을 통해 실사용 가능한 LLM을 개발합니다.

##### 주요업무
- LLM 학습을 위한 대규모 데이터 수집 및 전처리 🌍
- 고품질 Insturction data 제작을 위한 파이프라인 설계 및 구현 ⚙️
- Fine-tuning을 통한 모델 성능 최적화 및 검증 🔍

##### 연구방향
최근 대규모 언어 모델(LLM)은 다양한 자연어 처리(NLP) 과제에서 혁신적인 성과를 보이고 있습니다. 그러나 이러한 모델을 실제 환경에서 효과적으로 활용하기 위한 정제된 고품질 데이터와 체계적인 학습 데이터는 항상 부족합니다. 따라서 저희는 아래와 같은 방식으로 LLM을 개발하고자 합니다.

- 고품질 데이터 수집: 웹 크롤링, 데이터 증강, 전처리 등 다양한 방법론을 활용하여 학습에 적합한 데이터를 준비합니다.
- Insturction 데이터 제작: 사용자 중심의 Insturction 데이터를 설계하고, 이를 효율적으로 생성 및 관리할 수 있는 파이프라인을 구축합니다.
- Fine-tuning: 수집된 데이터를 활용하여 모델을 학습하고, 실사용 사례에 적합한 성능을 발휘하도록 최적화합니다.

이 과정에서 데이터의 다양성, 품질, 모델의 일반화 성능을 동시에 고려하며, 최적의 성능을 도출할 수 있는 방법을 탐구합니다.

##### What You Will Do:
- LLM 학습에 필요한 대규모 데이터 수집 및 필터링
- Instruction 데이터 생성 및 데이터 전처리 자동화를 위한 파이프라인 설계
- Fine-tuning 및 모델 성능 평가

##### 필요한 역량

- Large Language Model에 대한 관심 및 프로젝트 경험 **(필수)**
- AI 관련 기술 논문을 읽고 내용을 충분히 이해하는데 무리가 없는 수준의 영어 능력
- PyTorch 등 ML/DL framework 활용 및 모델 구현에 자유로울 수 있는 수준의 개발 능력

##### 우대 요건

- Kaggle, Dacon과 같은 AI/ML 관련 대회 수상 경험
- ML/DL 알고리즘을 깊이 이해할 수 있는 수준의 수학적 능력 및 모델링 능력
- ML/DL 연구 논문 Implementation 또는 관련 Repository의 Contribution 경험

> ###### Reference
> 데이터 수집 및 필터링: https://arxiv.org/abs/2406.17557<br/>
> 고품질 Insturction 데이터 생성: https://arxiv.org/abs/2408.04614

---

## Track 3: Automatic Speech Recognition in the Wild
> Real-world에서의 ASR 성능 개선을 목표로 합니다.

##### 주요업무
- ASR 모델 학습을 위한 데이터 수집 및 전처리
- ASR 파이프라인 코드 최적화 💻⚡
- ASR 실험 설계 및 구현

##### 연구방향
현재 음성 인식 기술은 통제된 연구 환경에서는 우수한 성능을 보이지만, 실제 환경(Real-world)에서는 다양한 억양, 배경 소음, 음향 조건 등으로 인해 성능이 크게 저하되는 한계를 가지고 있습니다. 이러한 챌린지를 해결하기 위해 ASR 모델의 실제 환경 적응력을 검증하고, 장거리(Farfield) 환경에서의 모델 고도화 및 상용화 가능성을 탐구하고자 합니다.

##### What You Will Do:
- Real-world ASR에 적합한 데이터 수집 및 전처리
- 효율적인 학습을 위한 실험 설계
- 모델 학습 및 성능 평가

##### 필요 역량 🛠️
- 파이썬(Python) 및 파이토치(PyTorch)를 능숙하게 다룰 수 있는 분 🐍
- 주도적으로 문제를 해결하고 적극적으로 참여하는 자세를 가진 분 💪

##### 우대 요건 ⭐
- 신호처리에 대한 기본 지식 또는 경험이 있는 분 🎛️
- 실제 환경 데이터를 다뤄본 경험이 있는 분 🌍
- 음성 데이터 전처리 및 Augmentation 경험이 있는 분 🎙️

> ###### Reference
> Wav2Letter++: https://arxiv.org/abs/1812.07625<br/>
> Conformer: https://arxiv.org/abs/2005.08100<br/>
> Whisper: https://arxiv.org/abs/2212.04356

## Track 4: Audio LLM for Seamless Interaction with Users
> Audio LLM은 다양한 오디오를 다루기 위해 학습된 Large Language Model 기반 응용 기술을 의미합니다. 이러한 모델은 텍스트 뿐만 아니라 오디오 데이터를 이해하고 처리할 수 있는 능력을 갖추어, 실제 환경에서 발생하는 복잡한 오디오 문제를 해결하는 것을 목표로 합니다.

##### 주요 업무
- Audio LLM 동향 파악 🎧
- Audio LLM 성능 향상을 위한 실험 설계 및 구현 🎶
- Baseline 모델 학습 및 개선

##### 연구 방향
현재 Large Language Models(LLMs)는 텍스트 처리에 있어 매우 뛰어난 능력을 보이고 있으나, 오디오 분야에서는 여전히 한계가 존재합니다. 예를 들어, 사람 음성의 다양한 억양, 주변 잡음, 다양한 음향 환경 등은 모델이 처리하기 어렵습니다. 이러한 문제를 극복하기 위해서는 LLM의 언어 처리 능력을 오디오 이해 능력과 결합하고, 실제 오디오 데이터를 통한 학습으로 모델을 정교화하는 연구가 필요합니다. Real-world 의 다양한 오디오 데이터에 대해 유연하고 효과적으로 대응할 수 있는 End-to-End Audio LLM 시스템을 연구하고자 합니다.

##### What You Will Do
- Audio LLM 관련 최신 기술 동향 파악
- Audio LLM 학습을 위한 방법론 설계 및 구현
- 모델 학습 및 성능 평가

##### 필요 역량 🛠️
- 파이썬(Python) 및 파이토치(PyTorch)를 능숙하게 다룰 수 있는 분 🐍
- 주도적으로 문제를 해결하고 적극적으로 참여하는 자세를 가진 분 💪

##### 우대 요건 ⭐
- 신호처리에 대한 기본 지식 또는 경험이 있는 분 🎛️
- Hugging Face 및 언어 모델 사용 및 학습 경험이 있는 분 🤗

> ###### Reference
> AudioChatLlama: Towards General-Purpose Speech Abilities for LLMs<br/>
> SpiritLM: https://arxiv.org/abs/2402.05755<br/>
> Moshi: moshi.chat

---

## 제출 서류

- 이력서 (필수)
- 포트폴리오 URL (선택사항)

## 전형 절차

- 서류 접수 기간: 12월 9일 ~ 12월 17일 (23:59까지)
- 기술진 면접(화상): 12월 19일 ~ 12월 23일 예정 (19, 20, 23 3일중 택1, 1시간 화상 면접)
- 최종 합격자 발표: 12월 26일 예정
- 전형 절차: 서류 전형 → 기술진 면접(화상) → 최종 합격자 발표

인턴 기간: 여름방학 약 2개월
(12월 30일~3월 초, 약 2개월, 지원자의 학사일정에 따라 달라질 수 있음)

전형절차는 변동될 수 있으며, 기술진 면접 결과에 따라 임원진 면접 절차가 추가될 수 있습니다.<br/>
서류 합/불 여부 및 기술진 면접 시간 조율은 모든 지원자에게 12월 18일경 발송될 예정입니다.

## 지원 기타

- 해당 전형은 방학 기간 체험형 인턴으로 진행되며, 복학 여부, 평과 결과에 따라 계약 연장을 검토할 수 있습니다.
- 문의 사항이 있을 경우, [email protected] 로 문의주시면 최대한 빠르게 답변드릴 수 있도록 하겠습니다.

<br/><br/>

## 근무 환경 및 복지

<br/>

<img className={styles.figCenter} src={figAlgoSession} alt="algo-session" />

<br/>


### 근무 형태

Brain팀은 시차출퇴근제를 진행하고 있습니다.
**코어타임은 10시 30분부터 17시까지**로, 오전 8시 ~ 오전 10시 30분 사이에 각자가 정한 시간에 출근합니다. 이후 8시간 근무 후 퇴근하시면 됩니다.

업무 중 보여주시는 퍼포먼스에 따라서 주 1회 재택근무도 실시할 예정입니다. 😉

<br/>

### 근무 환경

Brain팀 구성원에게는 **입사 시 GPU 탑재 데스크탑부터 MacBook까지 원하는 기기를 지원**해드리며, **모니터 및 모니터암을 기본으로 제공**하여 Brain팀 구성원분들의 목 건강도 책임집니다! 💪

<img className={styles.figCenter} src={figGPU} alt="gpu" />

Brain팀에는 **연구용으로만 On-premise로 V100 10대, A100 30대, H100 96대 이상을 운용**하고 있고, 인원당 On-premise GPU를 최소 2대 이상 사용하실 수 있게끔 연구 및 개발환경을 구축하고 있습니다. (2024년 12월 기준)

<img className={styles.figCenter} src={figHome} alt="home" />

maum.ai는 전 직원 **점심 식사 식대를 제공**합니다.(1일 16000원) 판교 사옥 근처의 많은 식당을 자유롭게 이용할 수 있습니다!

또한 사옥 내에도 로봇 바리스타가 비치되어 있어 자유롭게 음료 음용이 가능합니다. 🍹

<br/>

### 사무실 위치

maum.ai Brain팀에서 함께 하시게 될 경우, **판교 본사 오피스 및 연구소**에서 근무하시게 됩니다.

maum.ai 판교 본사 오피스는 **판교IT센터 4층**에 위치하고 있습니다.

<div className={styles.mapResponsive}>
<iframe className={styles.googleMap} src="https://www.google.com/maps/embed?pb=!1m18!1m12!1m3!1d3169.0726295115574!2d127.09005017586666!3d37.411758172079104!2m3!1f0!2f0!3f0!3m2!1i1024!2i768!4f13.1!3m3!1m2!1s0x357ca75847776f07%3A0x7739a77102bd032!2zKOyjvCnrp4jsnYzsl5DsnbTslYTsnbQ!5e0!3m2!1sko!2skr!4v1718269729881!5m2!1sko!2skr" width="600" height="450" allowfullscreen="" loading="lazy" referrerpolicy="no-referrer-when-downgrade"></iframe>
</div>

<br/>

#### 오시는 길

판교역 2번 출구 '판교역동편' 정류장에서 55, 310 등 시내버스 탑승 후 '기업성장센터' 정류장에서 하차하시면 됩니다. 버스로 15분 가량 소요됩니다.
12 changes: 10 additions & 2 deletions src/pages/internship.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -19,11 +19,19 @@ import figGPU from './image/h100-gpu.png';

<br/>

**현재는 체험형 인턴 채용 공고가 없습니다. 다음 체험형 인턴 채용 공고를 기다려주세요.** 😊
현재 2024년 겨울방학 Brain팀 체험형 인턴 2기 모집 중에 있습니다. 기존에 진행하던 NLP 주제에서 확장해, Audio, MLE 2개의 주제가 이번년도에는 새로 생겼습니다. 자세한 내용은 아래 링크를 참고해주세요.

빠르면 2024년 겨울방학 Brain팀 체험형 인턴 2기 모집 계획이 있습니다. 기존에 진행하던 NLP 주제에서 확장해, Audio, Vision, Robotics 등 다양한 주제로 확장할 예정입니다.
<div className={styles.buttons}>
<Link
className="button button--primary button--lg"
color="red"
to="/internship-season2">
Brain팀 체험형 인턴 2기 지원하러 가기✍
</Link>
</div>

## 과거 지원페이지

> 2024년 여름방학 Brain팀 체험형 인턴 1기<br/>
> 경쟁률 **33:3**, 최종 합격 track당 1명씩 총 3명<br/>
> [더 자세히 알아보기](/internship-season1)
13 changes: 11 additions & 2 deletions src/pages/publications.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -15,7 +15,7 @@ import * as features from '@site/src/components/PublicationFeatures';
<section id="activities" className={styles.category}>
<ul className={styles.publications}>
<li>
<features.ConferenceItem conference="NeurIPS Workshop OWA Accepted, ICRA Under Review"/>
<features.ConferenceItem conference="ICRA Under Review"/>
<features.PaperTitle paperLink="https://arxiv.org/abs/2410.01273" title="CANVAS: Commonsense-Aware Navigation System for Intuitive Human-Robot Interaction"/>
<features.AuthorItem authors={["Suhwan Choi", "Yongjun Cho", "Minchan Kim", "Jaeyoon Jung", "Myunchul Joe", "Yubeen Park", "Minseo Kim", "Sungwoong Kim", "Sungjae Lee", "Hwiseong Park", "Jiwan Chung", "Youngjae Yu"]} numFirstAuthor={4} isBrainTeam={[true, true, true, true, true, false, false, false, false, false, false, false]}/>
<features.PaperDescription preview="Real-life robot navigation involves more than just reaching a destination; it requires optimizing movements while addressing scenario-specific goals. "
Expand All @@ -24,7 +24,16 @@ import * as features from '@site/src/components/PublicationFeatures';
<features.DemoItem link="https://worv-ai.github.io/canvas/" />
</li>
<li>
<features.ConferenceItem conference="EMNLP Workshop (Oral)"/>
<features.ConferenceItem conference="NeurIPS Workshop OWA (Oral)"/>
<features.PaperTitle paperLink="https://openreview.net/forum?id=U6wyOnPt1U" title="Integrating Visual and Linguistic Instructions for Context-Aware Navigation Agents"/>
<features.AuthorItem authors={["Suhwan Choi", "Yongjun Cho", "Minchan Kim", "Jaeyoon Jung", "Myunchul Joe", "Yubeen Park", "Minseo Kim", "Sungwoong Kim", "Sungjae Lee", "Hwiseong Park", "Jiwan Chung", "Youngjae Yu"]} numFirstAuthor={4} isBrainTeam={[true, true, true, true, true, false, false, false, false, false, false, false]}/>
<features.PaperDescription preview="Real-life robot navigation involves more than simply reaching a destination; it requires optimizing movements while considering scenario-specific goals. "
description="Humans often express these goals through abstract cues, such as verbal commands or rough sketches. While this guidance may be vague or noisy, we still expect robots to navigate as intended. For robots to interpret and execute these abstract instructions in line with human expectations, they need to share a basic understanding of navigation concepts with humans. To address this challenge, we introduce CANVAS, a novel framework that integrates both visual and linguistic instructions for commonsense-aware navigation. CANVAS leverages imitation learning, enabling robots to learn from human navigation behavior. We also present COMMAND, a comprehensive dataset that includes human-annotated navigation results spanning over 48 hours and 219 kilometers, specifically designed to train commonsense-aware navigation systems in simulated environments. Our experiments demonstrate that CANVAS outperforms the strong rule-based ROS NavStack system across all environments, excelling even with noisy instructions. In particular, in the orchard environment where ROS NavStack achieved a 0% success rate, CANVAS reached a 67% success rate. CANVAS also closely aligns with human demonstrations and commonsense constraints, even in unseen environments. Moreover, real-world deployment of CANVAS shows impressive Sim2Real transfer, with a total success rate of 69%, highlighting the potential of learning from human demonstrations in simulated environments for real-world applications."/>
<features.GithubItem link="https://github.com/worv-ai/canvas" />
<features.DemoItem link="https://worv-ai.github.io/canvas/" />
</li>
<li>
<features.ConferenceItem conference="EMNLP Workshop FEVER (Oral)"/>
<features.PaperTitle paperLink="https://arxiv.org/abs/2410.12377" title="HerO at AVeriTeC: The Herd of Open Large Language Models for Verifying Real-World Claims"/>
<features.AuthorItem authors={["Yejun Yoon", "Jaeyoon Jung", "Seunghyun Yoon", "Kunwoo Park"]} numFirstAuthor={2} isBrainTeam={[false, true, false, false]}/>
<features.PaperDescription preview="To tackle the AVeriTeC shared task hosted by the FEVER-24, we introduce a system that only employs publicly available large language models (LLMs) "
Expand Down
Loading