Skip to content

Latest commit

 

History

History
836 lines (756 loc) · 44 KB

project-status.md

File metadata and controls

836 lines (756 loc) · 44 KB

Team1. peacebite

스타트단계 발표자료

https://drive.google.com/open?id=1EqL8_-kZcv3yiphClA6amsuDETVM9pmd

무얼 만들었는가

ATM 사용자의 표정을 통한 감정인식과 전화통화 여부를 판별하여 보이스피싱 피해 예상고객을 탐지하는 AI 알고리즘을 완성하였습니다.또한 리액트로 ATM 전체 플로우를 포함하여 탐지된 보이스피싱 피해자에게 보여주는 3단계의 경고 화면까지 구현하였습니다.

구현환경

  1. OS - 윈도우 / BentoML
  2. mysql
  3. Web, Typescript, React

사용한 오픈소스

recoil, tailwindcss, react-webcam, react-chartjs

사용한 AI

Emotion Recognition에서 사람 및 얼굴을 탐지하는데 Yolov3를 이용 Phone Detection에서 Yolov5를 이용

사용한 클라우드

AWS 사용 예정이나 아직 연결하지 않았기 때문에 지출한 비용은 없습니다.

Team2. 김서방

스타트단계 발표자료

https://drive.google.com/open?id=1C9zbGs860rAKlW0BkOIadK68K3fOPe1v

무얼 만들었는가

데이터 셋 수집 및 모델 학습을 했으며, 라즈베리파이4b 사진 촬영 및 서버 전송을 테스트해보았음 안드로이드 기반 앱 화면을 제작하였음

구현환경

  1. Windows OS, flutter/dart
  2. mysql/firebase
  3. flutter/dart 4.안드로이드 기반 크로스 플랫폼 앱

사용한 오픈소스

라즈베리파이4b 웹캠 카메라 사용 시 파이썬 opencv 활용(https://github.com/opencv/opencv) 라즈베리파이4b 라이브 스트리밍 시 motion 활용(https://github.com/Motion-Project/motion) 앱 qr인식(현재 문제 발견하여 변동 가능성 있음)(https://pub.dev/packages/qr_code_scanner)

사용한 AI

Yolov5 이용하여 실시간 객체 인식(https://github.com/ultralytics/yolov5) 차후 Pytorch 이용하여 수정한 모델을 사용할 계획 (https://pytorch.org/)

사용한 클라우드

Firebase: 라즈베리 파이에서 촬영된 사진 저장, 앱 데이터베이스로 사용

Team3. 369

스타트단계 발표자료

https://drive.google.com/open?id=1bjggR1dJj9LNY_flrlmIwH2vg9eL_u5E

무얼 만들었는가

개발을 위한 IA, 기획서, 와이어프레임 등을 구성하였습니다. 또한 어플리케이션을 개발하고 초기 OCR 모델을 구축하였습니다.

구현환경

  1. Java, Spring, SpringBoot, AWS CodeDeploy, AWS S3, AWS EC2(Ubuntu 20), Github Action, node.js/nest.js, python/flask
  2. mysql(AWS RDS)
  3. Flutter
  4. 하이브리드 어플리케이션(iOS, Android 둘 다)

사용한 오픈소스

  • 시스템 구성에 있어서 모든 항목은 직접 구현하였음

사용한 AI

  1. 영수증에서의 horizontal text detection을 위한 CTPN (Connectionist Text Proposal Network)를 PyTorch를 사용하여 구현하였음.
  2. 영수증에서 감지한 <text 영역>에서의 문자를 검출하기 위하여 HENNet(=Hangul English Number Net)을 (영감을 준 source는 한글만을 위한 HangulNet, 2022이었으나 우리 서비스의 특성상 영어와 숫자 인식이 필수였기에 영어와 숫자인식도 가능하도록 모듈을 변형) Pytorch 로 구현하여 현재 학습중임.
  3. 영수증에서 각 검출한 문자들이 <상품>인지, <수량>인지등의 유형도 구분하여서 서비스에서 유저에게 보여줘야 하기 때문에 우선은 영수증에서의 상대적인 위치등을 기반으로 나누어줄 생각이다. (여기서는 최대한 AI기술을 사용하지 않고 앞선 recognition module의 정확도를 최대로 올려 줄 생각이다. - 만약 잘 안된다면 앞선 detection 모듈에서 text box감지와 더불어서 어떤 유형인지도 동시에 예측하게 할 생각이다. 그런데 데이터 라벨링을 직접 해야 해서 현재는 데이터 전처리중.. 모델은 그냥 CTPN의 output feedforward layer에 classification head하나만 추가하면 되기 때문에 문제 없음.)

사용한 클라우드

AWS S3를 사용할 예정이며, 현재 서비스 개발이 완료된 상태가 아니기 때문에 비용은 들지 않았음.

Team4. 고민박살

스타트단계 발표자료

https://drive.google.com/open?id=1AZykt2kG7CzMOGMrWaENFVNlomf-jTZd

무얼 만들었는가

코로나 바이러스의 현황을 제공하고, 다음 세대의 돌연변이를 예측하는 서비스를 기획하였습니다. 이를 웹사이트로 제공하기 위해 먼저 코로나 확진자 수를 히트맵으로 나타내었고, 바이러스 서열을 다운로드해서 기간별로 돌연변이 추이를 분석하였습니다.

구현환경

  1. Front-End: Javascript, html, css로 웹사이트 제작 (원래는 angular로 제작하려 하였으나 아직 기술 스택 완성
  2. ClusterX(Multiple Sequence Alignment 작업-바이러스 서열 길이를 맞춰주는 프로그램), LSTM이용한 텍스트 생성

사용한 오픈소스

없습니다.

사용한 AI

없습니다. 플랫폼 개발이 완료된 후 CV 기술 및 보안 기술을 사용할 예정입니다.

사용한 클라우드

없습니다.

Team5. TEAJAVA

스타트단계 발표자료

https://drive.google.com/open?id=11kBn3zEsIumzh3sMB0ymeQLjmw88z2V0

무얼 만들었는가

LSTM, K-Means Clustering, cosine similarity를 이용한 칵테일 추천 챗봇, 아이템 기반 추천 기능, 즐겨찾기 기능 및 칵테일 검색 기능을 만들었습니다.

구현환경

OS: 우분투 웹프레임웍: Python/Flask 데이터베이스: Firebase 프론트엔드: ReactNative(EXPO) 클라이언트: 웹앱(iOS + Android)

사용한 오픈소스

없다

사용한 AI

Tensorflow: LSTM 모델을 사용자를 분류할 때 사용합니다. Chat GPT API를 사용하여 사용자와 자유롭게 상호작용합니다.

사용한 클라우드

AWS로 URL을 통해 외부에서 접속할 수 있도록 합니다. 현재까지 516원을 지출했습니다.

Team6. VISTA

스타트단계 발표자료

https://drive.google.com/open?id=1MY0mIv9T1yarZ5zxBB6eMi0kKSM3znHz

무얼 만들었는가

사용자 경험 향상을 위한 UXUI 분석 서비스'를 제작했습니다. 사용자가 디자인된 화면을 업로드하면, 해당 이미지 내의 UI 컴포넌트들을 인식하고, 각 컴포넌트별로 지켜야 할 UX 사항들을 체크리스트 형태로 보여줍니다.

구현환경

  1. Back-End: Java, Spring-boot
  2. Database: mongoDB
  3. Front-End: 웹 서비스 개발, TypeScript, React

사용한 오픈소스

Rico dataset (https://www.kaggle.com/datasets/onurgunes1993/rico-dataset) 을 이용하여 딥러닝 모델을 훈련합니다.

사용한 AI

Tensorflow 를 사용합니다.

사용한 클라우드

주로 Colab을 이용하여 개발을 진행했고, GPU 클라우드를 제공받았을 때에는 텐센트 클라우드를 이용했습니다.

Team7. COYD

스타트단계 발표자료

https://docs.google.com/presentation/d/1wQEHLbqlm7x2ozz3LvykmftvS_46eb3H/edit?usp=sharing&ouid=103392791996621782207&rtpof=true&sd=true

무얼 만들었는가

블록체인을 사용한 중고책 기부 프로젝트 [WHO] 기부를 하고 싶으나 여유돈이 없거나, 기부하려는 재단의 투명성을 의심하는 사람들에게 [WHY] 활발한 기부 문화를 형성하기 위해 [HOW] 블록체인을 통해 투명한 거래를 보장하고, “기부 토큰”으로 기부의 가치를 인식.

  1. 나에게 필요 없는 중고책을 기증하거나, 나에게 필요한 중고책을 사면서 자연스럽게 기부 과정에 참여
  2. 기부에 참여한 만큼 늘어나는 "COYToken"으로 내 기부의 가치를 한눈에 확인.

구현환경

웹 프레임워크는 백엔드 node.js/express, 프론트엔드 React, 데이터베이스 mySQL, os 윈도우를 사용하였습니다. 스마트컨트랙트는 EVM에 호환되는 Solidity로 작성되었으며 Polygon Testnet인 Mumbai Network에 배포하였습니다.

사용한 오픈소스

npm @openzeppelin-solidity

사용한 AI

없습니다

사용한 클라우드

AWS의 EC2와 RDS를 통해 배포 예정입니다.

Team8. 어푸어푸

스타트단계 발표자료

https://drive.google.com/open?id=1ffptYCT54IDsl5lPkmYUjOZR43hMCXNR

무얼 만들었는가

[영상 인식 기반 드론을 이용한 수상 안전 요원] 드론이 하는 수상 모니터링, 사람을 구하다

  • yolov5를 이용하여 물에 빠진 사람 구분
  • 깊이 추정을 이용하여 물에 빠진 사람의 위치를 받아와서 알림
  • pid 제어를 이용하여 사각지대 없이 드론 운용 및 감시

구현환경

  1. Back-End : nest.js를 쓸 예정이고, os는 윈도우기반으로 할 예정입니다.
  2. 데이베이스 : mysql을 쓸 예정입니다.
  3. Front-End : 자바, 코틀린 사용합니다.
  4. 클라이언트 : Android앱 만듭니다.

사용한 오픈소스

https://www.anaconda.com/

https://nestjs.com/

를 사용합니다.

사용한 AI

Yolov5를 이용합니다. pyTorch를 이용하고, dji tello 라이브러리를 사용하고 있습니다.

그리고 opencv를 사용하고 있습니다.

사용한 클라우드

aws 이용하여 배포 예정입니다.

Team9. L2K

스타트단계 발표자료

https://drive.google.com/open?id=1B7d09pticyBxwzl-pgfyVOvP9tP2-Xwr

무얼 만들었는가

  • 스타트 당시에는 ‘객체 인식 아날로그 스캐너: 아날로그 데이터의 디지털화’를 주제로 해당 기술을 구현하는 데 있어서 핵심이 될 기술 3가지를 구현 및 검증하는데 집중
  • Image 전처리(Tesseract를 이용한 Outline detection 및 영역 grouping), OCR을 이용한 Text 인식, python open CV를 이용한 개체 인식을 중심으로 기술 리서치
  • 새로운 주제로 바꾼 뒤(그로쓰) DB 구성, Django 셋팅, API 개발 등을 진행 중에 있습니다.

구현환경

  • 백엔드: python/django, mysql(또는 sqllite), AWS(Lambda, RDS, Cognito, API Gateway, SQS)
  • 프론트엔드: TypeScript, React, Javascipt, SASS, AWS(CloudFront,S3)
  • 모바일 적응형 웹 구현

사용한 오픈소스

사용한 AI

Amazon Personalize : 각 회원별로 회원가입할 때 선호하는 행사 카테고리를 수집하고, 이후 참여하는 행사의 카테고리 정보를 수집하여 전처리한 데이터를 토대로 개인별로 적절한 행사를 추천하는 솔루션을 사용하고자 한다.

사용한 클라우드

  • AWS API Gateway & Lambda : API 개발
  • AWS RDS : 데이터베이스 관리
  • Amazon Cognito : 로그인, 사용자 관리
  • AWS SQS : 트래픽 처리
  • AWS Cloudfront : 프론트엔드 웹서버
  • AWS S3 Bucket : 이미지 저장

Team10. GSD

스타트단계 발표자료

https://drive.google.com/open?id=1gMUWTkyBQdxX16hGLnpC3eTam1CTPL97

무얼 만들었는가

  1. Figma를 이용한 UI/UX 개발 및 플로우차트 구성
  2. ERD 작성을 포함한 데이터베이스 구조 설계
  3. 아키텍처 설계도 작성
  4. REST API 명세서 작성
  5. DTRB(Deep Text Recognition Benchmark)와 CRNN을 이용한 OCR 모델 학습 및 EasyOCR fine tuning
  6. Konlpy와 TF-IDF를 이용한 한국어 문장 유사도 계산 API 개발

구현환경

  1. Back-End: Springboot(Java) 프레임워크를 사용합니다.
  2. DB: 데이터베이스로는 MariaDB를 사용합니다.
  3. Front-End: React와 Typescript를 사용합니다.
  4. 웹 앱을 개발합니다.

사용한 오픈소스

tesseract.js(사용 예정)

사용한 AI

  1. PyTorch를 기반으로 ClovaAI의 Deep Text Recognition Benchmark와 CRNN을 이용한 OCR 모델 학습을 진행하였습니다.(Deep Text Recognition Benchmark: https://github.com/clovaai/deep-text-recognition-benchmark, CRNN : https://github.com/mvoelk/ssd_detectors )

  2. PyTorch를 기반으로 EasyOCR의 JaidedAI에서 배포한 korean_g2 모델을 이용하여 OCR 모델의 fine tuning을 진행하였습니다.(JaidedAI: https://www.jaided.ai/easyocr/modelhub/)

  3. Konlpy를 이용하여 tf-idf 기반의 한국어 문장 유사도 계산 API를 개발하였습니다.(Konlpy : https://konlpy.org/ko/latest/index.html )

사용한 클라우드

개발용 서버로서 Google Cloud Platform의 VM을 이용하고 있습니다. 크레딧을 사용하여 현재 지불된 금액은 없습니다. 서비스용 서버로서 AWS의 EC2를 이용할 계획입니다.

Team11. JeongHyoYeon

스타트단계 발표자료

https://drive.google.com/open?id=1YClJbVEN3oZjNL3-O-uuBAi_4jBE9tOU

무얼 만들었는가

발 사이즈 정밀 측정과 AI 스타일 추천 기능을 통해 온라인으로 내 스타일에 맞는 신발을 사이즈 고민 없이 구매하는 어플을 기획 및 개발하였습니다. 발사이즈 정밀 측정 기능 70% 개발, 사용자의 전신 사진을 AI로 분석해 신발을 추천해주는 기능 20% 개발, 앱 프론트엔드/백엔드 개발 50% 정도를 완료했습니다.

그러나 현재는 주제가 변경되었고 이와 관련해 23년 1월에 김규호 교수님과 미팅을 진행하였습니다.

구현환경

  1. 우분투, Python/Django
  2. MySQL
  3. React
  4. 웹앱(모바일웹)

사용한 오픈소스

프론트엔드에서 사용한 모듈:

  • react-redux
  • redux
  • styled-components
  • react-redux
  • redux-toolkit
  • redux-persist
  • axios
  • file-saver
  • jszip
  • react-router-dom
  • react-spinners
  • react-icons
  • react-datepicker

백엔드에서 사용한 모듈:

  • djangorestframework
  • djangorestframework-simplejwt
  • django-corsheaders
  • django-apscheduler
  • boto3
  • Pillow
  • PyMySql
  • gunicorn
  1. YOLOv5, pyTorch URL : https://github.com/ultralytics/yolov5 용도 : 입력된 사진에 객체 tag를 붙일때 이용. 예를 들어, 바다 앞에서 음식을 들고 있는 사람을 찍었다면, [해변, 사람, 음식] 을 detect해 앨범 폴더 분류 시 이용. 1단계로 scene dataset으로 fine-tuning한 모델로 scene classification진행 2단계로 coco dataset으로 pre-trained된 yolov5m.pt를 이용해 object detection 진행

  2. MTCNN, TensorFlow URL : https://github.com/ipazc/mtcnn 용도 : face detection 모델. 하나의 이미지에서 얼굴에 해당하는 모든 부분을 찾아 crop할때 이용.

  3. ArcFace 손실함수를 이용한 Backbone 모델 용도 : face embedding.

사용한 클라우드

AWS의 EC2 - 웹 서버로 사용 AWS의 RDS - 데이터베이스로 사용 AWS의 S3 - 이미지 저장 공간으로 활용 (데이터베이스에는 이미지 주소를 저장), react 파일 저장하기 위해서 사용 AWS의 Application Load Balancer, Route53 - https 배포를 위해 사용 AWS의 cloudfront 사용 - js의 정적 파일 배포하기 위해서 사용 Tencent Cloud 서버 사용 - AI 모델 서버로 이용

현재까지 지출한 비용: 도메인 구입비 - 5.5$ 서버 이용료 - 6.45$ Git LFS 이용료 - 5$

Team12. 함꼐가자

스타트단계 발표자료

https://drive.google.com/open?id=1LvQX1cJokF-lqtqg7Ctrpd_gfaCwjM_z

무얼 만들었는가

스터디 전용 플랫폼의 부재로 인한 불편함을 줄이고자 스터디 관리 전용 웹 서비스를 개발했습니다. 코로나 이후 비대면 화상 회의 프로그램을 통한 스터디가 크게 늘었습니다. 스터디 활동을 하는 사람들의 스터디 관리의 번거로움을 줄여, 학습 활동에 집중할 수 있도록 하는 것이 목표입니다. 주요 기능으로는 화상회의, 채팅, 출석체크, 과제함, 일정관리 캘린더가 있습니다.

구현환경

  1. 윈도우, Node.js/Express
  2. mysql
  3. React js

사용한 오픈소스

PeerJS: https://peerjs.com Socket.io: https://socket.io

사용한 AI

없습니다.

사용한 클라우드

추후 AWS 서버 배포를 위해 30~40달러정도 예상합니다.

Team13. 대함현즈

스타트단계 발표자료

https://drive.google.com/open?id=1YOCh5dz6fGsOB2tgbypScwR-xPoSfaAY

무얼 만들었는가

청각장애를 가진 부모님이 아이를 보고 있지 않아도 아이에게 일이 생겼을 때 핸드폰 알림으로 알 수 있는 서비스를 만들었습니다.

구현환경

프론트:flutter 백엔드: spring boot 이미지 전처리: librosa

사용한 오픈소스

사용한 AI

resnet 모델

사용한 클라우드

AWS s3 AWS EC2

Team14. 고글

스타트단계 발표자료

https://drive.google.com/open?id=13n7gzgPQY3kZQQWFhxNNw51Ep8Zko1eb

무얼 만들었는가

서비스 주제 확정 및 기획 구체화, 기술 리서치 음성 변환을 위한 오픈 소스 프로젝트 테스트하며 도메인 이해도 향상 팀원 목소리로 MaskCycleGAN, VITS-TTS 모델 트레이닝 및 테스트 제품 프로토타입 제작

구현환경

딥러닝 - Flask, flask-restx

백엔드 - Ubuntu 18.04, Java/Springboot

데이터베이스 - MySQL

AWS - EC2, RDS, S3, CodeDeploy

프론트엔드 - Android Studio

안드로이드 어플리케이션 제작

사용한 오픈소스

https://github.com/xiph/rnnoise : 음성 노이즈 제거를 위한 node.js 모듈을 파이썬으로 사용

사용한 AI

(https://github.com/yl4579/StarGANv2-VC) StarGAN-VC : 사용자 음성으로 학습하여 음성을 변환하는 모델(Tensorflow) (https://github.com/coqui-ai/TTS) Coqui TTS 중 VITS 모델: 영어(영국), 일본어 TTS 음성 생성(pyTorch) (https://github.com/TensorSpeech/TensorFlowTTS)
TensorFlow TTS 모델: 영어(미국), 중국어, 프랑스어, 독일어 음성 생성(Tensorflow)

사용한 클라우드

AWS의 다양한 서비스를 이용중이며 클라우드 서버 EC2 데이터베이스 RDS 생성된 외국어 음성 파일 저장을 위한 S3 자동 배포를 위한 CodeDeploy 사용 중입니다.

Team15. 조이룸(joyrOOOm)

스타트단계 발표자료

https://drive.google.com/open?id=1Yrxp897Fsr6DrKQm_VAbQF5tH6vmKaKP

무얼 만들었는가

오프라인 환경에서 안경을 구매하는 경우 시착할 때마다 안경사 혹은 매장 직원에게 문의해야 하는 불편함이 있습니다. 또한 시력이 매우 나쁜 경우 안경을 시착해보더라도 해당 안경의 렌즈에는 도수가 없기 때문에 착용한 모습을 정확하게 확인하기 어렵습니다. 대안으로 사진을 촬영하여 모습을 확인해본다고 해도, 자신의 시력에 따른 렌즈 굴절률이 반영된 모습을 확인할 수 없습니다. 이러한 문제점을 해결하고자 굴절률을 반영한 가상 안경 착용 기능을 제공하는 플랫폼을 만들었습니다. AR Core의 얼굴 인식(Face detection), 특징점 추출(Landmark detection), 얼굴 자세 추정(Head pose estimation) 등을 활용하여 가상 안경을 띄우고 비디오 인페이팅을 이용하여 사용자가 실제 착용중인 안경 알의 왜곡만을 제거하여 굴절률을 반영한 가상 안경 착용을 가능하게 하였습니다.

구현환경

  1. 우분투 OS
  • AI 모델 서버 - Python 기반 FastAPI
  • 데이터베이스 서버 - Java기반 Spring Boot & JPA
  1. MySQL
  2. Kotlin을 사용하여 Android Studio에서 Android 네이티브 개발
  3. Android 앱을 만들고 있습니다.

사용한 오픈소스

  • 클라이언트: Android Standard Library, Glide, Material Design, OkHttp, Retrofit2, coroutine 사 용
  • 데이터베이스 서버: JPA, QueryDSL

사용한 AI

  • PyTorch 기반 Objecet Detection - Yolo v5
  • PyTorch 기반 Semantic Segmentation

사용한 클라우드

Google Cloud SQL, Google Storage Service : 사진 저장, 데이터베이스 배포, 구글 로그인 연동

Team16. ea9gu

스타트단계 발표자료

https://drive.google.com/open?id=1eSDOWQGR-o2tQ1NRNpN6C0mSW-2BqoHL

무얼 만들었는가

개인정보에 대한 중요성을 바탕으로 sns에 업로드할 시 사진에 담긴 지문 정보를 마스킹할 수 있는 서비스를 만들고자 하였습니다. 손가락 인식, 지문 인식 인공지능 솔루션을 개발하여 성능을 더욱 높이는 과정에 있었으며, 스프링부트를 이용하여 서버를 제작하였습니다.

구현환경

  • OS: ubuntu (docker)
  • Database: MySQL
  • Web Framework: Spring Boot (JAVA)
  • Front-End: Flutter
  • iOS application 제작

사용한 오픈소스

없습니다.

사용한 AI

Tensorflow, 손바닥에서 손가락을 찾고 어느 부분 손가락인지를 탐지하는 깃허브 오픈 소스 이용 후 fine-tuning 진행.

사용한 클라우드

AWS - 배포, 호스팅

Team17. 메멘토

스타트단계 발표자료

https://drive.google.com/open?id=1YwfKctIi-juGjHOBxGUqyIi1SoVryyc9

무얼 만들었는가

팀의 주제인 '고시생을 위한 판례 암기 어플리케이션'을 제작하기 위해 필요한 기능들을 정리하며 기획서를 작성했습니다. 어플리케이션의 사용 방법을 구체화하기 위해 와이어프레임과 프로토타입을 제작했으며, SENTENCE-KOBERT와 OCR 기술을 검증하는 시간을 가졌습니다.

구현환경

  1. OS는 Ubuntu이며, docker를 사용하고 있습니다.
  2. Back-End로는 Java/Spring boot를 사용하고 있습니다.
  3. 데이터베이스는 mysql을 메인으로 사용하며, 회원 토큰 저장에는 redis를 사용하고 있습니다.
  4. Front-End에서는 Flutter를 사용하고 있습니다.
  5. Flutter를 사용하여 크로스 플랫폼 앱을 만들고자 합니다. 다만 개발 환경은 Android 기기입니다.

사용한 오픈소스

네이버 OCR: https://www.ncloud.com/product/aiService/ocr chatGPT openAI API: https://platform.openai.com/overview

사용한 AI

없습니다.

사용한 클라우드

네이버 OCR: 사용자의 노트에 있는 판결 요지를 추출하기 위해 사용합니다.

Team18. 우리는삼총사

스타트단계 발표자료

https://drive.google.com/open?id=1uUGkAY7Sy_kp6wIAAKpabt9vWXNNgn8l

무얼 만들었는가

딥러닝을 기반으로 편의점 CCTV를 분석하여 편의점 근로자에게 물리적 위협을 가하는 강력 범죄 행동을 감지하고 신고하는 종합 안전 서비스를 만들었습니다.

구현환경

  1. OS - Linux, Web - Java/SpringBoot
  2. DB - Mysql
  3. FE - ReactNative, FireBase
  4. Client - Android
  5. Deep Learning Server - Python/FastAPI

사용한 오픈소스

없습니다.

사용한 AI

pytorch

[https://github.com/carolchenyx/MGFN] (anomaly detection model) [https://fastapi.tiangolo.com/ko/] (flask 이용)

사용한 클라우드

AWS EC2 - 프로젝트 배포를 위해 사용하고 있습니다. AWS RDS - 데이터베이스 구축을 위해 사용하고 있습니다.

Team19. eLENS

스타트단계 발표자료

https://drive.google.com/open?id=1rRcFXyMtxxkfbJ3M1CPJxtBDns0jTHHa

무얼 만들었는가

스타트 첫 학기에 딥러닝 모델 학습과 자율주행 구현을 위한 하드웨어(Jetson Nano, LiDAR)를 마련하고 Jetson Nano의 구동을 위한 OS 환경 설정을 마쳤습니다. PoseNet, PoseLSTM, AtLoc, ResNet 등 다양한 Camera pose estimation 모델을 기존 Bench mark 실내 dataset에 학습시켜 프로젝트에 적합한 모델을 탐색하였습니다. 아이폰 내장 라이다를 사용하여 실제 자율주행 구현을 위한 아산공학관 2층 데이터 셋을 생성하였습니다.

구현환경

  1. PoseNet 모델 구현 : Pytorch
  2. 모델학습 : Colab
  3. Dataset : Google Cloud
  4. Dataset 생성 : iphone 12 pro LiDAR (3d scanner app 사용)

딥러닝 모델의 경량화와 성능을 개선하는 연구트랙으로서, 논문 게재를 목표로 합니다.

사용한 오픈소스

Jetson Nano 2GB AI Developer Kit

사용한 AI

PyTorch 기반으로 개발을 진행하며, 사전학습된 GoogleNet 모델을 BackBone으로 한 PoseNet 모델를 벤치마크해, 사전학습된 ResNet 모델을 BackBone 으로 한 Camera pose regressor 모델을 사용한다.

사용한 클라우드

Colab Pro / 현재까지 지출 약 6만원

Team20. 다섯시삼십분

스타트단계 발표자료

https://drive.google.com/open?id=1TBu-O_p66kHltucaOl0NXss_he9hiqwg

무얼 만들었는가

개인이 진행하는 길고양이 구조 모금의 불편함과 기부금 횡령 문제를 완화하기 위해 블록체인 기반 길고양이 기부 플랫폼을 제공한다. 기부한 금액을 암호화폐로 환전하고, 기부내역을 이더리움 네트워크에 저장한다. 스마트 컨트랙트를 사용하여 분산원장에 기부내역을 저장하고, 이를 투명하게 공개함으로써 신뢰할 수 있는 웹 기반 기부 플랫폼을 만들고자 한다.

구현환경

  1. 운영체제: 윈도우
  • Back-End: Spring boot(Java)
  • Front-End: React(Typescript)
  • Database: MySQL(Maria DB), AWS S3, AWS RDS
  • CI/CD: Jenkins
  1. 블록체인
  • Smart-Contract: Solidity
  • Ethereum-wallet: Web3
  • Testnet: Goerli Testnet
  • Ethereum Network
  1. 배포
  • Docker
  • AWS EC2

사용한 오픈소스

  1. 웹: 금액 결제 모듈 / 더치트 금융사기 방지 API/ 계좌실명조회 API/ Clova OCR
  2. 블록체인: Web3

사용한 AI

없다

사용한 클라우드

  1. 클라우드: AWS EC2
  2. 데이터베이스: AWS RDS
  3. 이미지 저장을 위한 클라우드: AWS S3

Team21. 백조

스타트단계 발표자료

https://drive.google.com/open?id=1413jtnGtzZPS9u773nSXjhkLQP2f_D-l

무얼 만들었는가

전자책 텍스트 분석을 통해 분위기에 맞는 배경음악을 제공해주는 안드로이드 백그라운드 앱

구현환경

  1. Windows, Python/Node.js
  2. Firebase, AWS, MySQL
  3. 안드로이드 스튜디오 Kotlin 기반 Android 어플 개발

사용한 오픈소스

백엔드 : Node.js, stream_with_context, response, request, json, firebase_admin
프론드엔드: Firebase ML Kit, MediaProjectionAPI

사용한 AI

Pytorch언어를 사용하여 인공지능 모델을 개발합니다.
-Pretrained KoBert NLP 모델을 사용하여 텍스트 다중감성분류를 수행
-직접 쌓은 CNN 모델을 사용하여 음악 다중감성분류를 수행

사용한 클라우드

구글의 Firebase를 클라우드로 사용합니다. 무료로 사용하고 있습니다.

  • Firebase Storage: mp3 음악 파일을 저장하고 있습니다.
  • Realtime Database : 음악의 메타데이터 json파일을 저장하고 있습니다.

Team22. 영시스터즈

스타트단계 발표자료

https://drive.google.com/open?id=18MgBSlCxiJ6Tnm7jPJwR4cm5Rx8sOktB

무얼 만들었는가

사용자의 영어 발화를 분석하고 피드백을 주는 애플리케이션을 구상하였다.

구현환경

  1. node.js/express 2. mysql 3. Swift, UIKit 4.iOS앱 5. 클라우드 - AWS EC2, S3

사용한 오픈소스

Alamofire (클라이언트에서 HTTP 통신 위해 사용, https://github.com/Alamofire/Alamofire)

사용한 AI

tensorflow - nlp

사용한 클라우드

AWS 사용 예정 EC2 - 서버 배포 위함 S3 - 사용자 음성 녹음 데이터 저장 위함

Team23. 골투더퓨처

스타트단계 발표자료

https://drive.google.com/open?id=1UvZf8CzSuAexXBd3ZXHn4VoCjpQ36HX3

무얼 만들었는가

드론으로 촬영한 아마추어 풋살 영상을 바탕으로 각 팀별 플레이를 자동으로 분석하고, 이후 영상 및 분석 결과를 웹 '골 투 어스'로 제공한다. 또한 웹에서 경기 매칭 서비스도 제공한다.

구현환경

  1. OS - Ubuntu(AWS 가상환경), 웹 프레임웍 - Spring Boot, React.js
  2. 데이터베이스 - MySQL
  3. 웹 서버 - AWS EC2

사용한 오픈소스

OpenCV

사용한 AI

Yolov5(https://github.com/ultralytics/yolov5), 경기 분석 용도 DeepSort(https://github.com/mikel-brostrom/yolov8_tracking), Yolov5와 함께 사용하여 경기 분석

사용한 클라우드

AWS EC2, RDS 사용 AWS S3 사용 예정

Team24. 캐릭캐릭뮤직체인지

스타트단계 발표자료

https://drive.google.com/open?id=1cUzBgv97MnaDXkxlc7_NddbO8zShhQnW

무얼 만들었는가

딥러닝 기반 음악 스타일 트랜스퍼 기술을 사용해 사용자가 원하는 음악(midi)을 Lo-fi 스타일로 변경해 스트리밍하는 웹 Lo-Fi Player

구현환경

  1. OS - Ubuntu, 웹프레임웍 - Python/Flask
  2. 데이터베이스 사용하지 않음
  3. Javascript
  4. x

사용한 오픈소스

Google Magenta / SoX / Tone.js(midi)

사용한 AI

groove2groove(https://github.com/cifkao/groove2groove.git) Tenserflow로 제작된 오픈소스 딥러닝 모델을 수정해서 이용하고 있습니다.

사용한 클라우드

AWS EC2 - 서버 배포 (예정)

Team25. 밤낮박김

스타트단계 발표자료

https://drive.google.com/open?id=1x_QW22-q6Tovr_wSHqdBc14aaJk3FbX5

무얼 만들었는가

사용자가 웹(크롬)에서 글을 작성하면 그 입력값으로 가져와서 목적에 맞게( 맞춤법 교정, 단어 교체, 격식 전환) 자연어 처리 기술로 가공하여 실시간으로 피드백을 제공해주는 크롬 익스텐션 서비스 입니다. ( 한국판 grammarly )

구현환경

  1. 윈도우즈/ 웹프레임워크 fastAPI
  2. 웹 (크롬 익스텐션)
  3. 자연어처리 딥러닝 모델

사용한 오픈소스

모델 서버: fastAPI, uvicorn

사용한 AI

pyTorch: NLP에 사용 RoBERTa: 문맥에 맞는 어휘 추천 및 검색 KoBART: 맞춤법 검사, 격식 문장 변환

사용한 클라우드

tencent cloud

Team26. yeahcherry

스타트단계 발표자료

https://drive.google.com/open?id=1qQrybiq5TwD64epeEhtTav4qHUa5AS00

무얼 만들었는가

AI를 이용해서 IT 사이드 프로젝트의 팀원을 매칭해주는 웹서비스를 만들었습니다. 구체적으로는 데이터를 크롤링 후 KoBERT로 팀원 매칭 AI를 구현하려다가, 어려움이 있어서 기술을 바꿔 k-means clustering을 이용한 팀원 매칭 AI를 구현했고, 프론트엔드의 뼈대를 만들고 백엔드 공부를 했습니다.

구현환경

  1. Back-End : 우분투, Python/Flask
  2. DB : mysql
  3. Front-End : React
  4. 클라이언트 : 웹
  5. AI : 핵심기능인 팀원 매칭을 k-means clustering을 이용하여 구현

사용한 오픈소스

없습니다.

사용한 AI

sklearn과 같은 기본적인 라이브러리만 사용합니다.

사용한 클라우드

학교에서 지원해주는 tencent cloud, AI 구현을 위한 GPU 사용

Team27. ARchive

스타트단계 발표자료

https://drive.google.com/open?id=1P936oO6_G4w9V7zYfz13R1kCTImVBvbp

무얼 만들었는가

장소 기반의 증강현실 안드로이드 SNS 앱을 제작했습니다.

저희 앱의 슬로건 ‘지금, 여기’ 입니다.

모든 게시글은 현재 유저가 위치 장소에서 찍은 사진 혹은 동영상을 포함합니다. 그리고, 게시글이 올려질 때 유저가 있는 현재 위치에, 해당 게시글의 AR 썸네일이 남겨집니다.

앱을 켜면 자동으로 AR 카메라가 실행되고, 자신의 주변에 남겨진 게시글들의 썸네일이 AR 물체로 나타납니다. 각 게시글이 자신의 현재 위치로부터 어느 방향에 있고 어느 정도 거리에 있는지가 표시되기 때문에, 공간감을 느끼며 SNS를 즐길 수 있습니다.

구현환경

AR 부분에 있어서는 안드로이드의 증강 현실 앱을 빌드할 수 있는 ARCore 플랫폼과 Unity Asset을 이용해서 개발 중입니다.

클라이언트 부분에서는 kotlin을 사용하여 안드로이드 앱을 개발 중입니다.

Back-end는 Java/Spring을 사용해 개발합니다. 개발에 사용 중인 OS는 윈도우즈입니다. 스프링부트를 사용한 RESTful API 서버를 구축한 뒤 안드로이드와 연동하여 개발합니다.

사용한 오픈소스

ARCore Geospatial API https://developers.google.com/ar/develop/geospatial

Google Map API https://developers.google.com/maps?hl=ko

Retrofit2 라이브러리 https://square.github.io/retrofit/

파이어베이스 DB https://firebase.google.com/

사용한 AI

없습니다.

사용한 클라우드

구글 Cloud의 Maps SDK: 현재 본인의 위치와 포스팅의 위치 표시를 위한 지도 기능, 구글 Cloud의 ARCore for Android 서비스: AR 카메라에 AR 모델을 나타내기 위한 기능

Team28. 이김조

스타트단계 발표자료

https://drive.google.com/open?id=1NpzRPKr7wl_sBoVwbvuUdRlreT8bkRlH

무얼 만들었는가

얼굴을 이용하여 아바타를 생성한 후, 해당 아바타와 함께 몰입하여 역사 AR 컨텐츠를 즐길 수 있도록 하는 AR 웹앱 기획 / 얼굴의 특징점을 잡는 모델을 이용하여 아바타를 만들 수 있는 코드 작성

구현환경

  1. OS : windows
  2. 데이터베이스 : mysql
  3. 웹프레임웍 : Unity/WebGL
  4. Front-End : Unity
  5. 클라이언트 부분 : 웹앱

사용한 오픈소스

참고한 오픈소스 프로젝트 URL https://github.com/Kwonkunkun/DrawAndPainting_VR

사용한 AI

참고한 오픈소스 프로젝트 URL

  1. 81개 facial landmark를 인식하는 모델. 얼굴(코,입,눈썹,입술,얼굴형)파츠를 선택하는것에 사용. https://github.com/codeniko/shape_predictor_81_face_landmarks

2.얼굴형 분류한 논문. 이목구비의 비율을 구하는 수식을 참고하기 위해 활용함. https://www.researchgate.net/publication/362903132_Human_Face_Shape_Classification_with_Machine_Learning

사용한 클라우드

AWS RDS : mysql 데이터베이스 생성용 AWS Lambda : Unity와 mysql 데이터베이스 연동을 위한 함수 작성용 비용 지출 내역 없음

Team29. 나인틴

스타트단계 발표자료

https://drive.google.com/open?id=1vwizJNtmjBurXEGxU_8zvklGzp_qLoeV

무얼 만들었는가

시선 추적과 표정 분석 기술을 활용한 유튜브 리뷰 플랫폼(Seetube)의 기획을 완료했습니다. Seetube는 유튜버가 리뷰를 의뢰한 영상들을 리뷰어들에게 제공, 리뷰 완료 시 리워드를 제공하여 리뷰 데이터를 수집합니다. 리뷰는 영상을 시청하고 있는 리뷰어의 시선 및 표정 데이터를 수집하는 방식으로 진행됩니다. 이후 해당 데이터를 사용하여 리뷰어들이 영상에서 집중한 장면과 감정을 느낀 장면을 선정하고, 이를 바탕으로 재편집된 2차 숏폼 컨텐츠(하이라이트 영상, 유튜브 Shorts)를 유튜버에게 제공합니다. 또한 유튜버들은 리뷰어들의 반응을 통해 향후 영상 콘텐츠의 구성 및 편집 방향에 도움을 제공받을 수 있습니다.

구현환경

  1. OS: ubuntu, 프레임워크: node.js/express
  2. 데이터베이스: mysql
  3. X
  4. 클라이언트: iOS 네이티브 앱, 개발언어 - Swift
  5. X

사용한 오픈소스

ffmpeg: 디지털 음성 스트림과 영상 스트림 편집 라이브러리. 시선과 표정데이터 분석 결과를 바탕으로 원본 영상을 편집하여 하이라이트/쇼츠 동영상을 제작하는데 필요.https://github.com/FFmpeg/FFmpeg pymysql: python에서 sql문법을 사용해 데이터베이스를 다루는 라이브러리.

사용한 AI

SeeSo: 시선 추적 SDK, iOS 2.5.1 버전 MiniXception: 표정 분석 모델, https://arxiv.org/abs/1710.07557 YOLOv5: 동영상 내 객체 인식 용도

사용한 클라우드

AWS EC2 인스턴스에 서버 구동중 $0.005 per Elastic IP address not attached to a running instance per hour (prorated) 항목으로USD 3.82 지출하였습니다.

Team30. 찐감자

스타트단계 발표자료

https://drive.google.com/open?id=1dTKNpfkApiQEpbGspJmpT0FxKwRgHsf5

무얼 만들었는가

이미지 및 텍스트 분석 기반 실종 반려견 찾기 서비스인 품(POOM)을 만들었습니다.

POOM은 반려견을 잃어버렸을 때 견주들이 겪게 되는 시간적, 금전적 측면의 비효율 문제 해결을 위해 두 가지 주요 기술을 채택하였습니다.

두 가지 주요 기술은 FaceNet 모델을 강아지에게 적용한 이미지 검색 기능과 SBERT를 적용하여보다 의미론적인 텍스트 검색 기능입니다.

POOM은 이러한 검색 기능과 더불어 게시글 알림 기능을 제공하며 실종 반려견이 주인의 품으로 다시 돌아가는 비율을 높이는 것을 기대합니다.

구현환경

  • OS: Windows
  • Web: Python/Django
  • DB: SQLite
  • 반응형 웹사이트를 개발합니다.

사용한 오픈소스

없습니다.

사용한 AI

https://github.com/GuillaumeMougeot/DogFaceNet : DogFaceNet 모델을 사용합니다. 자체적으로구축한 데이터셋으로 모델을 학습시키며 정확도를 높여나가고 있습니다.

사용한 클라우드

서비스 배포 시 AWS를 이용할 예정입니다.

Team31. 존버그

스타트단계 발표자료

https://drive.google.com/open?id=1NfNu-Ap2V1yeDlfS-ngyXAY91Jm-eWTI

무얼 만들었는가

보행해충 탐지를 위한 인공지능 모델을 학습시켰습니다. 모바일 어플리케이션 개발을 위해 피그마로 디자인하였습니다. 백엔드 개발을 위해 Springboot 스터디를 진행하였습니다. 사용자가 사용할 수 있는 형태의 Android 어플리케이션 백엔드 API를 구현하였습니다.

구현환경

  1. 우분투, JAVA/SpringBoot
  2. mysql
  3. kotlin
  4. Android 앱 개발

사용한 오픈소스

없음

사용한 AI

Yolo v5

사용한 클라우드

구글 클라우드 : 이미지 데이터 저장 AWS

  • EC2 : 서버
  • RDS : 관계형 데이터베이스 연결

Team32. 분노의추적

스타트단계 발표자료

https://drive.google.com/open?id=16kdd0wVj9aZpovWpCdfC2AllVkj9QmsG

무얼 만들었는가

저희 팀은 Low Precision를 활용해 ray tracing 알고리즘의 최적화하는 연구를 진행하고 있습니다. 이 연구를 위해 스타트 첫 학기에 크게 두 가지의 결과물을 만들었습니다.

첫 번째는 Low Precision 연산을 지원하는 사칙연산 프로그램을 만들었습니다. 이 프로그램은 다양한 precision을 지원하며, 두 low precision floating point의 연산을 소프트웨어적으로 구현한 에뮬레이터(emulator)입니다. 현재 일부 예외 상황에 대한 에러가 존재하여 해결 중에 있습니다. 이번 그로쓰에서는 이러한 에러들을 최대한 해결한 후, 완성된 Low Precision 연산 프로그램을 기본 Ray Tracing 프로그램에 적용하여 Low Precision ray tracing의 가능성을 증명하고자 합니다.

두 번째 결과물은 ray tracing 알고리즘입니다. 저희 팀은 기본 ray tracing 알고리즘을 구현하였으며, 레이 트레이싱을 개선하기 위한 가속 자료구조 중 'BVH (Bounding Volume Hierarchy)'를 활용하고 있습니다. 앞서 언급한 Low Precision 연산기 프로그램을 저희가 구현한 Ray Tracing 알고리즘에 적용하여 다양한 precision에 대한 실험을 진행할 계획입니다.

구현환경

OS는 Linux를 사용하고 있으며 CUDA를 이용하여 GPU를 활용하고 있습니다

사용한 오픈소스

레이 트레이서 뼈대 (교재) https://raytracing.github.io/

복잡한 3차원 물체(triangular mesh) 렌더링하기 https://github.com/mgaillard/Renderer https://github.com/anandhotwani/obj_raytracer

사용한 AI

없습니다.

사용한 클라우드

저희는 연구트랙으로, 서비스를 위한 클라우드를 사용하지 않습니다.

Team33. 삼문철

스타트단계 발표자료

https://drive.google.com/open?id=1KE7-rUKNdGNblYHeXYjv_cvXax29bvhh

무얼 만들었는가

첫학기 동안 딥러닝 모델을 간단한 데이터에 적용하여 적절한 방법임을 확인하였으며 간단한 웹서버를 제작하였습니다.

구현환경

현재 ubuntu 서버에서 python flask 이용하여 웹 개발중이며 데이터베이스는 aws의 dynamodb를 이용하고 있습니다 또한 colab에서 딥러닝 모델을 이용해 첫학기 동안 간단한 video 식별이 가능하도록 구현했습니다

사용한 오픈소스

없습니다

사용한 AI

tensorflow keras 이용하여 딥러닝 개발 중입니다

사용한 클라우드

aws ec2 서버에서 개발 중입니다 aws dynamodb를 데이터베이스로 이용하고 있습니다 aws s3에 영상 저장을 하고 있습니다.

Team34. 해오름시샘

스타트단계 발표자료

https://drive.google.com/open?id=1dLmG0iqh5vfpV1G6-5LgVhrwM2rsRspf

무얼 만들었는가

opensource를 활용해 영상의 모션 일치도를 볼 수 있는 머신러닝을 이용해보았다. 이를 토대로 정확한 요가 동작이면 다음 동작으로 넘어가는 기능을 구현해보았다.

구현환경

  1. 현재 Front 부분만 구현함. / 원도우 / python-django 사용 예정/
  2. firebase, mysql 사용 예정
  3. 안드로이드 스튜디오
  4. Android 앱을 만듦

사용한 오픈소스

https://github.com/mohit9949/Pose-Estimation-Similarity-With-TensorFlow

사용한 AI

tensorflow lite 사용.

사용한 클라우드

firebase의 firestore를 사용하여 요가 포즈 분별을 위한 데이터 셋을 올려놓음

Team35. 김앤장

스타트단계 발표자료

https://drive.google.com/open?id=1LX8iJ0Vx54onxx0E6HrMhm-GTn-0rVjf

무얼 만들었는가

멘토님의 피드백을 바탕으로 서비스 기획과 뷰 디자인을 완료했고, 서버 개발을 끝냈습니다. 방학에는 프론트 뷰 개발(서버 연결 X)과 AI(GPT 사용) 개발을 진행했습니다.

구현환경

  • Back-End : Typescript/Node.js, MySQL
  • Front-End: Javascript/React Native
  • 최종 산출물은 태블릿용 하이브리드 앱(iOS&Android 모두 호환)입니다.

사용한 오픈소스

  • 사용 라이브러리 : https://github.com/react-native-voice/voice (STT 라이브러리)
  • 사용 목적 : 동화 릴레이 제작 과정에 사용됨. 아이들의 말을 텍스트로 변환하여 GPT에 넘겨주는데 사용.

사용한 AI

  1. GPT-3(pyTorch) : 동화 릴레이 제작 과정에 사용됨. <우리두리>는 릴레이 소설처럼 한 문장씩 번갈아가며 동화를 만드는 방식의 서비스이기 때문에, 아이들이 말한 문장에 이어서 새로운 내용을 만드는데 사용. (현재 네이버 하이퍼클로바 이용중 - https://www.ncloud.com/product/aiService/clovaStudio)

  2. Dall-e-2 : 동화 릴레이 제작 과정에 사용됨. 생성된 문장에 맞는 그림을 생성하는 AI 라이브러리. (https://openai.com/product/dall-e-2)

사용한 클라우드

AWS - EC2, RDS, S3 사용중 (1년 무료티어 사용중으로 아직까지 과금 내역 없음.)

Team36. VRain

스타트단계 발표자료

https://drive.google.com/open?id=10RKYxvJ_kEkdgPAcio6BWhtmGFT8HD8w

무얼 만들었는가

1️. 가상현실 속에서, 3D 모델링한 도시(City)를 배경으로 3D 페인팅(Paint) 서비스

2️. 증강현실 기술을 통해, 실제 도시(City)에 작품(Paint)을 띄워 관람하는 서비스

구현환경

  1. OS : ubuntu (AWS의 가상머신 이용)
  2. Cloud : AWS
  3. DB : MySQL (AWS의 RDS 서비스 이용)
  4. Frontend : Unity / Backend : python (AWS의 Lambda 이용)
  5. Client : Android 어플리케이션 / VR 프로그램 (실행을 위해서는 오큘러스 퀘스트 VR 기기 필요)

사용한 오픈소스

  1. Tilt Brush : VR 작품 그리기 (https://github.com/googlevr/tilt-brush)
  2. Unity-Mapbox (WorldWide Scale) : 현실과 동일한 장소 구현
  3. AsImpL : obj 파일을 유니티의 에셋으로 임포트 (https://github.com/gpvigano/AsImpL)
  4. Aspose.3D : fbx를 obj 파일로 변환 (Convert FBX to OBJ via Python | products.aspose.com)
  5. Vuforia : AR 카메라 기능 (Home | Vuforia Developer Portal)

사용한 AI

없습니다.

사용한 클라우드

  1. 클라우드 : AWS
  2. RDS : Mysql 기반 데이터베이스
  3. S3 : 작품 파일, 이미지 저장하는 스토리지
  4. Lambda + API gateway: API 기능
  5. 비용 : 무료 (AWS 프리티어 계정 사용 중)

Missing Teams: 37