모집마감

온라인

토요일

Safe AI

LAB 모집 마감
개요

아주 많은 데이터로 훈련된 딥러닝 모델은 아주 정확한 성능을 낼 수 있지만, 때로는 그렇지 못합니다. 예를 들어, 데이터셋의 크기가 작거나, 데이터 자체에 노이즈가 많거나, 원 데이터셋의 분포로부터 오지 않은 데이터(Out-of-distributiondata)에 대해서도 높은 확률값을 우리에게 줄 수 있습니다. 어떻게든 결정을 내려야 하는 자율주행 자동차를 예를 들자면 치명적인 결과를 낼 수 있을 것입니다. 이렇게 불확실성을 정확하게 표현할 수 있는 연구의 중요성이 높아지고 있고, 또 앞으로 해결해야할 아주 큰 이슈들 중 하나임에는 틀림없습니다

SafeAI 랩 1기는 여러가지 활동을 했습니다.

첫 번째로, 딥러닝 모델의 safety와 관련된 논문을 구현하였습니다. 아래의 링크 참고바랍니다.
• https://github.com/2sang/OOD-baseline
• https://github.com/RRoundTable/hedged_instance_embedding
• https://github.com/RRoundTable/Uncertainty_with_Camvid

두 번째로는 논문을 리뷰하는 활동을 진행하였습니다.
• https://rroundtable.github.io/post/mixup-%EC%A0%95%EB%A6%AC%EA%B8%80f/
• https://rroundtable.github.io/post/2019-06-29-what-uncertainties-do-we-need-in-bayesian-deep/
• https://rroundtable.github.io/post/2019-08-01-dropout-as-bayesian-approximation-%EC%A0%95%EB%A6%AC%EA%B8%80/

앞으로의 활동방향

이전에는 논문구현 및 리뷰에 힘을 쏟았다면, 앞으로는 현실세계의 문제에 이런 결과물을 적용해보는 과정을 계획하고 있습니다. 잘 정제된 논문속의 데이터와 다르게, 현실의 데이터는 그렇지 않을 가능성이 큽니다. 이런 상황속에서 딥러닝의 Safety를 확보하는 것은 매우 경쟁력 있는 요소라고 생각합니다.

SafeAI랩 2기에서는 다음과 같은 계획을 가지고 있습니다.

1. 기간: 2020.01 ~ 2020.4 (약 3개월간)
2. 목표: 현실의 데이터에서 Safety를 확보하는 경험을 쌓아보기
3. 구체적인 내용
• 현재 많은 연구가 진행되고 있는 Safety와 관련된 논문 구현.
• Kaggle과 같은 현실의 문제를 직접 참여하여 즐겁게 경쟁하고, 현실의 문제에 Safety와 관련된 사항을 적용하기!
• Competition link: https://www.kaggle.com/c/deepfake-detection-challenge

이렇게 운영됩니다.

1. 개인별/ 팀별 참여할 competition을 선정하고, 진행사항 및 과정을 공유합니다.
2. 혹은 개인별/ 팀별 구현할 논문을 선정하고 구현 진행사항 및 과정을 공유합니다.
3. 또한, SafeAI 연구원들에게 본 연구에 활용할 수 있는 Cloud-based GPU Computing resource가 제공될 예정입니다.
4. SafeAI랩은 EpiSci Korea의 지원을 받아 운영됩니다.

아래와 같은 경험 및 관심을 가진 분들께 참여를 권장드립니다.

• python, 딥러닝 프레임워크(Tensorflow, Pytorch)에 기본적인 이해가 있으신 분
• 논문들의 실험결과를 다시 내 보고, 프로토타입 구현을 좋아하시는 분
• 혹은, Kaggle과 같은 competition에 참여하는 것을 즐기거나 하고 싶으신분

랩짱

류원탁