Upgrade to Pro — share decks privately, control downloads, hide ads and more …

170710 바라미 인공신경망 세미나

170710 바라미 인공신경망 세미나

1. 소개
2. 빠른 역사 탐방
3. 머신 러닝과 인공신경망, 그리고 딥러닝
4. 최신 딥러닝 동향 및 우리가 가져야 할 자세

Avatar for Dongmin Kim

Dongmin Kim

July 10, 2017
Tweet

More Decks by Dongmin Kim

Other Decks in Programming

Transcript

  1. 인공신경망 매우매우 개론 바라미 18기 김동민 2017년 07월 10일 도대체

    요즘 컴공에서 뭔 일이 일어나고 있는지 알아보는 세미나 (인공지능 분야 한정) 1 / 58
  2. 목차 1. 소개 2. 빠른 역사 탐방 3. 머신 러닝과

    인공신경망, 그리고 딥러닝 1. 인공신경세포와 인공신경망 2. 퍼셉트론 예제 3. 쓸모 없고 느려터진 인공신경망 4. 딥러닝의 등장 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 1. AlphaGo (2016) 2. SRCNN (2014) 3. GNMT (RNN) (2016) 4. BEGAN (GAN) (2017) 5. 우리가 가져야 할 자세 인공신경망 매우매우 개론 – 0. 목차 쉬운 개념 설명을 위해 소개하는 알고리즘들에 많은 비약이 포함되어 있음을 미리 알려드립니다 쉬운게 좋잖아요? 헤헿 2 / 58
  3. 뉴스를 볼 때마다 헷갈리시죠? 딥러닝 == 마법 딥러닝 == 학사논문

    통과? 딥러닝 == 석사논문 통과? 딥러닝 == 박사논문 통과? 딥러닝 == 특이점??? 인공신경망 매우매우 개론 – 1. 소개 7 / 58
  4. 뉴스를 볼 때마다 헷갈리시죠? 딥러닝 != 마법 딥러닝 != 학사논문

    통과 ㅠㅠ 딥러닝 != 석사논문 통과 ㅠㅠ 딥러닝 != 박사논문 통과 ㅠㅠ 딥러닝 != 특이점 인공신경망 매우매우 개론 – 1. 소개 8 / 58
  5. 인공신경망 매우매우 어려운 개론 – 1. 소개 • 머신러닝 •

    인공신경망 • 전처리 기법 • 난수 초기화 • L2 정규화 • Dropout • 구성 방법 • RNN • RBM • 에러 계산 • Gradient Descent Method • 활성화 함수 • SIGMOID • ReLU • Maxout • 역전파 계산 및 업데이트 • 바닐라 업데이트 • RMSprop • ADAM (2014) • … 인공신경망 매우매우 개론 – 1. 소개 − = 𝑝𝑝 − 𝑝𝑝 (𝑝𝑝 ) 𝑝𝑝 𝑖𝑖𝑖𝑖𝑖𝑖𝑝𝑝 = 𝑝𝑝 − 𝑝𝑝 𝑝𝑝 1 − 𝑝𝑝 𝑝𝑝 − 𝑖𝑖 = � 𝑘𝑘=0 −1 𝑝𝑝 − 𝑝𝑝 (𝑝𝑝 ) 𝑖𝑖𝑖𝑖𝑖𝑖𝑝𝑝 𝑖𝑖𝑖𝑖𝑖𝑖𝑝𝑝 𝑝𝑝 ( ) 𝑖𝑖𝑖𝑖𝑖𝑖 𝑖𝑖𝑖𝑖𝑖𝑖 = � 𝑘𝑘=0 −1 𝑝𝑝 − 𝑝𝑝 𝑝𝑝 1 − 𝑝𝑝 1 − 𝑝𝑝 = � 𝑘𝑘=0 −1 𝑝𝑝 𝑝𝑝 1 − 𝑝𝑝 𝑝𝑝 꺅! 이게 뭐야! 이런 건 안 해!!! 9 / 58
  6. 60년 전 기계로 인공지능을 만들어볼까? 20년 안에 인간 같은 인공지능

    가능하대!! 낙관론 (규칙에 근거한) 미로찾기 문제 해결!!! (규칙에 근거한) 컴퓨터와의 대화 프로그램!!! (기초적인) 사람의 신경망을 인공적으로 만들어 볼 수 있어!!! (규칙에 근거한) 사람보다 뛰어난 체스 프로그램!!! 인공신경망 매우매우 개론 – 2. 빠른 역사 탐방 10 / 58
  7. 1983 제프리 힌튼 ‘사람들이 날 무시하더라도… 나는 꿋꿋하게 내 갈길을

    가겠어… (웃음)’ 60년 전 기계로 인공지능을 만들어볼까? 20년 안에 인간 같은 인공지능 가능하대!! 낙관론 30년 전 돈을 그렇게나 줬는데 성과가 없잖아! 게다가 너무 느리잖아! 때려쳐! 비관론 미로 정도야 규칙을 만들어 줄 수도 있지만… 그냥 규칙에 따라 대화하는 대화 친구는 싫어… 신경망? 그거 돌리기엔 컴퓨터가 너무 느리잖아 ㅋㅋㅋ 체스도 인간이 미리 설정해 준 규칙에 따라 하는 것 뿐이잖아.. 인공신경망 매우매우 개론 – 2. 빠른 역사 탐방 11 / 58
  8. 1983 제프리 힌튼 ‘사람들이 날 무시하더라도… 나는 꿋꿋하게 내 갈길을

    가겠어… (웃음)’ 60년 전 기계로 인공지능을 만들어볼까? 20년 안에 인간 같은 인공지능 가능하대!! 낙관론 30년 전 돈을 그렇게나 줬는데 성과가 없잖아! 게다가 너무 느리잖아! 때려쳐! 비관론 10년 전 어서와 딥러닝은 처음이지? (2006) 융전의 무서움을 보여주마! (2010) 2012 제프리 힌튼 연구팀 (불과 5년 전) 인공지능 숫자 추측 대회에서 딥러닝을 사용하여 ‘최고의 플레이 (다시 말해 1등)’ 달성 -> 딥러닝을 사용한 최초의 가시적 성과 ‘역시 내 길은 틀리지 않았어 (웃음)’ 인공신경망 매우매우 개론 – 2. 빠른 역사 탐방 바로 이 논문에서 새로운 세상이 시작되었다 G. E. Hinton et al., “A fast learning algorithm for deep belief nets,” Neural Comput, vol. 18, no. 7, pp. 1527–1554, Jul. 2006. 12 / 58
  9. 1983 제프리 힌튼 ‘사람들이 날 무시하더라도… 나는 꿋꿋하게 내 갈길을

    가겠어… (웃음)’ 60년 전 기계로 인공지능을 만들어볼까? 20년 안에 인간 같은 인공지능 가능하대!! 낙관론 30년 전 돈을 그렇게나 줬는데 성과가 없잖아! 게다가 너무 느리잖아! 때려쳐! 비관론 10년 전 어서와 딥러닝은 처음이지? (2006) 융전의 무서움을 보여주마! (2010) 현재 뭐야 이것들… 무서워… 인공신경망 매우매우 개론 – 2. 빠른 역사 탐방 2012 제프리 힌튼 연구팀 (불과 5년 전) 인공지능 숫자 추측 대회에서 딥러닝을 사용하여 ‘최고의 플레이 (다시 말해 1등)’ 달성 -> 딥러닝을 사용한 최초의 가시적 성과 ‘역시 내 길은 틀리지 않았어 (웃음)’ CNN 등을 이용한 알파고 (2016) 불과 1년 전!!! Boundary Equilibrium Generative Adversarial Networks (2017) 을 이용한 사람 이미지 학습 불과 4개월 전!!! Neural Machine Translation System (2016) 을 이용한 구글 한국어 신경망 번역 (2016) 불과 8개월 전!!! CNN 등을 이용한 이미지 해상도 복원 (2014) 불과 2년 전!!! 13 / 58
  10. 1983 제프리 힌튼 ‘사람들이 날 무시하더라도… 나는 꿋꿋하게 내 갈길을

    가겠어… (웃음)’ 60년 전 기계로 인공지능을 만들어볼까? 20년 안에 인간 같은 인공지능 가능하대!! 낙관론 30년 전 돈을 그렇게나 줬는데 성과가 없잖아! 게다가 너무 느리잖아! 때려쳐! 비관론 10년 전 어서와 딥러닝은 처음이지? (2006) 융전의 무서움을 보여주마! (2010) 현재 뭐야 이것들… 무서워… 인공신경망 매우매우 개론 – 2. 빠른 역사 탐방 2012 제프리 힌튼 연구팀 (불과 5년 전) 인공지능 숫자 추측 대회에서 딥러닝을 사용하여 ‘최고의 플레이 (다시 말해 1등)’ 달성 -> 딥러닝을 사용한 최초의 가시적 성과 ‘역시 내 길은 틀리지 않았어 (웃음)’ CNN 등을 이용한 알파고 (2016) 불과 1년 전!!! CNN 등을 이용한 이미지 해상도 복원 (2014) 불과 2년 전!!! Boundary Equilibrium Generative Adversarial Networks (2017) 을 이용한 사람 이미지 학습 불과 4개월 전!!! Neural Machine Translation System (2016) 을 이용한 구글 한국어 신경망 번역 (2016) 불과 8개월 전!!! 컴퓨터에게 ‘문제 해결 방법’을 가르친 적이 없다 컴퓨터로부터 ‘문제 해결 방법’을 알아낼 수 없다 14 / 58
  11. 1983 제프리 힌튼 ‘사람들이 날 무시하더라도… 나는 꿋꿋하게 내 갈길을

    가겠어… (웃음)’ 60년 전 기계로 인공지능을 만들어볼까? 20년 안에 인간 같은 인공지능 가능하대!! 낙관론 30년 전 돈을 그렇게나 줬는데 성과가 없잖아! 게다가 너무 느리잖아! 때려쳐! 비관론 10년 전 어서와 딥러닝은 처음이지? (2006) 융전의 무서움을 보여주마! (2010) 현재 뭐야 이것들… 무서워… 인공신경망 매우매우 개론 – 2. 빠른 역사 탐방 2012 제프리 힌튼 연구팀 (불과 5년 전) 인공지능 숫자 추측 대회에서 딥러닝을 사용하여 ‘최고의 플레이 (다시 말해 1등)’ 달성 -> 딥러닝을 사용한 최초의 가시적 성과 ‘역시 내 길은 틀리지 않았어 (웃음)’ CNN 등을 이용한 알파고 (2016) 불과 1년 전!!! CNN 등을 이용한 이미지 해상도 복원 (2014) 불과 2년 전!!! Boundary Equilibrium Generative Adversarial Networks (2017) 을 이용한 사람 이미지 학습 불과 4개월 전!!! Neural Machine Translation System (2016) 을 이용한 구글 한국어 신경망 번역 (2016) 불과 8개월 전!!! 아기에게 ‘문제 해결 방법’을 가르친 적이 없다 아기로부터 ‘문제 해결 방법’을 알아낼 수 없다 15 / 58
  12. 그래서 인공지능이란? -> 기계로 만드는 지능 그래서 머신 러닝(Machine Learning,

    기계 학습)이란? -> 인공지능을, 사전에 지정한 규칙이 아니라 ‘학습’을 통해 구현하는 방법 그래서 인공신경망(Artificial Neural Network, ANN)이란? -> 머신 러닝의 방법 중에서, 인공적인 신경망을 통해 구현하는 방법 그래서 딥러닝(Deep Learning, 심층 학습)이란? -> 특별한 기술인 줄 알았다면 여러분은 속았음. 그냥 ‘딥러닝 = 심층 인공신경망’임. 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝 인공지능 머신 러닝 인공신경망 딥 러닝 ★심층 인공신경망★ 16 / 58
  13. 왜 다시 인공신경망인가? 1. 인공신경세포와 인공신경망 - 신경세포 (신경망의 기본

    유닛) 1. 전기 입력을 받아 2. 어떠한 처리를 한 후 (예: 모든 입력의 합이 역치값보다 큰가?) 3. 전기 출력을 내보낸다 - 인공신경세포 (인공신경망의 기본 유닛) 1. 숫자 입력을 받아 2. 어떠한 처리를 한 후 (예: 모든 입력의 합이 역치값보다 큰가?) 3. 숫자 출력을 내보낸다 - Symbolic AI vs Connectionist AI 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝 17 / 58
  14. 왜 다시 인공신경망인가? 1. 인공신경세포와 인공신경망 - Symbolic AI vs

    Connectionist AI 각각의 (인공)신경세포는 지능의 아주 일부분만을 담당 - 인간이 규칙을 지정해 주지 않아도 스스로 인식/학습/추론 문제를 해결 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝 18 / 58
  15. 왜 다시 인공신경망인가? 2. 퍼셉트론 예제 - 퍼셉트론: 인공신경세포의 입력,

    처리, 출 력 과정 중에서 ‘처리’ 부분이 역치값 검사 인 것 1. 입력: 입력 신호 * 가중치 2. 처리: 입력 신호의 합이 0 이상인가? 3. 출력: 양수면 1, 음수면 0 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝 1 0 1 초기 상태의 퍼셉트론 랜덤 가중치 랜덤 가중치 입력 신호 전부 더한 게 양수인 것이냐 (근엄) 출력 신호 (더해보니 양수였음) 1 랜덤 가중치 19 / 58
  16. 왜 다시 인공신경망인가? 2. 퍼셉트론 예제 - 역전파: 정답과 비교해서

    입력 신호의 가 중치를 변경 ※ 참고(몰라도 됨) - 새로운 가중치를 구하는 방법 -> 기존 가중치에 ‘오차 * 입력 신호’를 더함 - 따라서 예제에서 오차는 0-1 = -1 - 첫 번재 입력의 새로운 가중치는? - 기존 가중치 + ‘-1 * 1’ - 일반화하기: Gradient Descent Method 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝 1 0 1 역전파로 학습하는 퍼셉트론 가중치 업뎃 가중치 업뎃 입력 신호 야 틀렸대;; 빨랑 바꿔;; 출력 신호 1 정답이 0ㅜㅜ 가중치 업뎃 20 / 58
  17. 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝

    왜 다시 인공신경망인가? 2. 퍼셉트론 예제 - 퍼셉트론 1. 전기 입력을 받아 2. 어떠한 처리를 한 후 (모든 입력의 합이 역치값보다 큰가?) 3. 전기 출력을 내보낸다 21 / 58
  18. 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝

    - 인공신경세포 1. 전기 입력을 받아 2. 어떠한 처리를 한 후 3. 전기 출력을 내보낸다 왜 다시 인공신경망인가? 2. 퍼셉트론 예제 - 퍼셉트론 1. 전기 입력을 받아 2. 어떠한 처리를 한 후 (모든 입력의 합이 역치값보다 큰가?) 3. 전기 출력을 내보낸다 22 / 58
  19. 왜 다시 인공신경망인가? 3. 쓸모 없고 느려터진 인공신경망 1. 멍청한

    단층 신경망 - 아주 간단한 문제조차 해결 불가 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝 1 0 1 초기 상태의 퍼셉트론 랜덤 가중치 랜덤 가중치 입력 신호 전부 더한 게 양수인 것이냐 (근엄) 출력 신호 (더해보니 양수였음) 1 랜덤 가중치 미안… 너희는 멍청해서 쓸모가 없어… 23 / 58
  20. 왜 다시 인공신경망인가? 3. 쓸모 없고 느려터진 인공신경망 1. 멍청한

    단층 신경망 - 아주 간단한 문제조차 해결 불가 2. 까다로운 다층(심층) 신경망 - 단층 신경망을 여러 층으로 쌓은 것 - 신경망 너머너머로 역전파를 할 수록 학습이 느려지고 이상해짐 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝 미안… 너희는 까다로워서 쓸모가 없어… 24 / 58
  21. 왜 다시 인공신경망인가? 3. 쓸모 없고 느려터진 인공신경망 1. 멍청한

    단층 신경망 - 아주 간단한 문제조차 해결 불가 2. 까다로운 다층(심층) 신경망 - 단층 신경망을 여러 층으로 쌓은 것 - 신경망 너머너머로 역전파를 할 수록 학습이 느려지고 이상해짐 3. 느린 컴퓨터 - Symbolic AI는 딱! 하면 딱! 나오는데 - 인공신경망은 딱! 하면 1개월 걸림ㅜㅜ 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝 미안… 너희는 까다로워서 쓸모가 없어… 25 / 58
  22. 왜 다시 인공신경망인가? 4. 킹갓엠페러 딥러닝의 등장 (심층 신경망의 부활)

    1. 멍청한 단층 신경망은 멍청해서 안 씀 2. 까다로운 다층(심층) 신경망 - 안 까다롭게 학습시킬 수 있는 방법이 발견됨 - ‘딥러닝 기술의 핵심’ 3. 느린 컴퓨터: 좀 많이 빨라짐 - 체스 챔피언 IBM 딥블루: 11 GFLOPS (1997) - 너네 집 컴퓨터 글래픽카드: GTX 1050 -> 1733 GFLOPS (2016) 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝 20년 전 슈퍼컴 100대 = 너네 집 그래픽카드 26 / 58
  23. 왜 다시 인공신경망인가? 4. 킹갓엠페러 딥러닝의 등장 (심층 신경망의 부활)

    인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝 단층은 멍청하고 심층은 너무 똑똑해서 느리고 이상해짐 (과적합) 27 / 58
  24. 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝

    왜 다시 인공신경망인가? 4. 킹갓엠페러 딥러닝의 등장 (심층 신경망의 부활) - 과적합을 어떻게 해결할까? 접근법을 둘러보자 1. 초기화 방법을 개선하기 (제프리 힌튼 형님) - 처음에 신경망을 완전히 랜덤으로 때려버리니까 멍 청한 거 아님? - 조금 미리 학습 방향이라도 추측해보면 안 됨?? - ★딥러닝의 시대의 시작★ (DBN) - … 그리고 나중에 ‘미리 학습 방향이라도 추측해보는 일’ 이 실제로 해당 문제의 정답 방향이라는 것이 증명됨; 어이어이… 우리는 이미 배.우.신.몸. 이라구? 이런 우리들이 모.이.면. 어떻게 될지 우리들도 무섭다구… 큭큭큭… 28 / 58
  25. 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝

    왜 다시 인공신경망인가? 4. 킹갓엠페러 딥러닝의 등장 (심층 신경망의 부활) - 과적합을 어떻게 해결할까? 접근법을 둘러보자 2. 신경망을 덜 복잡하게 하기 (CNN) - 증명사진 픽셀: 1024*731 = 748544개 인간은 사진의 특성을 어떻게 잡아내는가? 29 / 58
  26. 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝

    왜 다시 인공신경망인가? 4. 킹갓엠페러 딥러닝의 등장 (심층 신경망의 부활) - 과적합을 어떻게 해결할까? 접근법을 둘러보자 2. 신경망을 덜 복잡하게 하기 (CNN) - 증명사진 픽셀: 1024*731 = 748544개 - 픽셀 한 개 = 인공신경 한 개 - 3층만 쌓아도 계산할 것이 7485442 ∗ 2 = 1120636239872개?? 748544개 748544개 748544개 인공신경 사이를 전부 연결 30 / 58
  27. 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝

    왜 다시 인공신경망인가? 4. 킹갓엠페러 딥러닝의 등장 (심층 신경망의 부활) - 과적합을 어떻게 해결할까? 접근법을 둘러보자 2. 신경망을 덜 복잡하게 하기 (CNN) - 증명사진 픽셀: 1024*731 = 748544개 - 픽셀 한 개 = 인공신경 한 개 - 인접한 부분만 연결해서, 특징을 잡아내자! - ‘눈‘ 부분의 특징은 조그마한 영역에 집중되어 있음 - CNN: Convolution Neural Network 748544개 4 * 748544개 4 * 748544개 인공신경 사이를 전부 연결 31 / 58
  28. 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝

    CNN을 이용한 사진 분류 (http://cs231n.stanford.edu/) 32 / 58
  29. 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝

    왜 다시 인공신경망인가? 4. 킹갓엠페러 딥러닝의 등장 (심층 신경망의 부활) - 기타 컴공을 갈아 넣어 만들어진 괴상한 해결책들 예시 3. 역전파 할 때 오차를 좀 더 고급지게 반영해보자 - 오차 계산에 모멘트 개념 적용 - 지역해 탈출 \^o^/ ★드루와★ (목표) 33 / 58
  30. 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝

    왜 다시 인공신경망인가? 4. 킹갓엠페러 딥러닝의 등장 (심층 신경망의 부활) - 기타 컴공을 갈아 넣어 만들어진 괴상한 해결책들 예시 4. 애가 너무 똑똑하니까 다 기억해서 문제네;; - 배운 것을 고의로 조금씩 잊게 하기 34 / 58
  31. 인공신경망 매우매우 개론 – 3. 머신 러닝과 인공신경망, 그리고 딥러닝

    왜 다시 인공신경망인가? 그림의 떡이었던 심층 신경망을 사용할 수 있게 되었기 때문! (+ 컴퓨터 성능 증가) 35 / 58
  32. 최신(?) 딥러닝 동향 – CNN을 응용한 사례 • AlphaGo (2016)

    • 알파고는 어떻게 예측을 할까? 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 신비한 방법 (?) 36 / 58
  33. 최신(?) 딥러닝 동향 – CNN을 응용한 사례 • AlphaGo (2016)

    • 알파고는 어떻게 예측을 할까? 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 신비한 방법 (?) 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 -1 0 0 0 1 0 0 0 0 1 0 0 1 -1 1 0 0 0 0 0 0 1 -1 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 -1 0 0 0 1 0 0 0 0 1 0 0 1 -1 1 0 0 0 0 0 0 1 -1 0 0 0 0 0 0 0 -1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 37 / 58
  34. 최신(?) 딥러닝 동향 – CNN을 응용한 사례 • AlphaGo (2016)

    • 알파고는 어떻게 예측을 할까? 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 신비한 방법 (?) 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 -1 0 0 0 1 0 0 0 0 1 0 0 1 -1 1 0 0 0 0 0 0 1 -1 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 38 / 58
  35. 최신(?) 딥러닝 동향 – CNN을 응용한 사례 • AlphaGo (2016)

    인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 39 / 58
  36. 최신(?) 딥러닝 동향 – CNN을 응용한 사례 • AlphaGo (2016)

    • 알파고는 어떻게 예측을 할까? 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 신비한 방법 (X) CNN (O) 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 -1 0 0 0 1 0 0 0 0 1 0 0 1 -1 1 0 0 0 0 0 0 1 -1 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 40 / 58
  37. 최신(?) 딥러닝 동향 – CNN을 응용한 사례 • AlphaGo (2016)

    • 알파고는 어떻게 예측을 할까? 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 -1 0 0 0 1 0 0 0 0 1 0 0 1 -1 1 0 0 0 0 0 0 1 -1 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 -1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.1 0 0 0 0 0 0.2 0 0.6 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 CNN 으로 현재 판세를 읽음 41 / 58
  38. 최신(?) 딥러닝 동향 – CNN을 응용한 사례 • Image Super-Resolution

    Using Deep Convolutional Networks (2014) • SRCNN 을 이용 • 축복스러운 ワイフ2x(Waifu2x) 예제 ^^ http://waifu2x.udp.jp/index.ja.html 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 특징 잡기의 대가 CNN 42 / 58
  39. 최신 딥러닝 동향 • Google's Neural Machine Translation System: GNMT

    (2016) • RNN 을 이용 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 문법 분석 영어 구문 변환 한국어 벡터 변환 영어 벡터 검색 한국어 기존 구글 번역기 (어법 + 사전 + 통계적 기법) 2016년 11월 15일 이후 구글 번역기 (스스로 문장을 이해) 43 / 58
  40. 최신 딥러닝 동향 • Google's Neural Machine Translation System: GNMT

    (2016) • RNN 을 이용 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 벡터 변환 영어 벡터 검색 한국어 2016년 11월 15일 이후 구글 번역기 (스스로 문장을 이해) 44 / 58
  41. 최신 딥러닝 동향 • Boundary Equilibrium Generative Adversarial Networks (2017)

    • 기존 GAN 의 개선 • GAN?: 본격 생성기 vs 검사기 대결;; 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 지폐 위조범 진짜 화폐 가짜 화폐 경찰 으앙 깜빵 진짜 화폐 가짜 화폐 경찰 ㅎㅎ 지폐 위조범 ㅎㅎ 진짜 화폐 가짜 화폐 으앙 인플레 45 / 58
  42. 최신 딥러닝 동향 • Boundary Equilibrium Generative Adversarial Networks (2017)

    • 기존 GAN 의 개선 • http://mattya.github.io/chainer-DCGAN/ 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 웃는 여자 벡터 – 무표정 여자 벡터 + 무표정 남자 벡터 = ??? 46 / 58
  43. 최신 딥러닝 동향 • Boundary Equilibrium Generative Adversarial Networks (2017)

    • 기존 GAN 의 개선 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 4개월 전에 구글에서 발표한 최신 논문 (BEGAN) 위의 모든 사진은 컴퓨터가 창조한 사람: 이쯤 되면 무섭다 47 / 58
  44. 우리가 가져야 할 자세 • 한양스팸급 빈도로 쏟아지는 딥러닝 논문들

    • 그런데 논문 내용들이 기말고사 성적 발표급으로 중요한 것이 문제 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 2012년 이후 arXiv에 공개된 월간 머신러닝 논문의 수 DBN 48 / 58
  45. 우리가 가져야 할 자세 • 요즘 컴공은 쉐프가 된 기분

    인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 49 / 58
  46. 우리가 가져야 할 자세 • 요즘 컴공은 쉐프가 된 기분

    인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 신상 논문들로 (?) 50 / 58
  47. 우리가 가져야 할 자세 • 사실 컴공도 딥러닝을 잘 몰라요!

    • 어 이거 그냥 만들어 본 건데 되네? • 우연에 의한 알고리즘 발견 • 어 이거 그냥 써 본 건데 좋네? • 산업계 현장에서 수학적인 증명의 어려움 • 되긴 하는데 왜 되는지 나도 모르겠어 ㅠㅠ • 작동 원리 설명이 매우 어려움 • 알파고가 이세돌한테 패배한 날, 구글 딥마인드 개발자들은 집에 가서 수십억개의 인공신경을 전부 살펴봤을까? 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 51 / 58
  48. 우리가 가져야 할 자세 • 딥러닝이 만병통치약은 아니다 • 딥러닝으로

    새로운 시대가 열렸지만, 여전히 전통적인 방법이 어울리는 경우 도 존재 • 처음에는 딥러닝 말고 간단한 알고리즘 으로 하자. 딥러닝은 좀 더 복잡한 구조 를 파악해야만 할 때 적합하다 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가 가져야 할 자세 올해 3월에 발표된 딥러닝 까는 논문과 뜨거운 외국 형님들의 반응 52 / 58
  49. 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가

    가져야 할 자세 딥러닝 != 마법 그러나 딥러닝의 실체를 정확히 이해하고 이해를 바탕으로 최신 기술을 조사하고 그것을 당신이 해결하고자 하는 문제에 적절하게 적용한다면 ♡딥러닝 == 마법♡ 54 / 58
  50. 인공신경망 매우매우 개론 – 4. 최신 딥러닝 동향 및 우리가

    가져야 할 자세 감사합니다 질문? 사실 저도 잘 몰라요 묻지마요 제발 55 / 58
  51. 인공신경망 매우매우 개론 – 5. 참조하면 좋은 곳 참고 문헌:

    은 제가 지금 세미나 끝나고 집에 와서 쓰려고 하고 있는데 막상 찾아서 쓰려니까 너무 귀찮아서 도저히 못 쓰겠으니까 양해 좀 부탁드려요 ^^ 참조하면 좋은 사이트: ★★★ 스탠포드 대학교 CS231n: 이미지 인식을 위한 CNN 영어: http://cs231n.github.io/ 한국어: http://aikorea.org/cs231n/ -> 빠르고 넓게 쏟아지는 딥러닝의 바다에서 그나마 단계적이고 체계적으로 공부할 수 있게 도와주는 강의 56 / 58
  52. 인공신경망 매우매우 개론 – 5. 참조하면 좋은 곳 참조하면 좋은

    사이트: ★★ [카카오AI리포트] 2017년 5월 기준 딥러닝 연구의 현재와 미래 https://brunch.co.kr/@kakao-it/65 -> 2017년 5월의 시점에서, 어떤 문제를 어떤 딥러닝 기술으로 풀 수 있는가? 총망라 되어 있음 ★ Sanghyuk Chun의 블로그: Deep Learning – RBM, DBN, CNN http://sanghyukchun.github.io/75/ -> DBN과 CNN의 수식적 표현 및 증명 ★ 딥러닝 관련 인용 Top 100 모음 https://github.com/terryum/awesome-deep-learning-papers 57 / 58
  53. 인공신경망 매우매우 개론 – 5. 참조하면 좋은 곳 실습 공부하기

    좋은 사이트: ★★ 텐서플로우 쉬운 튜토리얼 https://github.com/sjchoi86/Tensorflow-101 ★ 텐서플로우 잡다 모음 https://github.com/jtoy/awesome-tensorflow ★★ waifu2x http://waifu2x.udp.jp/index.ja.html ★★ DCGAN으로 일러스트 생성 http://mattya.github.io/chainer-DCGAN/ http://jaejunyoo.blogspot.com/2017/02/deep-convolutional-gan-dcgan-1.html 58 / 58