jin's blog

  • 홈
  • 태그
  • 미디어로그
  • 위치로그
  • 방명록

Convolutional Neural Net 1

DL - Convolutional Neural Network

포스팅 하면서 그림넣는걸 뺏다.그림은 한꺼번에 넣을 예정이다. ㅠ.ㅠ CNN (Convolutional Neural Network)Convolution Layer들의 연속이다. 이것들이 activation function과 같이 배치된거다.합성곱 신경망(CNN)에서는 기존 신경망의 구조를 바꾸어 학습의 어려움을 해소하였다. 특히 이미지 인식분야의 딥러닝으로 잘 성능을 보인다고 알려져있다.이것의 기본은, 문제에 특화된 망 구성을 하여, 다층구조의 망을 간소화하여 망학습을 쉽게 하는 것이다.보통 입력 -> CNN -> POOLING -> CNN -> POOLING ... FUlly connected layer -> 출력이다. 기존 신경망 구조가 모두 fully conneted layer라고 했을 떄 이것은 ..

IT/Deep learning 2017.06.29
이전
1
다음
더보기
프로필사진

jin's blog

Endure

  • 분류 전체보기 (50)
    • IT (44)
      • Paper (23)
      • Reinforcement Learni.. (0)
      • Probability (0)
      • Deep learning (6)
      • Spark (5)
      • Python (4)
      • Computer vision (4)
      • Data Structure (1)
    • 관심사 (2)
      • 낚시 (0)
      • 피아노 (2)
      • 일상 (0)

Tag

XAI, Fast R-CNN, smoothGrad, RL논문, Deconvolution Network, Interpretability Beyond Feature Attribution:Quantitative Testing with Concept Activation Vectors, Regularizing Trajectory Optimization with Denoising Autoencoders, Adversarial Examples Are Not Bugs, R-CNN, Learning Directed Exploration Strategies, vision transformer, Concept vector, They Are Features, Axiomatic Attribution for Deep Networks, Never Give Up, CAV, intergrated gradient, Paper리뷰, Quantifying Attention Flow in Transformers, TCAV,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바