y-unique☼

  • 홈
  • 태그
  • 방명록

일반화 1

[논문리뷰] Understanding deep learning requires rethinking generalization

뭔가 속시원하게 이해하기 어려웠던 논문 열린 결말 같은 결론.. 내 언어로 풀어서 이해하면 자칫 오개념이 될 것 같았던 논문.. 새벽 세 시에 리뷰해봅니다... AbstractDNN이 매우 큼에도 불구하고 성공적인 DNN은 train과 test의 성능 차이가 매우 작다.이 말은 일반화 오류가 작다고 표현일반화: 보지 않은 새로운 data에서도 잘 작동하는 것⇒ 일반화 오류가 작다는 건 모델이 단순히 크기만 커서가 아니라 그 안에 존재하는 모델의 feature와 학습하는 방법이 성능 차이를 줄이는데에 기여한다!위와 같은 접근법, 전통적인 접근법 (feature 학습이나 정규화)는 large NN의 일반화 성능을 충분히 설명하지 못한다는 걸 실험적으로 보여줌sota ResNet for image classi..

논문 리뷰 2025.02.07
이전
1
다음
더보기
프로필사진

y-unique☼

🌀🌀

  • 분류 전체보기 (27)
    • 알고리즘 (1)
    • EECS 498-007 (13)
    • 논문 리뷰 (4)
    • 모각코 (9)

Tag

알고리즘 #hash, EECS 498-007, Contrastive learning, zero-shot, gram matrix, Mask R-CNN, content loss, RoI Aling, EECS 498-007 #Optimization, Sementic Segmentation, data preprocessing, Training Neural Networks #Activation function, upsmapling, CNN Architectures, style loss, visition, EECS 498-007 3강 #Linear Classifier #SVM #Cross-Entropy #L1 #L2, Inductive Bias, weight initialization, EECS 498-007 #10강 #,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바