EECS 498-007 13

[EECS 498-007] Lecture 06. Backpropagation

아 십.. 진심으로 화나는 순간이야 3일동안 열~ 심히 이번 강의를 쓰구있엇어 진짜 강의 10분 남았는데 거의 다 썻는데 무슨 줄주리 쏘시지마냥 짱 길었는데 와이파이 이슈로 그냥 뿅! 하고 사라졌어.... 처음부터 다시 쓰는 이 마음 알아? 발표강의라서 열심히 했는데... 그럼에도 해야지 어쩌겠어.. 에도 한계가 있다 . 저번 시간 강의에서 마지막에 던진 물음표가 있었다. 실제로 gradient를 어떻게 계산할래? 기울기 어떻게 계산할래? 이번 강의에서는 gradient를 구하는 방법! 이 핵심이 될 것이다. 첫번째로 단순하게 제시한 방법은 1) 손으로 구해보기! 종이에 구해보기! 하면 함 이겠지... 하지만 이것은 많은 문제점을 가지고 있다. 먼저 매우 많은 연산량을 포함하고 있다.. 많은 종이가 필요..

EECS 498-007 2024.01.21

[EECS 498-007] Lecture 04강 Optimization

오늘은 4강 옵티마이제이션! 딱 2시 20분 시작인데 얼마나 걸리라나.. 2번째 들을 때 적는건데 후다닥 끝났으면 좋겟슴니다 몬가 짱졸리고 꿀꿀한 날이야 🐽 후다닥 이번주가 지나갓으 ㅁ좋겟다 다들 행복해라....... 오늘의 주제인 최적화! Optimization은 loss를 최소화하는 W를 찾는 것으로 고지대에서 저지대로 갈 수 있는 길을 찾아 가는 것과 유사하다고 한다. Linear Regression과 같은 모델에서는 미분을 통해 최소 loss를 가지는 W를 찾을 수 있지만, 복잡한 모델에서는 어떠한 수학적 공식을 통해 최적의 W를 찾는 것은 매우 쉽지 않은 일이다. 따라서 명시적인 수학적 공식을 통한 방법이 아닌 최소 loss를 가지는 이상적인 W에 맞게 조정해 나가는 방식을 사용하자! 먼저 첫번..

EECS 498-007 2024.01.11

[EECS 498-007] Lecture 03강 Linear Classifier

오늘은 두번째 시간 ... 3강! 리니어 클래시피어 이당 많이 많이 엄청 엄청 자주 자주 들어봤지만 자신만만하게 강의를 켰지만 항상.. 그 때마다 배워가는 건 참 많당.. 겸손해야함 흐히 아침부터 작성하려니 졸림 max얌 그치만 화이팅 해부께 Linear classifier는 선형으로 어떤 무언가를 분류해주는 알고리즘이다. 신경망 모델의 개별 요소가 linear classifier와 유사하다고 한다. 머신러닝을 공부하다 보면 자주 들어봤을 parametric approach 개념이 등장한다. Parametirc Approach None Parametric Approach parameter 값만 저장하는 방식 모든 데이터를 저장 ex) linear classifier ex) knn 그리고 앞서 2강에서 소..

EECS 498-007 2024.01.08