분류 전체보기 27

[EECS 498-007] Lecture 10. Training Neural Networks I

어김없이 찾아오는 ~ 그런데 벌써 금요일이야 거짓말 같애 시간이 아주 매섭게 훅훅 지나간다 날씨도 살짝쿵 풀린 것 같지? 초코송이 먹구십다 오늘은 신경망을 실제로 훈련하는 방법! 에 대해 알아볼테다. 섹션을 둘로 나누어 진행할텐데, 이번 포스팅에서도 첫번째에 해당하는 One time setup에 관해 다룰 것이다. 다음 포스팅에서는 11강인 2, 3에 대해서 써볼게요. [Activation Functions] 활성화 함수는 인공신경망에서 중요한 구성 요소로, 모델에 nonlinearity를 부여하는 역할을 한다. 기본적으로 활성화함수가 이전 layer의 입력들의 가중 합에 작용한 후 결과를 다음 layer로 전달해주는데, 이런 활성화 함수가 존재하지 않으면 네트워크가 단일 선형 레이어가 되어 처리 능력이..

EECS 498-007 2024.01.29

[EECS 498-007] Lecture 09. Hardware and Software

점심먹고 레전드 졸린 스타트 뭐 난 만날 졸리고 각박하고 춥대 (사실인걸 어케) 그렇지만 오늘 좋은 점을 꼽자면.. 오전부터 짱 많이 웃ㅇ엇고.. 얼큰만둣국 맛있엇구 5시간 숙면에 비해 나름 카페인 없어도 될 정도야 화이팅해보자구 포스팅 완료할 수 있을까? 히히 이번 강의는 하드웨어와 쏘프트웨어! - Hardware 컴퓨터 내부 본체를 살펴보면 CPU와 GPU를 만나볼 수 있다. CPU (Central Processing Unit) 일반적인 컴퓨팅 작업을 수행 -> 운영처제, 응용 프로그램 실행, 파일 관리 등 적은 수의 코어를 가지고 있으며 코어 각각이 독립적으로 명령어를 처리하는 구조 다양한 애플리케이션에 사용되며 단일 쓰레드 성능이 중요한 작업에 적합 GPU (Graphics Processing U..

EECS 498-007 2024.01.25

[EECS 498-007] Lecture 08. CNN Architectures

또 8강으로 돌아온 나.. 홀수강을 시러하는 게 분명함 짱졸린 아침부터 시작하려는데 날씨가 인간적으로 너무춥다 그치 미틴것같애 목도리하고 귀도리하고 다녀라! 따숩게 하기 이번 시간은 씨엔엔 아키텍쳐! ImageNet challenge는 대규모 이미지 데이터셋을 활용하여 객체 인식 알고리즘 성능을 평가하는 대회 중 하나이다. 2010년부터 시작된 대회인데 이 대회는 딥러닝 기술의 발전과 함께 컴퓨티비전 분야에서 중요한 역할을 했다. 이때 2012년에 등장한 AlexNet이라는 딥러닝 기반의 모델이 처음으로 우승을 하면서 혁명을 일으켰다. AlexNet이 뭔데! AlexNet은 227 x 227 픽셀의 이미지를 input으로 사용 5개의 Convolution layers와 3개의 Fully Connected..

EECS 498-007 2024.01.24

[EECS 498-007] Lecture 06. Backpropagation

아 십.. 진심으로 화나는 순간이야 3일동안 열~ 심히 이번 강의를 쓰구있엇어 진짜 강의 10분 남았는데 거의 다 썻는데 무슨 줄주리 쏘시지마냥 짱 길었는데 와이파이 이슈로 그냥 뿅! 하고 사라졌어.... 처음부터 다시 쓰는 이 마음 알아? 발표강의라서 열심히 했는데... 그럼에도 해야지 어쩌겠어.. 에도 한계가 있다 . 저번 시간 강의에서 마지막에 던진 물음표가 있었다. 실제로 gradient를 어떻게 계산할래? 기울기 어떻게 계산할래? 이번 강의에서는 gradient를 구하는 방법! 이 핵심이 될 것이다. 첫번째로 단순하게 제시한 방법은 1) 손으로 구해보기! 종이에 구해보기! 하면 함 이겠지... 하지만 이것은 많은 문제점을 가지고 있다. 먼저 매우 많은 연산량을 포함하고 있다.. 많은 종이가 필요..

EECS 498-007 2024.01.21

[EECS 498-007] Lecture 04강 Optimization

오늘은 4강 옵티마이제이션! 딱 2시 20분 시작인데 얼마나 걸리라나.. 2번째 들을 때 적는건데 후다닥 끝났으면 좋겟슴니다 몬가 짱졸리고 꿀꿀한 날이야 🐽 후다닥 이번주가 지나갓으 ㅁ좋겟다 다들 행복해라....... 오늘의 주제인 최적화! Optimization은 loss를 최소화하는 W를 찾는 것으로 고지대에서 저지대로 갈 수 있는 길을 찾아 가는 것과 유사하다고 한다. Linear Regression과 같은 모델에서는 미분을 통해 최소 loss를 가지는 W를 찾을 수 있지만, 복잡한 모델에서는 어떠한 수학적 공식을 통해 최적의 W를 찾는 것은 매우 쉽지 않은 일이다. 따라서 명시적인 수학적 공식을 통한 방법이 아닌 최소 loss를 가지는 이상적인 W에 맞게 조정해 나가는 방식을 사용하자! 먼저 첫번..

EECS 498-007 2024.01.11

[EECS 498-007] Lecture 03강 Linear Classifier

오늘은 두번째 시간 ... 3강! 리니어 클래시피어 이당 많이 많이 엄청 엄청 자주 자주 들어봤지만 자신만만하게 강의를 켰지만 항상.. 그 때마다 배워가는 건 참 많당.. 겸손해야함 흐히 아침부터 작성하려니 졸림 max얌 그치만 화이팅 해부께 Linear classifier는 선형으로 어떤 무언가를 분류해주는 알고리즘이다. 신경망 모델의 개별 요소가 linear classifier와 유사하다고 한다. 머신러닝을 공부하다 보면 자주 들어봤을 parametric approach 개념이 등장한다. Parametirc Approach None Parametric Approach parameter 값만 저장하는 방식 모든 데이터를 저장 ex) linear classifier ex) knn 그리고 앞서 2강에서 소..

EECS 498-007 2024.01.08

Hash Algorithm - 이론

첫 알고리즘은 해쉬당 옛날부터 해쉬하면 해쉬브라운만 생각 나.. 감자 처돌이인 나에게 해쉬브라운은 그저 빛.. 해쉬브라운 말고, Hash란! key - value를 쌍으로 데이터를 저장하는 자료구조이다. 연산의 시간복잡도가 O(1)로, 매우 빠르게 값을 찾아낼 수 있다. 해쉬에는 크게 hash(해쉬), hash function(해쉬함수), hashing(해싱), hash table(해쉬 테이블), hash map(해쉬 맵) 5가지로 나뉜다. Hash (해쉬) 해쉬는 검색과 저장을 빠르게 하는 자료구조이다, 데이터를 저장할 때 key - value를 쌍으로 데이터를 저장하며 key값이 배열의 인덱스로 저장되기에 검색과 저장이 빠른 것이다. 전화번호부와 같다! Hash function(해쉬 함수) & has..

알고리즘 2024.01.07