모각코 9

[모각코 9주차] 인공지능플랫폼 - 데이터 분석 및 처리

1. AWS Learner Lab을 통해 EC2 서버를 구동시키고, SSH로 접근kmu-ai-platform-hw2로 하여 인스턴스 생성SSH로 접근하기 위해 저번 과제에서 생성해놓은 키 페어 선택하기아래 명령어를 통해 ssh 접근을 진행한다.ssh -i "kmu-ai-platform.pem" ubuntu@54.185.71.76성공적으로 인스턴스 생성 완료2. EC2 서버에 Jupyter Notebook 설치아래 명령어를 통해 가상환경을 생성하기 위한 python3.10-venv 를 설치해준다sudo apt update sudo apt install python3.10-venv설치가 완료된 후, 가상환경을 생성해준다.다음 아래 명령어를 통해 notebook 모듈을 설치해준다.pip install note..

모각코 2024.05.30

[모각코 8주차] 알고리즘 DFS, BFS

깊이 우선 탐색 (DFS, Depth-First Search)최대한 깊이 내려간 뒤, 더 이상 갈 곳이 없을 경우 옆으로 이동루트 노드(혹은 다른 임의의 노드)에서 시작해서 다음 분기(branch)로 넘어가기 전에해당 분기를 완벽하게 탐색하는 방식 1. 모든 노드를 방문하고자 하는 경우에 이 방법을 선택함2. 깊이 우선 탐색(DFS)이 너비 우선 탐색(BFS)보다좀 더 간단3. 검색 속도 자체는 너비 우선 탐색(BFS)에 비해서느림  너비 우선 탐색 (BFS, Breadth-First Search)최대한 넓게 이동한 다음, 더 이상 갈 수 없을 때 아래로 이동  루트 노드(혹은 다른 임의의 노드)에서 시작해서인접한 노드를 먼저탐색하는 방법으로,시작 정점으로부터 가까운 정점을 먼저 방문하고 멀리 떨어져 있..

모각코 2024.05.22

[모각코 7주차] 인공지능플랫폼 - 기계학습환경

문제 정하기현재 솔루션은 뭐지?목표 달성 여부를 어떻게 평가할래?만들어진 솔루션 어떻게 사용할래?유사한게 존재하나?활용 가능한가?데이터 수집 및 라벨링고려할 점.어떤 데이터를 얼마나 가지고 있어?데이터 접근에 권한이 있어?private상업용오픈 데이터데이터 접근 제어 및 모니터링 어케할그야?데이터 용량 크면 어떻게 한 곳에 수집할거야?데이터 관찰많은 데이터가 필요하단 말이야 그래서 feature와 target을 추출해야해feature: 모델 생성 시 관측 가능한 값 (X)target: 관측 가능한 값으로 부터 예측하고자 하는 상태 값(Y)데이터 저장추출 했으면 저장해야하그든데이터 크기와 목적에 맞는 데이터 저장소를 정해aws에서는 다음과 같은 저장소를 제공함S3 : 저장 용량 제한 없음FSx : HPC에..

모각코 2024.05.08

[모각코 6주차] 데이터베이스 SQL 고급

오랜만에 돌아온 모각코!백엔드 공부하면서(?) sql을 복습하고자 잠시 정리해보는 시간을 가졌다.  내장 함수상수나 속성 이름을 입력 값으로 받아 단일 값으로 결과 반환.모든 내장 함수는 최초에 선언될 때 유효한 입력 값을 받아야 함.숫자 함수ABS: 절댓값ROUND: 반올림고객별 평균 주문 금액을 백 원 단위로 반올림한 값SELECT custid "고객번호", ROUND(SUM(saleprice)/COUNT(*), -2) "평균금액" FROM Orders GROUP BY custid;문자함수REPLACE : 문자열 함수를 치환도서 제목에 야구가 포함된 도서를 농구로 변경한 후 도서 목록을 보여라SELECT bookid, REPLACE(bookname, '야구', '농구') bookname, publis..

모각코 2024.05.01

[모각코 5주차] inductive bias

돌아온 모각코 5주차 오늘의 주제는 inductive bias다. 논문을 읽다보면 자주(?) 보이는 친구인데 정확히 어떤 것을 의미하는지 파헤쳐보쟝 [Inductive bias] inductive bias는 기계 학습에서 모델이 데이터로부터 학습할 때 특정한 가정이나 선호를 가지는 경향을 의미한다. 이것은 모델이 어떤 가정이나 가중치를 선택하는 데 도움을 주는 일종의 가이드라인? 제약? 으로 작용하게 된다. 일반화의 오류에 대해서 생각해보자. 일반적으로 모델이 갖는 일반화의 오류는 불안정하다는 것과 겉으로만 그럴싸 해보이는 것으로 나뉜다. 모델이 주어진 데이터에 대해서 잘 일반화한 것인지, 혹은 주어진 데이터에만 잘 맞게 된 것인지 모르기때문에 발생하는 것이다. Models are brittle : 데이..

모각코 2024.04.03

[모각코 4주차] Style transfer

ㅎㅎ 스타일트랜스퍼 한이 맺혀서 이번주는 요녀석이다.. 절대 걸리면 안된다고 비니까 딱 걸려버린 문제.. 그래서 공부하기.. 소잃고 외양간 고치는 중 style transfer는 한 이미지에 다른 이미지의 스타일을 적용해서 새로운 이미지를 생성하는 방식을 말한다. 여러가지 방식 중 .. 내가 받은 질문인 사전 학습된 모델을 가져와 content이미지와 style 이미지를 입력으로 넣어서 이미지를 학습하는 방법에 대해 공부해보자! 모델 아키텍처는 다음과 같다. input으로는 content image와 style image 2개가 들아가게 된다. content image : 네트워크에게 우리의 최종 이미지가 "어떻게 생겼으면 좋겠어!" 를 알려줌 style image : 최종 이미지의 "텍스처나 색이 어땠..

모각코 2024.03.27

[모각코 3주차] Convolution Neural Network

모각코 좋다 마라탕 먹고 공부하려니 졸령 그치만 해야지! CNN 복습할게유 지난 강의에서 문제점을 제기하며 마무리가 되었다. 지금까지 공간적 구조가 있던 이미지를 flatten하여 하나의 열벡터로 만들어 처리를 했다. 하지만 이 과정에서 spatial structure가 사라지게 되는 문제점이 있었다. 이번 포스팅에선! 공간적 구조를 처리할 수 있는 Convolutional Networks가 핵심이랍니다. Convoulutional Network는 기존에 우리가 알던 위의 2개 fully-connected layers와 activation function에 아래 3개, convolution layers, pooling layers, normalization을 포함하고 있는 Network라고 할 수 있다...

모각코 2024.03.21

[모각코 2주차] self-supervised learning

오늘은 셀프슈퍼바이즈드 러닝! 에 대해 정리할 것이다. 간단하고 짧게 요약본 느낌! Self-Supervised learning unsupervised learning 이라고도 볼 수 있지만, label 없이 input 내에서 target으로 쓰일만 한 것을 정하여! 즉 self로 task를 정해서 supervision 방식으로 모델을 학습한다. pretext task는 SSL에서의 task를 말한다. 하지만! 우리의 목적은 downstream task를 잘 푸는 것이 목적이다. contrasitve learning batch내의 data sample들 사이의 관계를 예측하는 task이고, negative smple을 가지며 positive pair끼리는 같게, negative pair끼리는 다르게 구분..

모각코 2024.03.13

[모각코 1주차] VAE를 공부하면서!

이번은 모각코 1주차 포스팅! 요즘 공부하고 있는 생성모델 중, 그 중에서도 VAE에서 궁금했던 점과 짚고 넘어가야 하는 점들에 대해서 정리해 보았당! Reparameterization Trick 이 트릭은 주로 sampling 연산을 미분할 수 없어서 backprop을 사용하지 못하는 문제를 해결하기 위해 사용된다. 즉 sampling 과정을 바로 미분할 수 없으니! samplig 연산 과정의 parameter를 바꾸어서 미분이 가능하도록 변환하는 기법이다. 입실론을 N(0, 1)에서 샘플링해서 std에 곱해주고 mean과는 더해주는 방식으로 샘플링을 직접 하는 것을 막는 것이다. 이것을 사용하지 않는다면 출력된 mean과 std에 대한 가우시안 분포에서 직접! sampling을 해야하는데, 그렇게 되..

모각코 2024.03.06