ML
·
머신러닝-딥러닝/Kaggle
1주차 머신러닝
·
머신러닝-딥러닝/Kaggle
9주차 review
·
머신러닝-딥러닝/Kaggle
1. 풀코드
(ch.1) Image Classification - GoogLENet
·
머신러닝-딥러닝/study
" 망이 넓고, 깊을 수록 성능이 좋다." 구글넷은 이 점을 지적했음 깊고 넓은 네트워크 정말 좋기만 해 ? 1. 학습 시키는데 오래걸린다. -> 연산량이 많고, 파라메터가 많다. -파라메터 수를 어떻게 하면 줄일 수 있을까? A : 1x1 conv, Tensor factorization 1x1 conv : 여러개의 입력 feature가 있을 때, 채널 방향으로 연산을 하여서 filter의 개수만큼 output이 생성되어서 width와 height는 변하지 않음에도 채널의 크기를 filter의 개수만큼 자유롭게 변화시킬 수 있다. 이를 통해 채널 수를 줄일 수 있다면 당연히 파라미터 수도 줄겠죠. Tensor factorization : 행렬을 분해해 다른 행렬로 factorization 하는 경우 -연..
(ch.4) 자연어처리 - 단어를 숫자로 표현
·
머신러닝-딥러닝/study
1. 컴퓨터가 보는 문자 컴퓨터는 보통 ASCII TABLE을 이용해 문자를 저장한다. 유니코드, UTF-8 encoding등으로 문자를 표현하고 저장한다 ( 한글은 유니코드 , UTF-8에 포함 ) ASCII는 8-bit으로 되어있어서 0~127까지 표현가능 2. 컴퓨터가 보는 단어 3. 4. 말뭉치 Corpus -특정 목적을 가진 언어의 표본, 분석의 용이성을 위해 형태소 분석이 포함되기도 한다. 언어학 연구에 쓰이는 확률/통계적인 자료이며, 딥러닝에도 유용하게 쓰인다 5. Word2Vec
GAN: Generative Adversarial Networks - 동빈나 유튜브 리뷰
·
머신러닝-딥러닝/논문리뷰
리뷰를 리뷰한다. www.youtube.com/watch?v=AVvlDmhHgC4&list=PLRx0vPvlEmdADpce8aoBhNnDaaHQN1Typ&index=9 1. 확률분포란? - 확률 변수가 특정한 값을 가질 확률을 나타내는 함수 ex) 주사위를 던졌을 때 나올 수 있는 수를 확률변수 X라고 합시다. 확률변수 X는 1,2,3,4,5,6의 값을 가질 수 있습니다 P(X=1)은 1/6 P(X=1)=P(X=2)=P(X=3)=P(X=4)=P(X=5)=P(X=6) 2. 이산 확률 분포 -확률변수 X의 개수를 정확히 셀 수 있을 때, 이산확률분포라고 말합니다. -주사위 눈금 X의 확률 분포는 다음과 같습니다. 3. 연속 확률 분포 -확률변수 X의 개수를 정확히 셀 수 없을 때 연속 확률 분포라 말합니다...
(ch.4) 자연어처리란? (Natural Language Processing)
·
머신러닝-딥러닝/study
1. 자연어란? - 일상 생활에서 쓰이는 언어를 자연어라고 한다. 일상적인 언어 표준어가 아닌 방언들도 자연어에 포함이 됨 2. 자연여처리 NLP (Natural Language Processing) : NLP는 자연어의 의미를 분석하여 컴퓨터가 처리하도록 하는 일을 한다 하루에 발생하는 빅데이터의 양이 수백테라바이트라고 이야기 한다. 그 빅데이터를 실제로 잘 다루기 위해서는 딥러닝 알고리즘만 좋은 알고리즘을 쓰고, 굉장히 발전된 아주 큰 딥러닝 모델을 사용한다고 해서 해결이 되지않고 빅데이터를 다루기 위해서는 컴퓨터 과학(Computer Science)적인 진보된 구현, 하드웨어를 어떻게 더 효율적으로 쓸 것이냐, 어떻게 네트워크 아키텍쳐를 잘 쓸것이냐, 어떻게 Parallel 아키텍쳐 (병렬 컴퓨터)..
(ch.1) Image Classification - ZFNet, NIN
·
머신러닝-딥러닝/study
ZFNet :Alexnet 변형해 특수한 기법사용 1. Visualization with a DeConvnet Conv를 반대로 수행하면서 featuremap이 잘 수행되는지 확인 일반적으로 Convoultion 같은 경우에는 Convoultion filter를 거쳐서, 거기서 생성되는 FeatureMap들이 비선형성을 가지는 Activation Function을 만나면서 pooling이되면서 학습을 하는 CNN구조를 갖고있음 그런데 이를 역으로 수행해 이구조들을 살펴보고 여기서 일어나는 Feature들을 살핌 *Unpooling : switches (pooling에 대해서 가장 강한자극이 있었던 위치들을 저장해놓고 그것을 unpooling할때 switches를 이용해 복구, 가장 강한 자극이 어떤 pi..
7주차 review
·
머신러닝-딥러닝/Kaggle
rl= onplateau 우리모델의 점수가 정체될 때, 러닝레이트의 변화 개선을 통해서 / 최적의 지점에 가까이 오게 되면 러닝레이트를 줄여야됨. 러닝메이트를 자동으로 줄여준다. 답을 정해줄 때, (확률 x 클래스 값으로 나올때 o) -data augmentation idg=ImageDataGenerator(horizon_flip=True) #vertical_filp=True, rotation_range=30, width_shift_range=0.1, height_shift_range=0.1) - *과제* Plant Seedlings Classification invasive data science bowl