본문 바로가기

Research109

Hilbert Space, Orthogonality, Fourier Transformation Hilbert Space : 일반적으로 우리가 사용하는 유클리디안 스페이스를 좀더 일반적인 영역까지 확장한 개념.우선 우리가 사용하는 힐버트 스페이스는 무한차원의 벡터 스페이스를 의미한다. 이 힐버트 스페이스에서 두 벡터의 내적은 두 함수의 곱셈에 대한 적분으로 정의된다. 힐버트 스페이스 상에서의 한 점(벡터)은 무한개의 원소를 갖고 있어 함수의 형태로 표현을 해야한다. 그렇기 때문에 두 벡터의 내적은 결국 두 함수의 곱셈에 대해 적분하여 모든 점들의 정보를 합한 것이 된다. * 전문가의 제대로된 설명 * Orthogonality : 직교성을 기하학적으로 이해하면 90도로 비틀어진 축이다. 그러나 이렇게 이해하면 무한 차원에서는 다소 헷갈릴 수 있다. 단순히 대수적으로 내적의 값이 0 이다라고 생각하면 .. 2015. 7. 8.
CNN, Spectrogram 을 CNN으로 학습 CNN(Convolutional Neural Network)model.add(Convolution2D(96, 1, 11, 11, subsample=(4, 4))) number_of_filter / stack_size / row / column size_of_filter / convolution_size(subsample)즉 96개의 피쳐를 추출하는, 11*11*3 사이즈의 filter를 만들것임. 이 filter는 (4,4)간격을 가지며 convolution함stack이란 : 일반 이미지는 (R,G,B)형태의 3차원 vector로 데이터가 구성되어 있음. 따라서 stack_size가 3이어야만 돌아감. 즉 r평면, g평면, b평면이 3층으로 쌓여 있는 3차원 매트릭스임.그래서 이 filter하나에는 11.. 2015. 4. 22.
Fourier Transform, Power Spectrum, Spectrum Fourier Transform (푸리에 변환) : 어떤 파동에 대한 주파수의 분포를 보는 방법. 원래 파동의 Y 축이 에너지이면 에너지-주파수 분포가 되고, 진폭이면 진폭-주파수 분포가된다. 즉 X 축은 시간에서 주파수로 되고, Y축은 원래 Y축값에 대한 주파수상의 분포를 의미한다. [시간-진폭]으로 된 time domain을 [주파수-분포]로 된 frequency domain으로 관점을 바꾸어 해석하는 방법 푸리에 변환은 푸리에 급수를 임의의 비주기적인 함수에도 적용할 수 있게 확장한 푸리에 적분(주기를 무한대로 보냄)을 의미한다. 직관적으로 이해하자면 임의의 함수를 여러개의 주기를 가진 코사인 N개의 합으로 표현한 것이 푸리에 변환이고, 이때 그 코사인의 주기와 계수들의 스펙트럼을 표현한 것이 fr.. 2015. 4. 22.
확률 통계 용어정의 0. 확률 분포에 대한 기본 용어probability density function (pdf): 연속 확률변수가 갖는 확률의 모양 probability mass function (pmf): 이산 확률변수가 확률의 모양 cumulative distribution function (cdf) : pdf 나 pmf 적분한 것 = 확률 probability distribution function (pdf) : 확률 분포에 대한 일반적인 텀. 즉, 위의 3가지 모든 확률 분포에 대해 다 쓸 수 있는 용어임. 즉 사용시 혼동의 여지가 있음. (보통 cdf 를 가르키는 말로 좀 더 자주 사용됨.) 1. Frequentist view VS Bayesian view of “probability”The biggest dif.. 2015. 4. 20.
BI CM세미나 동영상 Playlist https://www.youtube.com/playlist?list=PLzWH6Ydh35ggVGbBh48TNs635gv2nxkFI ----------Online Convex Optimization https://www.youtube.com/watch?v=BK_K1cYG3VU Multivariate Density Estimation by Bayesian Sequential Partitioning https://www.youtube.com/watch?v=HVY6QpPdN2w Dirichlet Process https://www.youtube.com/watch?v=O2NDm_XOnS0 Dynamic Cue Combination in Distributional Population Code Net.. 2015. 4. 20.
신경과학의 원리 1 수업 - Chapter 5. Ion Channels Principles of Neural Science 5th Edition- 세포막을 투과하는 성질 1) 크기가 작을 수록 세포막을 잘 투과한다. 2) 전하를 띌 수록 세포막을 투과하지 못한다. 이온의 경우 이 2번 성질 때문에 세포막을 투과할 수 없다. 이온은 세포의 활동에 필수적인 물질이므로 반드시 세포막을 통과해야 한다. 그래서 이온 채널이 필요하다. - Ion Channel의 특징 1) 이온 채널은 이온을 선택적으로 투과시킨다.(이온에 대한 selectivity가 있다.) -> 필요한 이온을 상황에 따라 골라서 받아들이거나 내보내는 것이다.2) 이온 채널은 멤브레인에 integral한 단백질이다. -> membrain에 박혀 있는 굴뚝 내지는 창문으로 생각할 수 있다.3) 이온채널을 열고 닫는 ga.. 2015. 4. 16.
신경과학의 원리 1 수업 - Chapter 4. The Cells of the Nervous System Principles of Neural Science 5th Edition : Chapter 4. The Cells of the Nervous System - Glial cell(신경교세포)는 뉴런과 달리 신경 전달 기능을 갖고 있지는 않지만, 신경세포를 지지하고 중추신경계의 대사 기능에 관여하는 세포. 준 신경세포 같은 느낌? 뉴런과 glia는 비슷한 특징이 많음. 다만 뉴런은 다른 뉴런에게 빠르고 정확하게 정보를 전달하는 것이 가능함. 이는 2가지 특징에 의해 이루어짐. 1) morphological and functional asymmetry : 형태와 기능이 비대칭적으로, 뉴런은 receptive dendrite가 한쪽 끝에 있고, 다른 한쪽에는 axon이 있음. 2) electrically and.. 2015. 4. 16.
TDNN, RNN, LSTM, ESN TDNN(Time Delay Neural Network) : 그냥 일반적인 MLP인데, input 데이터로 시간에 대해 (t, t-1, t-2) 인 데이터를 한 번에 넣는 방법. 시간을 고려한 모델이 아닌 데에 discrete 한 시간 데이터를 다룰 때 쓰는 가장 간단하고 대표적인 방법. Continuous 한 시간 데이터의 경우는 위 방법으로 할 수가 없다. 그래서 sliding windowing 방식으로 일정한 길이의 데이터를 일정 부분씩 겹치도록(보통 50%) 전처리 한 뒤 사용한다.(강제로 discrete하게 나누고, 대신 50%씩 겹치도록) 그러나 TDNN 방법은 한정된 데이터의 time sequence만 학습할 수 있기 때문에(예를 들면 t, t-1,t-2 면 third order) 시간데이터.. 2015. 4. 15.
기계학습 오픈 소스 정리 Deep Learning주로 위 사이트에서 오픈소스로 링크된 리스트중 실제로 직접 실행해본 소스를 정리한다.http://deeplearning.net/software_links/ CuDNN : Theano : ConvNet :Torch :Caffe : RNNLM : C++로 되어있음, 윈도우 환경에서 실행이 안되는 것으로 판단됨. 우분투에서 실행해야한다는 이야기를 들음. 코드는 약간 분석하기 힘들어 보이나, 전체적으로 간결한 편임. http://www.fit.vutbr.cz/~kombrink/personal/rnn-kaldi/ RNNLIB : RNN이 구현된 몇안되는 라이브러리. 마찬가지로 리눅스 기반으로 보이며 LSTM, Bidrectional LSTM, Multidimensional RNN 등등의 알.. 2015. 4. 13.
MCMC, Sampling 예제 C언어를 기준으로 샘플링을 이해해보자 float arbitraryFunction(float x){ return integral(x*10+10,0,x); }이런 임의의 함수가 있다고 하자. 우리는 return integral(x*10+10,0,x); 이 부분을 모르고 있으며 단지 함수를 호출할 수 만 있다. 이상황에서 이 함수가 어떤 분포를 갖는지를 알아내보자. uniformrandom=(rand()/RAND_MAX)*10000; //0~10000사이의 임의 실수 발생 float observed = arbitraryFunction(unformrandom);이런식으로 유니폼 랜덤으로 값을 뽑고 함수에 넣어, 관측되는 값들을 살펴보아서 임의의 함수를 알아내는 것이다 2015. 4. 5.
Support Vector Machine SVM(Support Vector Machine) : 서포트 벡터 머신은 클래시피케이션 문제를 푸는데 쓰이는 매우 강력하고 빠른 알고리즘이다.학계 뿐만이 아니라 산업계에서도 실제 문제를 푸는 데 사용되며 MLP의 느린속도를 보완하며 2006년 이전까지 기계학습의 주류 알고리즘이었다.매우 수학적으로 잘 정리되고 논리적이어서 전처리가 잘된 피쳐가 있을 경우 아직도 최고수준의 성능을 보장한다. 간단히 원리를 이해하면, 2종류의 데이터들이 맵핑되는 공간에서 두 그룹을 나누는 경계선을 찾는데, 이 경계선은 두 데이터와 직선의 거리가 가장 커지는 maximum margin을 찾도록 되어있다. 그런데 어떤 데이터는 전처리를 아무리 잘하여도 직선으로 나눌 수 없는 분포를 이루기도 하는데, 이를 나누기 위해서는 임의의 .. 2015. 4. 3.
3대 작도 문제 부피가 2배인 정육면체 작도하기임의 각도를 3등분하기정사각형과 넓이가 같은 원 그리기. 작도는 4칙연산과 루트를 사용하는 연산들이라고 한다. 그런데 위의 3가지 문제는 이 5가지 연산 이외의 것이 추가로 필요하므로 작도가 불가능하다고 한다. http://cafe.naver.com/geochips/5015 2015. 4. 2.
Projection Matrix, Eigenvector - 프로젝션 메트릭스프로젝션 매트릭스는 위와 같이 생긴 매트릭스를 말한다. (물론 트랜스포즈를 취하거나, 1이 1,1 항에 있어도 상관 없음)프로젝션 메트릭스의 정의는 AP=AP^2=AP^3 ... 을 모두 만족하는 것으로 아무리 곱해도 한번 곱한 것과 같아지는 행렬을 의미한다.즉 어떠한 공간상에 정사영되었기 때문에, 다시 정사영을 하여도 같은 것이다.간단히 생각해보면 a가 0일때의 프로젝션 매트릭스는 (2,2)의 성분만이 남아있는 직선위로 정사영 시킨 것이고, a가 1이라면 마찬가지로 어떠한 직선위에 정사영되어 행렬의 일부 성분만 남는 것을 의미한다.a가 2나 3등의 수 일 경우 각도가 직각이아닌 어떤 임의의 각도를 가진 직선으로 정사영시키는 것이라고 볼 수 있다. http://en.wikipedia... 2015. 4. 1.
Markov Random Field, MRF 인공지능 수업 필기. 마코프 랜덤필드란, 확률그래프 모델로써 맥시멈클릭에 대해 포텐셜펑션-확률테이블같은것 의 곱으로 전체 조인프 프로버블리티를 표현함. 로컬한 분포여러개로 전체분포를 표현한다. 클릭이란, 풀리커넥티드된 그룹을 의미함. 맥시멈클릭은 중복이 없는 최대크기의 그룹을 의미 확률그래프 모델-다이렉티드 그래프:베이지안 네트워크-언다이렉티드 그래프:마코프 랜덤필드 응용예시노이즈가 생긴 이미지에서 원본 이미지를 복원해내는 일이 역시 베이지안 쎄오렘-포스테리어공식으로 표현할 수 있다.y가 트루이미지, x가 관찰이미지p(y|x)=p(x|y)*p(y)/p(x) 위식에서 풀베이지안은 베이지안식에서 노멀라이즈 텀인 p(x) , 에비던스 확률분포를 고려한것. 세상읳모든데이터의 확률분포를 구해야함. p(x)를 안구.. 2015. 3. 26.
머신러닝의 응용사례 베이지안네트워크 : 인과 관계의 추론, 이런 일이 얼마나 가능할법한 일인가를 추정해봄. ex) 신용카드 사용시 도난여부 판단 마르코프 랜덤 필드 : 변수간의 조건부독립을 도입, 주변의 변수로부터 값을 추론 ex) 이미지 프로세싱 베이지안 어프로치 : 사전지식을 이용한 확률초기값과 데이터관측 후의 확률을 모두 고려 ex) 의사가 폐렴환자를 진단함. 진찰하기전에 이러한 시기에는 몇프로의 폐렴이 있더라 - 프라이어확률 / 환자를 직접관찰했더니 피를 토하더라 - 라이클리 후드 2015. 3. 24.
Unbiased Estimation, Biased Estimation # 불편 추정치(unbiased estimation) : 모집단(population)의 통계값을 정확하게 측정할 수 있는 방법. - 설문조사를 통해 모집단 평균 구하기 : n개의 샘플 그룹을 만들고 각 샘플 그룹에서의 평균의 평균을 내면 모집단의 평균을 정확하게 예측 가능함이 증명되었다. 그러므로 이는 unbiased estimation에 속한다. # 편의 추정치(biased estimation) : 모집단(population)의 통계값을 정확하게 측정할 수 없는 방법. - 설문조사를 통해 모집단 분산 구하기 : 모집단의 분산은 표본들의 분산과 항상 같지 않으므로(n-1배만큼 작음)이는 biased estimation이다.-> n개의 샘플 그룹을 만들고 각 샘플 그룹에서 분산을 내서 모으면 모집단의 분산.. 2015. 3. 23.
Kalman Filter HMM는 모든 변수가 discreteKalman filter는 모든 변수와 히든도 가우시안임. 똑같이 히든스테이트가 있고, 히든 스테이트 간의 transition이 있음 2015. 3. 11.
Bayesian Network 베이지안 네트워크 (Bayesian Network)베이지안 네트워크는 Naive Bayes 모델의 빈약한 인과관계 구조(1 depth)를 훨씬 복잡하게 표현할 수 있는 조건부 확률 기반의 Probabilistic Graphical Model(PGM) 이다. 베이지안 네트워크의 핵심은 다음과 같다. 1. 조건부 확률을 사용한 인과관계 모델링2. 인과관계 모델(=structure)은 사람이 만든다.3. 그 모델의 조건부 확률 값을 데이터로부터 학습한다. 예를 들어 어떠한 일련의 사건과 관련이 있다고 생각되는 Binary(True/False) variable이 5가지라고 생각해보자. 그런데 이 변수들이 서로 복잡한 구조의 인과성을 가질 수 있다. 아주 유명한 아래의 그림을 예시로 들 수 있다. 만약 단순히 5.. 2015. 3. 10.
뇌과학 - Place cell 다음과 같은 격자 형식의 뇌 세포들이, 위치 구조를 코딩하고 있다. 2015. 3. 3.
Ada boost 0.51의 정확도 (0.50 가 랜덤)를 가진 weak classifier를 여러개 합쳐 정확도 1 에 가까운 strong classifier 를 만들 수 있다. 각 weak classifier 마다 weight에 해당하는 계수가 있고, 각 classifier가 낸 error를 이 weight로 평균낸, 평균 error를 최소화하는 방향으로 학습을 함.그래서 특정 weak classifier가 틀리면 weight를 내리고, 맞으면 그대로 둠.이를 무한히 반복하면 점진적으로 acc가 같거나 좋아짐 2014. 12. 16.