Research/Science & Mathmatics23 T-Test에 대한 이해 scikit learn에는 두가지 종류의 t-test가 구현되어 있다. 하나는 ttest_ind이고, 다른하나는 ttest_rel이다. 전자는 두 종류의 sample들이 완전히 독립적으로 추출되었을 때를 가정하고, 후자의 경우 그 반대를 의미한다. T-test의 구체적인 계산 과정은 아래와 같다. https://diseny.tistory.com/entry/t-test-%EB%B0%91%EB%B0%94%EB%8B%A5%EB%B6%80%ED%84%B0-%EC%9D%B4%ED%95%B4%ED%95%98%EA%B8%B0 즉, 각 분포에서 뽑은 sample들의 차이들의 평균을 구해서 빼주고, 그리고 분모에 해당하는 모집단의 분산은 직접 구할수가 없기 때문에, 각 sample들의 분산을 구한다음 합쳐서 사용하는 방.. 2024. 2. 2. 확률 통계에서 분포에 대해 말하는 모드(Mode)란 https://dawoum.ddns.net/wiki/Mode_(statistics) 2023. 8. 21. CCA(Canonical Correlation Analysis) https://en.wikipedia.org/wiki/Canonical_correlation 두개의 vector를 각각 Linear Projection한다음 최대의 유사해지도록 가지도록 학습한 상태에서 corrleation을 구한것 SVCCA : SVD와 CCA를 결합 https://arxiv.org/abs/1706.05806 2023. 3. 21. 소리에 대한 사람의 인지적인 특성 Mel scalemel scale의 핵심은 사람이 멜로디를 인지하는 방식대로, hz에 대해 log scale을 취하겠다는 것이다. 데시벨소리의 크기인 amplitude를 log scale로 처리해주는 것. 이는 사람이 자극의 크기(소리의 크기)를 log scale로 인지하는 [베버-페히너의 법칙](https://ko.wikipedia.org/wiki/%EB%B2%A0%EB%B2%84-%ED%8E%98%ED%9E%88%EB%84%88%EC%9D%98_%EB%B2%95%EC%B9%99)에서 기초한다. https://m.blog.naver.com/PostView.nhn?blogId=msnayana&logNo=80100281096&proxyReferer=https:%2F%2Fwww.google.com%2F ht.. 2021. 1. 7. 레이더와 라이다 - 레이더(Radar): 전자기파를 방출하고 돌아오는 시그널을 통해 주변의 물체를 파악 - 라이다(Lidar): 레이저를 방출하고 돌아오는 시그널을 통해 주변의 물체를 파악레이저는 직진하도록 가지런히 모은 전자기파를 의미하며, 따라서 라이다는 레이더에 비해 더 고해상도이다. http://blog.naver.com/e_mobis/221979032096 2020. 7. 21. 신경과학의 원리 1 수업 - Chapter 1. The Brain and Behavior Principles of Neural Science 5th Edition : Chapter 1. The Brain and Behavior - 현대의 신경과학은 뇌-마음-행동을 하나의 신경과학적인 방법으로 모두 설명하고자 하는 학문이다.- 신경과학은 여러 뉴런들이 복잡하게 연결되어 있음으로 구성된 것을 밝힌 것이 중요한 시작이었다. 이는 골지가 개발한 silver salt 방법을 이용해 최초로 neuron doctrine(각각의 개별 뉴런들이 모여 전체 신경계를 구성한다)을 알게 되었고, 추후 electron microscopy 방법을 통해 synapse를 관찰함으로 확실해졌다.- 현대의 신경과학에서 가장 중요한 발견은 먼저 뇌의 각 영역마다 특수한 기능을 수행한다는 발견이다. 초창기에는 Gall이 주장한.. 2016. 9. 19. 신경과학의 원리 1 수업 - Chapter 5. Ion Channels Principles of Neural Science 5th Edition- 세포막을 투과하는 성질 1) 크기가 작을 수록 세포막을 잘 투과한다. 2) 전하를 띌 수록 세포막을 투과하지 못한다. 이온의 경우 이 2번 성질 때문에 세포막을 투과할 수 없다. 이온은 세포의 활동에 필수적인 물질이므로 반드시 세포막을 통과해야 한다. 그래서 이온 채널이 필요하다. - Ion Channel의 특징 1) 이온 채널은 이온을 선택적으로 투과시킨다.(이온에 대한 selectivity가 있다.) -> 필요한 이온을 상황에 따라 골라서 받아들이거나 내보내는 것이다.2) 이온 채널은 멤브레인에 integral한 단백질이다. -> membrain에 박혀 있는 굴뚝 내지는 창문으로 생각할 수 있다.3) 이온채널을 열고 닫는 ga.. 2015. 4. 16. 신경과학의 원리 1 수업 - Chapter 4. The Cells of the Nervous System Principles of Neural Science 5th Edition : Chapter 4. The Cells of the Nervous System - Glial cell(신경교세포)는 뉴런과 달리 신경 전달 기능을 갖고 있지는 않지만, 신경세포를 지지하고 중추신경계의 대사 기능에 관여하는 세포. 준 신경세포 같은 느낌? 뉴런과 glia는 비슷한 특징이 많음. 다만 뉴런은 다른 뉴런에게 빠르고 정확하게 정보를 전달하는 것이 가능함. 이는 2가지 특징에 의해 이루어짐. 1) morphological and functional asymmetry : 형태와 기능이 비대칭적으로, 뉴런은 receptive dendrite가 한쪽 끝에 있고, 다른 한쪽에는 axon이 있음. 2) electrically and.. 2015. 4. 16. 3대 작도 문제 부피가 2배인 정육면체 작도하기임의 각도를 3등분하기정사각형과 넓이가 같은 원 그리기. 작도는 4칙연산과 루트를 사용하는 연산들이라고 한다. 그런데 위의 3가지 문제는 이 5가지 연산 이외의 것이 추가로 필요하므로 작도가 불가능하다고 한다. http://cafe.naver.com/geochips/5015 2015. 4. 2. 뇌과학 - Place cell 다음과 같은 격자 형식의 뇌 세포들이, 위치 구조를 코딩하고 있다. 2015. 3. 3. 표본평균의 평균과 분산 / 모평균 추정에 대한 비판 표본평균의 평균 표본평균이 모평균과 같은게 아니라, 표본평균의 평균이 모평균과 같다. 가장 크게 착각하는 점이 모집단에서 임의로 N개의 샘플을 뽑은 단 1개의 표본집단의 평균은 절대 모평균과 같지 않다. 고등학교 확률에서 말하는 개념은, 이러한 N개 샘플을 뽑은 표본집단이 충분히 큰 수인 M개가 있을 때, 각각의 표본집단을 평균내서 만든 표본평균들의 평균이 모평균과 같아진다는 말이다. 이 경우 표본평균들의 분산이 모집단의 분산보다 작은 이유는 쉽게 납득 가능하다. 당연히 표본평균들은 이미 1차적으로 표본집단에 대해서 평균이 취해지는 과정에서 분산이 상당히 사라지기 때문이다. 즉, 이 표본평균이라는 확률변수는 아래와 같은 분포를 따른다. 즉, 이 "표본평균"이라는 녀석은 표본집단을 평균 냈을 때의 변수이고.. 2014. 8. 14. 확률 법칙, The Rules of Probability. sum rule과 product rule은 연속확률 변수에대해서도 똑같이 사용 가능하다.(시그마 대신 적분을 사용) 위의 두 공식으로부터 유도되는, 또 다른 아주 자주 쓰이는 공식 (sum rule에 product rule을 대입하면 유도됨.) Conditional Probability , P(A|B)에서 자주 헷갈리는 모든 경우를 더해서 1이되는 개념.앞에있는 확률 변수 A가 실제로 계산되어지는 확률변수이다. given B는 그냥 단순히 조건일 뿐, P(A|B)는 A에대한 확률이다.따라서 더해서 1이 되는 것은 given이 같을때, 앞의 확률변수의 모든 경우를 더했을 때 1이 되는 것이다. (모든 given을 더해서 1이 되는 것으로 종종 헷갈림) 2014. 8. 11. Jacobian Matrix, Fisher Matrix, Hessian Matrix, Jacobian Matrixoutput이 1차원 실수인 함수를 n차원 벡터로 미분하면 자코비안(1*n)행렬이 된다.output이 1차원 실수인 함수를 n차원 벡터로 2번 미분하면 헤시안(n*n)행렬이 나온다. (이는 자코비안을 한 다시 n짜리 벡터로 미분한 것과 같다.) (행렬을 벡터가 아닌 스칼라로 미분할 때는 그냥 하나의 변수에 대해 미분하면 된다.) 여기서 맨 오른쪽의 matrix는 함수 f의 output이 1차원 실수일 때는 무시해도 된다.(맨 윗줄만 존재하는 것임.) Jacobian Matrix : 어떤 행렬을 벡터 각각의 변수들로 차례차례 바꿔가면서 한 번 씩 미분한 행렬이다.어떤 행렬의 성분에 대해 첫 번째 줄은 첫 번 째 성분에 대해 모든 변수들로 차례차례 한 번 씩 번갈아가면서 미분. 두.. 2014. 8. 6. [NeuroScience] New born neurons 사이언티픽 아메리칸에 올라온 글.간단히 요약하면, 뉴런은 성인이 되어서도 계속해서 새로 생겨나며, 이 새로 생겨난 뉴런은 기존의 뉴런들에대해 억제 시그널을 생성해 새로운 환경에대한 패턴 인식을 더 잘하게끔 도와준다.관련해서 불안 장애 또한 새로운 환경과 위험한 환경을 잘 구분하지 못해서 생기는 것이며, 이것을 새로 태어난 뉴런들이 죽지않게끔 유도해 해결할 수 있을 것이라고 제안한다. 2014. 7. 22. 큰 수의 법칙, 중심 극한의 정리 # 큰 수의 법칙 : 표본집단들의 평균과 분산에 대한 법칙 어떤 모집단에서 표본집단들을 추출할 때, 각 표본집단의 크기가 커지면 그 표본집단들의 평균은 모집단의 평균과 같아지고, 표본집단들의 분산은 0에 가까워 진다. http://dermabae.tistory.com/146http://blog.daum.net/gongdjn/114 # 중심극한의 정리(Central limit theorem) : 표본집단들의 평균이 갖는 분포에 대한 법칙 그 어떠한 모양의 임의의 분포에서 추출한 표본집단들의 평균(표본평균)의 분포는 정규분포를 이룬다. (심지어 모집단이 정규분포를 따르지 않더라도. 단 각각의 표본의 크기가 적당히 커야한다. 30이상) http://blog.naver.com/PostView.nhn?blogId.. 2014. 6. 11. 벡터의 내적과 외적 벡터의 내적 :해석-> B벡터를 A벡터로 정사영한다음 두 길이를 곱한다. 두백터의 같은 방향으로의 길이 곱을 구한 느낌. 벡터의 외적 :해석-> B벡터의 A벡터로의 sin값, 즉 A백터에 수직한 B성분의 길이로 곱한다. 두벡터의 서로 수직인 방향으로의 길이 곱을 구한 느낌.(왠지 두 벡터로 넓이를 구하는 느낌이다)그로 인해 외적의 결과는 새로운 벡터가 나오며, 그것은 A와 B벡터에 모두 수직인 벡터이다. 따라서 어떤 순서로 곱하냐가 중요.A와 B벡터로 하나의 평면을 찾을 수 있고, 그 평면에 수직인것이 바로 A,B벡터의 외적이다.(따라서 방향이 2가지 존재) 2014. 6. 11. Indicator Function Ⅱ(x=1)이런 모양으로 생긴 수학기호는 인디케이터 펑션이라하며, ()괄호안의 조건이 참이면 1을 리턴하고, 아니면 0을 리턴한다. 2014. 6. 6. [신경 과학] 기초가되는 자료 다음 블로그에서 옛기억을 떠올리며 신경과학의 기초를 복습함.http://www.mind21.net/2.htm 뉴런은 세포분열을 하지않는다고 알려져있었으나, 최근에 성인에게서도 신경줄기세포가 발견되었다고함. 즉 계속 증가한다.한 뉴런은 3만개의 뉴런으로부터 정보를 받아 다른 1만개의 뉴런에게 전달한다고함.. 미쳤네; 규모가..뉴런은 수상돌기(dendrites)와 축삭돌기(axon)이 존재하며, 수상돌기는 다른뉴런으로부터 정보를 입력받는 인풋, 축삭돌기는 다른 뉴런에게 정보를 전달하는 아웃풋을 담당한다. 그리고 이 가운데에는 신경세포체가 있다.(몸통역할, 가운데 핵이 있음)이 뉴런과 뉴런의 사이를 Synapse라고하며, 고등생물은 화학적인, 신경 전달 물질을 사용해 신호를 전달(속도가 느리나 더 진화됬다고함.. 2014. 5. 2. [논문 요약] Affective computing with primary and secondary emotions in a virtual human 이 논문은 WASABI라는 감정 연구분야에서 아주 유명한 논문이다.저자가 와사비를 좋아하는가보다.간단히 소개하자면, 감정을 3차원으로 분류한다음 해당 감정을 가진 3D 캐릭터를 만든다. (Thespian과 유사한 방식) 그 캐릭터는 1차적 감정과 2차적 감정을 모두 인식할 수 있는 시스템을 갖추고 있다.1차적 감정은 태어날 때 부터 가지고 있는 본능적인 감정으로 여기서는 공포를 사용한다. (밤길을 혼자 걸을 때 그 공포)2차적 감정은 학습을 통해 생기는 고차원적인 감정으로 여기서는 예측된 공포를 사용한다. (예측된 공포란, 시험을 망치고나서 부모님에게 혼날 것을 걱정하는 그런 것) 그래서 결론은 해당 3D캐릭터와 유저가 스킵-보라는 카드 게임을 플레이하며 이때, 3D캐릭터의 얼굴에 나타나는 공포를 유저가.. 2014. 4. 28. [논문 요약] The World of Emotions Is Not Two-Dimensional 이 논문은 매우 심플한 논문이다.전체 논문중 무려 절반 가까이를 거대한 표가 차지한다.심지어 논문의 제목이 모든 내용이다. 연구진에서 여러 언어를 가진 대상에게 실험을 수행한 결과, 감정들은 최소 3개이상의 차원으로 표현이 되어야한다. 이것이 결론이다.실험 수행 방법이 조금 이해 안갈수도 있는데, 기억을 더듬어보면 144개의 감정이 담긴 행동을 정의하고, 24개의 표준 감정을 정한다.그다음 각각의 144개의 감정 행동을 24개 중 랜덤으로 추출한 4개의 감정으로 표현하는 것이다.(점수로)예를 들어 "배가 고픔"이라는 감정 행동에대해 슬픔, 기쁨, 화남, 역겨움 4개의 감정이 랜덤으로 추출 되었다면배가고픔 : 슬픔 6점 / 기쁨 0 점 / 화남 8점 / 역겨움 / 2점등으로 표현하는 것이다.그리고 이것을 .. 2014. 4. 28. 이전 1 2 다음