Statistics (3) 썸네일형 리스트형 [Review] Domain-Adversarial Training of Neural Network Link : [1505.07818] Domain-Adversarial Training of Neural Networks (arxiv.org) Domain-Adversarial Training of Neural Networks We introduce a new representation learning approach for domain adaptation, in which data at training and test time come from similar but different distributions. Our approach is directly inspired by the theory on domain adaptation suggesting that, for effe arxiv.org Summa.. [Review] Self-Supervision Enhanced Feature Selection with Correlated Gates 문제정의 아래 2가지 이유로 model overfitting 발생할 수 있음. 이로인해 model이 suprious relations을 학습하여 예측성능 하락함. Data에 유사한 Feature가 존재 (exist Inter-correlation or multicollinearity on data) Labeled sample 부족 (absence of sufficient labeled samples) Method Self-supervision Enhanced Feature Selection (SEFS) propose Gate vector generation process Feature selection 하는 Gate vector 사용 Feature 간 correlation 관계가 반영된 multivari.. Data Transformation for Normality 대다수의 통계적 방법들은 특정한 가정을 전제한다. 그리고 그 가정이 성립할 때 잘 동작한다. 대표적 예시로는 관측한 data의 상관관계에 대한 가정 (독립적이거나, 특정한 covariance 형태를 가지거나) 혹은 data가 특정 형태의 분포를 가져야 한다는 것이다. 각각의 통계적 방법들은 적절한 가정 아래에서 이론적/실질적 당위성을 가진다. 따라서 우리는 분석하고자 하는 data를 자세히 살펴보면서, 사용하고 싶은 방법의 가정이 그 data에 적절한지 고민해야 한다. 수많은 "통계적 가정" 중에서, 실제 마주치는 data와 가장 거리가 먼 것은 무엇일까? 나는 data가 특정 분포를 가진다는 가정, 그 중에서도 Normal(Gaussian) distribution 에 대한 가정인 것 같다. 안타깝지만 .. 이전 1 다음