목록논문읽기 (12)
On the journey of
- 로버트 노비 마르크스 교수는 일단 퀀트계의 권위자로 알려져 있으며, 해당 논문을 통해 퀀트 평가지표의 흐름을 바꿨다는 평가도 존재할 만큼 꽤나 지분 있는 논문이다. - 분량이 꽤 길다. Appendix, Index 등을 제외해도 50페이지가량 되기 때문에 조금 많은 수의 포스트로 나눠 쓸 예정 Abstract : 수익성이 있는 기업은 없는 기업에 비해 부실 가능성이 낮고 현금흐름 기간이 길고 영업 레버리지 수준이 낮음 그러나 이는 가치 프리미엄(Value premium)에 대한 일반적인 설명으로는 설명되지 않는 결과이다. 때문에 이 논문에서는 총수익성을 통제하면 수익과 관련된 대부분의 anomaly(이상) 현상과 , 관련 없어 보이는 다양한 수익성 거래 전략을 설명할 수 있음에 대해 말하고자 한다. ..
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/d2haXl/btssToeWnLN/bLMk4iqGzsIHp9qUBIqYYK/img.png)
Abstract neural network 트레이닝을 위한 data augmentation 기법들과 동시에 모델의 robustness 평가하기 위한 image transformation set를 제안한다. 주요 차이점은 Common corruption과 같은 기존 접근 방식과는 달리 scene의 기하학이 적용되어 보다 real world와 같은 변환을 만들어내며 semantic corruption들에 대해 소개한다. 이런 변환이, 효율적(실시간 계산)이고, 확장 가능(기존 데이터셋에 적용)하며, robustness를 향상 시킬 수 있음을 보여줌 1. Introduction Real world에 배치된 컴퓨터 비전 모델들은 그들의 training data에서 자연스럽게 발생된 분포로 옮기게 된다. 이러한 ..
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/XGiCk/btssgrXBMzK/lFHk9mqOn13MkDjMARmYz1/img.png)
Mutual Information for Inducing Latent Codes - 2 목표) 기존 GAN에서 Semantic 정보를 담당하는 Latent 벡터를 별도로 분류하여 Semantic 정보를 컨트롤할 수 있는 새로운 GAN 모델 개발 배경 일반적인 GAN은 하나의 Noise vector z로 가짜를 생성 ex) Mnist 숫자이미지 생성 가능, but 각도/굵기 등의 semantic 정보 컨트롤은 불가능 이러한 정보들이 학습 시 고려되지 않아 z에 복잡하게 얽혀져 있음 제안 InfoGAN은 위 문제를 해결하기 위해 두가지 Input vector를 사용: z&c z: 일반적인 GAN에서 사용하는 noise vector c: semantic 정보를 컨트롤 하기 위한 추가 벡터 P(c1,c2,.....
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/QS54v/btsshvLUP7E/NZqjaR2fsW31laohCvjL9k/img.png)
Original Paper) InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets arXiv link ) https://arxiv.org/pdf/1606.03657.pdf Abstract 💡 InfoGAN GAN + Information-theoretic(정보 이론) 정보 이론의 아이디어를 GAN에 붙여 확장시킨 모델 완전한 비지도 방식으로 **Disentanlged representations(분리된 표현)**을 학습할 수 있다. 이를 통해 InfoGAN은 아래와 같은 데이터에서 유의미한 특성을 분리해냈다. MNIST 데이터 세트의 숫자의 각도, 너비 3D 렌더링된 이미지에서의..