Invertible transformations (bijections)
- $f$가 $\mathbb{R}^n \to \mathbb{R}^n$인 전단사(bijection)라고 하자.
- 전단사는 단사(injective), 즉 one-to-one이고 전사(surjective)인 함수이다. 이것은 함수가 역이 잘 정의되었다는 것을 의미한다.
- $\bold{y} = f(\bold{x})$의 pdf를 계산하기 원한다고 가정하자. change of variables 공식은 다음을 말한다.
$$
p_y(\bold{y}) = p_x(f^{-1}(\bold{y}))|\det[\bold{J}_{f^{-1}}(\bold{y})]|
$$
- 여기서 $\bold{J}_{f^{-1}}(\bold{y})$는 $\bold{y}$에서 계산된 역행렬 $f^{-1}$의 야코비안이다. 그리고 $|\det \bold{J}|$는 $\bold{J}$의 determinant(행렬식)의 절대값이다. 즉
$$
\bold{J}_{f^{-1}}(\bold{y}) = \begin{pmatrix} {\partial x_1 \over \partial y_1} & \dots & {\partial x_1 \over \partial y_n} \\ & \vdots & \\ {\partial x_n \over \partial y_1} & \dots & {\partial x_n \over \partial y_n}\end{pmatrix}
$$
- 야코비안 행렬이 삼각이면 행렬식은 주 대각 항들의 곱으로 축소된다.
$$
\det(\bold{J}) = \prod_{i=1}^n {\partial x_i \over \partial y_i}
$$
Monte Carlo approximation
- 때때로 야코비안을 계산하는 것이 어려울 수 있다. 이 경우에 Monte Carlo 근사를 만들 수 있다. $S$개의 샘플 $\bold{x}^s \sim p(\bold{x})$를 뽑고 $\bold{y}^s = f(\bold{x}^s)$를 계산한 다음 경험적 pdf를 구성하면 된다.
$$
p_\mathcal{D}(\bold{y}) = {1\over S} \sum_{s=1}^S \delta(\bold{y} - \bold{y}^s)
$$
- 예컨대 $x \sim \mathcal{N}(6,1)$이고 $y = f(x)$이고 $f(x) = {1\over 1 + \exp(-x+5)}$라 하면 몬테 카를로를 사용하여 $p(y)$를 근사할 수 있다.
Probability integral transform
- $X$가 cdf $P_X$의 확률 변수라 하고 $Y(X) = P_X(X)$를 $X$의 변환이라고 하자. 이제 $Y$가 균등 분포를 가지면 결과는 probability integral transform(PIT)임을 볼 수 있다.
$$
\begin{aligned} P_Y(y) &= \text{Pr}(Y \ge y) = \text{Pr}(P_X(X) \le y) \\ &= \text{Pr}(X \le P_X^{-1}(y)) = P_X(P_X^{-1}(y)) = y \end{aligned}
$$
- 예컨대 아래 그림 왼쪽 열에서 pdf의 $p_X$의 다양한 분포를 볼 수 있다.
- 이것으로부터 샘플링하면 $x_n \sim p_x$를 얻는다. 다음으로 $y_n = P_X(x_n)$을 계산한 다음 값을 정렬하여 $Y = P_X(X)$의 경험적 cdf를 계산한다. 결과는 중간 열에 보인다. 이 분포가 균등임을 보일 수 있다.
- 또한 커널 밀도 추정을 사용하여 $Y$의 pdf를 근사할 수 있다. 이것은 오른쪽 열에 보인다. 그리고 이것이 (근사적으로) 편평함을 볼 수 있다.
- Kolmogorov-Smirnov test를 사용하여 샘플들의 집합이 주어진 분포에서 나왔는지 테스트하기 위해 PIT를 사용할 수 있다. 이것을 하기 위해 샘플들의 경험적 cdf와 분포의 이론적 cdf를 plot하고 이 두 커브 사이의 최대 거리를 계산한다. 아래 그림 참조.