티스토리 뷰

1D1P

Entropy | Cross-Entropy

eunhhyy 2024. 11. 25. 19:57

Entropy

정보를 표현하는데 있어서 필요한 최소 (평균) 자원량 (→ 0 또는 1의 길이!)

최소 자원량 ? 엄청 효율적으로 표현되어야함! 자주 사용되는 것은 자원 길이가 짧아야하고 거의 사용되지 않는 것은 길이가 길어야함!

이를 그래프로 표현하면 -log그래프가 되는 것!

 

 $\sum_{i}^{}{P}_{i}*(-{log_{2}}^{P{i}})$

 

기댓값이 최소 길이가 되어야하는것!

기댓값은 특정 확률 분포에서 평균적으로 기대할 수 있는 값! (모든 가능한 결과 값과 그 확률의 곱)

 

그럼 최소자원량이 최대가 될 때는? 확률이 Uniform할 때! (최악의 상황)

 

 

Cross-Entropy

두 확률 분포 사이의 차이를 측정하는 방법 

$\sum_{i}P_{i}*{log_{2}}^{q_{i}}$

q_i는? 내가 생각한 "확률 분포" → 실제 확률과 내가 생각한 확률 분포의 차이가 어느정도인지를 측정하는 것!

 

KL-Divergence

: Cross Entropy - Entropy (이렇게 빼야 양수가 됨! 왜냐면 Entropy는 가장 효율적인 값이니까!)

 

 

Mutual Information

$\sum\sum p(x,y)log\frac{p(x,y)}{p(x)p(y)}$

 

p(x,y) 실제로는 독립이 아니지만 독립이라면 p(x)p(y) 이게 성립됨.

 

→ 원래는 p(x,y)이건데, 독립이라고 생각한다면 $log\frac{p(x,y)}{p(x)p(y)$

 

독립이 아닐 때와 독립일 때의 차이?

 

+ $p(x_{i}|y_{i}) = p(x_{i})$ *독립*

→ y가 주어졌지만? x만 있어도 되는 경우!

 

$\frac{p(x_{i},y_{i})}{ p(y_{i}) }  = p(x_{i}) $ 

$p(x_{i},y_{i})= p(x_{i})p(y_{i})$

'1D1P' 카테고리의 다른 글

Lasso (L1) Regularization | Ridge (L2) Regularization  (2) 2024.11.19
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2024/12   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31
글 보관함