Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Blog
- Visualization
- 리눅스
- 월간결산
- Google Analytics
- Python
- 독후감
- matplotlib
- 파이썬
- 서평
- 한빛미디어
- SQL
- 매틀랩
- Linux
- 한빛미디어서평단
- Pandas
- Tistory
- python visualization
- 시각화
- Ga
- 블로그
- 통계학
- 텐서플로
- 서평단
- tensorflow
- 티스토리
- 파이썬 시각화
- MySQL
- 딥러닝
- MATLAB
Archives
- Today
- Total
목록Entropy (1)
pbj0812의 코딩 일기
[통계학] 엔트로피(Entropy)
0. 엔트로피 1) 목적 달성을 위한 경우의 수를 정량적으로 표현한 수치 ex) - 엔트로피가 커짐 -> 불확실성이 커짐 -> 얻을 수 있는 정보가 불명확해짐 - 엔트로피가 작아짐 -> 불확실성이 작아짐 -> 얻을 수 있는 정보가 명확해짐 2) 수식 - Pi가 커지면(1에 수렴하면) -log2(Pi) 는 작아지기에(0에 수렴) 둘을 곱하면 0이 됨 import matplotlib.pyplot as plt a = 0 pi_list = [] log2pi_list = [] for i in range(20): a += 0.05 pi_list.append(a) log2pi_list.append(-log2(a)) plt.plot(pi_list, log2pi_list) plt.xlabel("pi") plt.ylabe..
Science/통계학
2020. 3. 8. 18:13