Dali van picasso

[Material : Link Note] Statistics (base) 본문

머신러닝 & 딥러닝

[Material : Link Note] Statistics (base)

L_zino 2019. 10. 10. 02:06

1. 깁스 샘플링 - 설명 및 구현 

https://ratsgo.github.io/statistics/2017/05/31/gibbs/

 

Gibbs Sampling · ratsgo's blog

이번 글에서는 깁스 샘플링(Gibbs Sampling)에 대해 간단히 살펴보도록 하겠습니다. 이번 글 역시 고려대 강필성 교수님 강의와 위키피디아, ‘밑바닥부터 시작하는 데이터과학(조엘 그루스 지음, 인사이트 펴냄)’, 그리고 이곳을 정리했음을 먼저 밝힙니다. 깁스 샘플링은 두 개 이상의 확률변수의 결합확률분포로부터 일련의 표본을 생성하는 확률적 알고리즘입니다. 결합확률분포나 그에 관련된 확률 계산을 근사하기 위해 널리 사용되고 있습니다. 깁스 샘플링은

ratsgo.github.io

2. 베이시안과 MLE, MAP (다크프로그래머)

https://darkpgmr.tistory.com/m/62

 

베이즈 정리, ML과 MAP, 그리고 영상처리

고등학교 수학에서 조건부 확률이라는 걸 배운다. 그런데 그게 나중에 가면 베이지안 확률이라는 이름으로 불리면서 사람을 엄청 햇갈리게 한다. 1. 베이즈 정리 베이즈 정리(Bayes's theorem) 또는 베이즈 룰(rul..

darkpgmr.tistory.com

https://darkpgmr.tistory.com/m/119

 

베이지언 확률(Bayesian Probability)

갑자기 블로그를 처음 시작했던 2013년 1월달이 생각납니다. 그 때는 처음 시작하는 마음이라 거의 하루에 한개씩 글을 올렸던 것 같습니다 ^^. 새해가 되어서 그런걸까요.. 그때만큼은 아니지만 요즘 비교적 자주..

darkpgmr.tistory.com

3. 머신러닝과 확률변수 그리고 MLE

http://bit.ly/368T9Lc

 

머신러닝에서의 확률 분포, 랜덤 변수 그리고 Maximum Likelihood

Computer Vision and Machine Learning Study Post 4 머신러닝에서의 확률 분포, 랜덤 변수 그리고 Maximum Likelihood Reference는 다음과 같습니다. 1. 우리는 왜 확률을 배우는가? 머신 러닝 정의는, 관측된 Data(=Training Sample)로부터 Model을 설계하는 것이다. 확률적 개념이 들어간다면, 관측된 Data는 진짜 Data가 아니라 진짜 Data로부터 Random하게 Sampli

taeoh-kim.github.io

 

 

 

 

Comments