Diferenças entre edições de "Inferência bayesiana"

289 bytes adicionados ,  07h50min de 20 de março de 2018
→‎Regressão linear (caso específico da IB): diferenciada refressao linear da minimizacao da distância quadratica
(→‎Regressão linear (caso específico da IB): diferenciada refressao linear da minimizacao da distância quadratica)
veja a [[#IB, CN e IC|nota sobre IC]].
 
=== RegressãoMínimos quadrados e regressão linear (casocasos específicoespecíficos da IB) ===
Considere evidências IID e nenhuma pista sobre qual hipótese é a mais provável (i.e. <math>p(h)</math> constante).
Segue diretamente da Equação () que:
Note que <math>h'</math> pode ser <math>h'=\{h_i\}</math>, e.g. <math>h_i = 5i + (h'').i^2 - 2^{-i}</math>
e escolhido <math>h_a = argmax p(h'' | e)</math>,
caso em que será realizadarealizado umao [[regressão linear]] ([[método dos mínimos quadrados]]) sob <math>h_i</math>.
Se <math>h_i = a.i + b</math> a IB realiza uma [[regressão linear]], contexto
em que a hipótese expressa a [[crença]] de que os a maioria da informação importa pouco.
 
Em resumo, a MLE pode ser considerada uma generalização do [[gradiente]],
e realiza a regressão[[minimização]] linearda [[distância euclidiana]] se assumida relação gaussiana das hipóteses com relação aos dados.
Se há dados, e assumida a [[hipótese de normalidade]],
a média resulta da minimização da distância quadrática (erro quadrático).
Este resultado dá suporte teórico ao uso da regressão[[minimização linear,da [[backpropagationdistância quadrática]] em perceptrons.,
[[regressão linear]], [[backpropagation]] em [[perceptron]]s (veja [[redes neurais artificiais]]).
e para o [[gradiente descendente]]:
a minimização do erro quadrátido (em geral) implica em supor
591

edições