Precisão e revocação: diferenças entre revisões

Conteúdo apagado Conteúdo adicionado
Mais algumas correções de tradução.
Linha 27:
Muitas vezes, há uma relação inversa entre o coeficiente de precisão e o coeficiente de revocação, onde é possível aumentar um à custa de reduzir o outro. Em neurocirugia, temos exemplos óbvios sobre essa relação. Considere um neurocirurgião encarregado de remover um tumor maligno do cérebro de um paciente. O cirurgião precisa remover todas as células tumorais, uma vez que quaisquer células cancerígenas remanescentes irão gerar novo tumor. Por outro lado, o cirurgião não deve remover as células saudáveis do cérebro, uma vez que deixará o paciente com comprometimento da função cerebral. O cirurgião pode ser mais liberal na área do cérebro que  remove para garantir que extraiu todas as células do câncer. Esta decisão aumenta a revocação, mas reduz a precisão. Por outro lado, o cirurgião pode ser mais conservador no cérebro, garantindo que extraiu apenas as células cancerosas. Esta decisão aumenta a precisão, mas reduz a revocação. Isto é, maior revocação aumenta as chances de remover as células saudáveis (resultado negativo) e aumenta as chances de remover todas as células de câncer (resultado positivo). Maior precisão diminui as chances de remover as células saudáveis (resultado positivo), mas também diminui as chances de remover todas as células de câncer (resultado negativo).
 
Geralmente, a precisão e a revocação não são discutidas isoladamente. Em vez disso, ou os valores de uma medida são comparados a um nível fixo na outra medida (p.ex. ''precisão em um nível de revocação da ordem de 0,75''), ou ambas são combinadas em uma única medida. Exemplos de medidas que são uma combinação de precisão e revocação são os [[F-measure]] (a [[Média harmônica|média harmónica]] ponderada de precisão e revocação), ou o [[Coeficiente de correlação de Mathews|coeficiente de correlação de Matthews]], que é uma [[média geométrica]] das variantes corrigidas para o acaso: os [[Regressão linear|coeficientes de regressão]] ''Informedness'' (DeltaP') e ''Markedness'' (DeltaP).<ref name="Powers2011"><cite class="citation journal">Powers, David M W (2011). </cite></ref><ref>{{Predefinição:Cite journal|first1=P.|last1=Perruchet|first2=R.|last2=Peereman|year=2004|title=The exploitation of distributional information in syllable processing|journal=J. Neurolinguistics|volume=17|pages=97–119|doi=10.1016/s0911-6044(03)00059-9}}</ref> a [[Acurácia]] é uma média aritmética ponderada entre precisão e precisão inversa (ponderada por viés), bem como uma média aritmética ponderada entre revocação e revocação inversa (ponderada por prevalência).<ref name="Powers2011"><cite class="citation journal">Powers, David M W (2011). </cite></ref> precisão inversaPrecisão e revocação inversas são simplesmente a precisão e a revocação do problema inverso, onde as etiquetas positivo e negativo são trocadas (tanto para classes reais quanto para etiquetas de previsão). A revocação e o inverso de revocação, ou equivalentemente taxa de verdadeiros positivos e taxa de falsos positivos, são frequentemente traçados uns em relação aos outros como curvas [[Característica de Operação do Receptor|COR]] e fornecem um mecanismo de princípios para explorar os intercâmbios de ponto de operação.
 
Fora do contexto de recuperação da informação, revocação, precisão e F-measure são tidos como  falhos na medida em que ignoram a verdadeira célula negativa da tabela de contingência, e eles são facilmente manipulados ao influenciar as previsões.<ref name="Powers2011"><cite class="citation journal">Powers, David M W (2011). </cite></ref> O primeiro problema é "resolvido" usando a acurácia e o segundo problema é "resolvido" descontando-se o componente de acaso e renormalizando para o [[coeficiente kappa de Cohen]], mas isso já não oferece a oportunidade de explorar os intercâmbios graficamente. No entanto, ''Informedness'' e ''Markedness'' são renormalizações de revocação e precisão do tipo kappa, e sua média geométrica do coeficiente de correlação de Matthews, portanto, atua como um F-measure sem viés.