in

Comparación de modelos ordinales: menor desviación pero menor precisión, ¿es esto posible?

Realizo una regresión ordinal (6 categorías de respuesta) en un gran conjunto de datos (>15000 puntos) y comparo dos modelos, uno con un predictor X1 (Modelo 1) y el otro con dos predictores X1 y X2 (Modelo 2). Los modelos que encajo también son acumulativos sobre las categorías: como en, estoy viendo resultados siendo al menos en un cierto nivel – y la probabilidad de estar en el nivel 1 es siempre 1.

La prueba de razón de verosimilitud revela que el Modelo 2 proporciona un ajuste significativamente mejor a los datos en comparación con el Modelo 1.

Sin embargo, también estoy calculando las respectivas precisiones de los modelos, sumando el número de estimaciones correctas para cada categoría (nuevamente acumulativas) sobre el número total de resultados, y encuentro que las precisiones son más bajas para el Modelo 2 que para el Modelo 1.

A X2 le faltan valores, así que traté de ejecutar la regresión nuevamente en un subconjunto de los datos que tenían valores para todo X1 y X2, cuando hago esto, la precisión sigue siendo la misma.

Estoy muy desconcertado por estos resultados. ¿Cómo puede el modelo «mejor» tener una menor precisión? Revisé mi código cientos de veces en busca de problemas de programación sin éxito, así que ahora estoy empezando a preguntarme si podría haber otra posible razón para esto.

¿Los datos que faltan en un predictor afectan la precisión, sin afectar la desviación? ¿Hay algún problema con grandes conjuntos de datos cuando se trata de calcular estas medidas?

1 respuesta
1

La desviación está midiendo los errores en la escala ordinal. Si la verdad es una $2$ y predices $3$que no incurre en una sanción tan grande como lo haría una predicción de $4$.

¿Te ayudó la respuesta?

Subscribirse
Notificar por
guest
0 Comentarios
Inline Feedbacks
Ver todas las Respuestas

¿Cómo se pueden fusionar dos discos duros de 4TB?

Funciones hash con número constante de 1