Matriz de confusión Definición / explicación

Una matriz de confusión es una tabla que se utiliza para evaluar el rendimiento de un modelo de aprendizaje automático. La tabla se compone de cuatro filas y cuatro columnas, donde cada fila representa la clase predicha y cada columna representa la clase real. La tabla se lee de la siguiente manera: la celda superior izquierda representa el número de verdaderos positivos, la celda superior derecha representa el número de falsos positivos, la celda inferior izquierda representa el número de falsos negativos y la celda inferior derecha representa el número de verdaderos negativos.
La precisión de un modelo puede calcularse tomando la suma de los verdaderos positivos y los verdaderos negativos y dividiéndola por el número total de predicciones. La precisión de un modelo puede calcularse tomando los verdaderos positivos y dividiéndolos por la suma de los verdaderos positivos y los falsos positivos. La recuperación de un modelo puede calcularse tomando los verdaderos positivos y dividiéndolos por la suma de los verdaderos positivos y los falsos negativos.
La matriz de confusión puede utilizarse para calcular otras métricas, como la puntuación F1, que es la media armónica de la precisión y la recuperación. La puntuación F1 puede interpretarse como la capacidad del modelo para clasificar correctamente los ejemplos positivos y negativos.
La matriz de confusión puede utilizarse para evaluar el rendimiento de un modelo de aprendizaje automático y determinar qué clases se clasifican correctamente y cuáles no. Es una herramienta valiosa para depurar los modelos de aprendizaje automático y para entender cómo están haciendo las predicciones.

¿Qué es la matriz de confusión en python?

La matriz de confusión es una tabla que se utiliza a menudo para describir el rendimiento de un modelo de clasificación (o "clasificador") en un conjunto de datos de prueba para los que se conocen los valores verdaderos.
Es una tabla con cuatro columnas y dos filas. Las columnas representan la clase predicha y las filas la clase real. La primera fila de la tabla representa la clase de ejemplos realmente positivos y la segunda fila representa la clase de ejemplos realmente negativos.
Por ejemplo, consideremos un clasificador binario que predice si un correo electrónico es spam o no. La matriz de confusión para este clasificador podría tener el siguiente aspecto:
En este ejemplo, el clasificador ha predicho correctamente la clase de algunos correos electrónicos como spam (verdaderos positivos), pero también ha predicho incorrectamente la clase de otros correos electrónicos como spam (falsos positivos). También ha predicho correctamente la clase de algunos correos electrónicos como no spam (verdaderos negativos), pero también ha predicho incorrectamente la clase de otros correos electrónicos como no spam (falsos negativos).
La matriz de confusión puede utilizarse para calcular una serie de parámetros diferentes, como la exactitud, la precisión, la recuperación y la especificidad.

¿Cómo se evalúa una matriz de confusión?

Una matriz de confusión es una tabla que se utiliza para evaluar el rendimiento de un modelo de aprendizaje automático. La tabla se compone de cuatro columnas:

- Verdaderos positivos (TP): Son los casos en los que el modelo predijo la etiqueta correcta y ésta fue positiva.
- Verdaderos negativos (TN): Son los casos en los que el modelo predijo la etiqueta correcta y ésta fue negativa.
Falsos positivos (FP): Son los casos en los que el modelo predijo una etiqueta positiva pero la etiqueta correcta fue negativa.
Falsos negativos (FN): Son los casos en los que el modelo predijo una etiqueta negativa pero la correcta fue positiva.
Las filas de la tabla representan las etiquetas reales y las columnas representan las etiquetas predichas.
Para evaluar el rendimiento de un modelo de aprendizaje automático, debemos observar los valores de las celdas TP, TN, FP y FN.
Si el modelo predice correctamente, veremos valores altos en las celdas TP y TN y valores bajos en las celdas FP y FN.
Si el modelo no predice correctamente, veremos valores altos en las celdas FP y FN y valores bajos en las celdas TP y TN.
Hay una serie de métricas que se pueden utilizar para evaluar el rendimiento de un modelo de aprendizaje automático, pero uno de los más populares es la precisión.
La precisión es simplemente el número de predicciones correctas dividido por el número total de predicciones.

TP + TN
---------
TP + TN + FP + FN
Otras métricas populares son la precisión y la recuperación.
La precisión es el número de predicciones positivas correctas dividido por el número total de predicciones positivas.

TP
---------
TP + FP

La recuperación es el número de predicciones positivas correctas dividido por el número total de casos positivos reales.

TP
---------
TP + FN

La puntuación F1 es una métrica que combina la precisión y la recuperación.

2

Deja un comentario