¿Qué tiene de ingenuo Naive Bayes?¿Qué es "ingenuo" en un clasificador ingenuo de Bayes?
Respuesta
En realidad hay un muy buen ejemplo on Wikipedia:
En términos simples, un clasificador de Bayes ingenuo asume que la presencia (o ausencia) de una característica particular de una clase no está relacionada con la presencia (o ausencia) de cualquier otra característica, dada la variable de clase. Por ejemplo, una fruta puede considerarse una manzana si es roja, redonda y de aproximadamente 4 "de diámetro. Incluso si estas características dependen una de la otra o de la existencia de otras características, un clasificador ingenuo de Bayes considera que todas estas propiedades para contribuir de forma independiente a la probabilidad de que esta fruta es una manzana.
Básicamente, se trata de "ingenua" porque hace suposiciones que pueden o no llegar a ser correcta.
El artículo de la wikipedia lo explica correctamente, pero no estoy de acuerdo con que "haga suposiciones que pueden ser correctas o no". Con la cantidad correcta de datos de entrenamiento, hace un buen trabajo al filtrar los parámetros irrelevantes. La parte "ingenua" es que no considera la dependencia entre los parámetros ... y, por lo tanto, puede tener que mirar los datos redundantes. – Chip
Si los datos son compuesto por un vector de características X = {x1, x2, ... x10} y las etiquetas de su clase Y = {y1, y2, .. y5}. Por lo tanto, un clasificador de Bayes identifica la etiqueta de clase correcta como la que maximiza la siguiente fórmula:
P (y/x) = P (X/Y) * P (y) = P (x1, x2, ... x10/a) * P (y)
Así que para, sigue siendo no ingenuo Sin embargo, es difícil calcular P (x1, x2, ... x10/Y), por lo que suponemos que las características son independientes, esto es lo que llamamos el supuesto ingenuo, por lo tanto, terminamos con la siguiente fórmula en su lugar
P (y/x) = P (x 1/a) * P (x2/a) * ... P (x10/a) * P (y)
se llama ingenua, ya que hace la suposición que todos los atributos son independientes el uno del otro. Esta suposición es por qué se llama ingenuo, ya que en muchas situaciones del mundo real esto no se ajusta. A pesar de esto, el clasificador funciona extremadamente bien en muchas situaciones del mundo real y tiene un rendimiento comparable a redes neutrales y SVM en ciertos casos (aunque no todos).
Para la clasificación cuando encontramos la distribución conjunta el problema es que simplemente refleja los datos de entrenamiento y también es muy difícil de calcular. Entonces necesitamos algo que se generalice más útilmente.
El modelo ingenuo generaliza fuertemente que cada atributo se distribuye con independencia de cualesquiera otros atributos.
Realmente ayuda a no preocuparse por la dependencia entre los atributos en gran medida.
- 1. Cualquier clasificador bayesiano ingenuo en python?
- 2. ejemplo simple que utiliza BernoulliNB (Bayes ingenuo clasificador) scikit-learn en Python - no puede explicar la clasificación
- 3. Training Naive Clasificador Bayes en los ngulos
- 4. Detectando una clase desconocida en un clasificador bayes
- 5. Guardar clasificador capacitado de Naive Bayes en NLTK
- 6. Mi ingenuo algoritmo de búsqueda de clica máxima funciona más rápido que Bron-Kerbosch. ¿Qué pasa?
- 7. Reordenar elementos de la matriz para reflejar el clúster de columnas y filas en python ingenuo
- 8. django 1.4 - no puedo comparar offset-ingenuo y offset date-datet
- 9. Implementando el clasificador Naive-Bayes de Bag-of-Words en NLTK
- 10. Comprensión del teorema de Bayes
- 11. interpretando los resultados Naive Bayes
- 12. ¿Qué representa un puntaje del Clasificador Bayesiano?
- 13. cómo seleccionar datos de entrenamiento para el clasificador de bayes ingenuos
- 14. Implementando el clasificador bayesiano en Ruby?
- 15. scikits learn and nltk: rendimiento del clasificador Naive Bayes muy diferente
- 16. Árbol de decisión frente a Clasificador bayesiano
- 17. Clustering y clasificadores Bayes Matlab
- 18. "Creación de clasificador precompilado porque el clasificador está desactualizado"
- 19. ¿Cómo creo un clasificador de haar personalizado?
- 20. Implementar Naive Bayes gaussiano
- 21. Naive Bayes fila clasificación
- 22. Inteligencia artificial, clasificador de texto
- 23. Implementar Bayes Net
- 24. contiene con el clasificador
- 25. ¿Intenta usar MEGAM como un clasificador NLTK basado en un marcador de depósito?
- 26. Cómo entrenar incrementalmente un clasificador nltk
- 27. Persistencia en el objeto Java CI-Bayes
- 28. Bayes jerárquicos para R o Python
- 29. Clasificador de árbol de decisión interactiva
- 30. jQuery Clasificador de tablas: detener la clasificación
No necesita ser avergonzado Vendedor ambulante, usted ha hecho una buena pregunta. +1 – Yavar