2011-05-09 14 views
10

estoy aprendiendo Álgebra Lineal (iniciado recientemente) y la curiosidad por saber sus aplicaciones en la máquina de aprendizaje, donde puedo leer acerca de esteaplicación de álgebra lineal en el aprendizaje automático

Gracias

+7

http://www.google.com/search?q=linear+algebra+machine+learning – Blender

+0

Los algoritmos de aprendizaje automático requieren una comprensión sofisticada del álgebra lineal y la familiaridad con la distribución y la manipulación de datos en el espacio n-dimensional. Citando un poco del ** primer ** problema de configuración de la página 10 de [ESL] (http://www-stat.stanford.edu/~tibs/ElemStatLearn/), "Las matrices se representan con letras mayúsculas en negrita; por ejemplo , un conjunto de N p-vectores de entrada xi , i = 1,.., N sería representado por la matriz N × p X " –

+1

@Blender hoy en día, curiosamente, esta pregunta es uno de los mejores resultados para esa consulta de búsqueda. – jayelm

Respuesta

26

Linear Algebra proporciona el motor computacional para la mayoría de los algoritmos de Machine Learning.

Por ejemplo, probablemente la aplicación más conspicua y más frecuente de ML es el motor de recomendación.

Además de la recuperación de datos, la verdadera esencia de estos algoritmos es a menudo 'reconstrucción' de los datos ridículamente escasos utilizados como entrada para estos motores. Los datos brutos proporcionados al R/E basado en el usuario de Amazon.com son (probablemente) una matriz de datos masiva en la que los usuarios son las filas y sus productos están representados en las columnas. Por lo tanto, para llenar orgánicamente esta matriz, cada cliente tendría que comprar cada producto que vende Amazon.com. Aquí se usan técnicas basadas en algebra lineal.

Todas las técnicas que se utilizan actualmente implicar algún tipo de matriz de descomposición, un clase fundamental de las técnicas de álgebra lineal (por ejemplo, non-negative matrix approximation, y positive-maximum-margin-matrix approximation (advertencia enlace a pdf!) Son quizás los dos más común)

En segundo lugar, muchas de las técnicas ML, si no la mayoría, se basan en una técnica de optimización numérica. P. ej., La mayoría de los algoritmos de ML supervisados ​​implican la creación de un clasificador/regresor entrenado al minimizar el delta entre el valor calculado por el clasificador incipiente y el valor real de los datos de entrenamiento. Esto puede hacerse iterativamente o usando técnicas de álgebra lineal . Si el último, entonces la técnica es generalmente SVD o alguna variante.

tercer lugar, los descomposiciones basado en espectrales --PCA (análisis de componentes principales) y PCA kernel - son, quizás, las técnicas de reducción de la dimensión más comúnmente utilizados, menudo se aplican en una etapa de pre-procesamiento de solo antes del algoritmo ML en el flujo de datos, , por ejemplo, PCA se utiliza a menudo en un mapa de Kohonen para inicializar el enrejado . La idea principal debajo de estas técnicas es que los vectores propios de la matriz de covarianza (un cuadrado, matriz simétrica con ceros abajo de la diagonal principal, preparados a partir de la matriz de datos original) son unidades de longitud y son ortogonales entre sí.

+0

+1 para la descomposición de la matriz, es sorprendente cuántos problemas se pueden ver como ejemplos de eso – Nicolas78

2

descomposición en valores singulares (SVD), es un método clásico ampliamente utilizado en Machine Learning.

Encuentro que este artículo es bastante fácil, explicando un sistema de recomendación basado en SVD, vea http://www.igvita.com/2007/01/15/svd-recommendation-system-in-ruby/.

Y el libro de álgebra lineal de Strang, contiene una sección sobre la aplicación de SVD para clasificar páginas web (algoritmo HITS) ver Google Books.

2

En el aprendizaje automático, generalmente tratamos los datos en forma de vectores/matrices. Cualquier método estadístico utilizado implica álgebra lineal como parte integral. Además, es útil en la minería de datos.
SVD y PCA son famosas técnicas de reducción de dimensionalidad que involucran el álgebra lineal.
La teoría de decisión bayesiana también involucra una cantidad significativa de LA. También puede intentarlo.

Cuestiones relacionadas