9

Solo me pregunto, ya que hemos alcanzado 1 teraflop por PC, sin embargo, todavía no podemos modelar el cerebro de un insecto. ¿Alguien ha visto una implementación decente de una red neuronal de autoaprendizaje y autodesarrollo?Modelado cerebral

+0

¿Dónde escuchaste que las PC han alcanzado un teraflop? El procesador de PC más rápido que conozco es de 70 gigaflops ... y si te refieres a los supercomputadores, también tienen petaflops rotos el año pasado. – DeadHead

+0

lo siento, estoy con la GPU incluida. La GPU habilitada con CUDA puede ejecutar un algoritmo de propagación de redes neuronales de manera muy eficiente. No estoy seguro sobre el aprendizaje y la adaptación del peso del nodo; este problema probablemente sea manejado por la CPU principal. – Andy

+2

Creo que esto es menos una cuestión de tamaño/velocidad de una red neuronal, pero una cuestión de si las complejidades adicionales de la cognición y el aprendizaje en el cerebro se pueden modelar utilizando esas técnicas. ¿Tal vez algún encuentro de redes neuronales/perceptrones y autómatas celulares? –

Respuesta

9

Vi un experimento interesante mapear el diseño neuronal físico del cerebro de una rata a una red neuronal digital con un peso modelado en la química de la neurona de cada componente tomado mediante resonancia magnética y otros. Bastante interesante. (New Scientist o Foco, hace 2 números?)

IBM Blue Brain viene a la mente http://news.bbc.co.uk/1/hi/sci/tech/8012496.stm

El problema es potencia de cálculo a medida que señalan con razón. Pero para una secuencia de estímulos a una red neuronal, el rango de cálculos tiende a ser exponencial a medida que los estímulos encuentran nódulos anidados más profundos. Cualquier algoritmo de ponderación complejo significa que el tiempo que se pasa en cada nodo puede ser costoso. Los mapas neuronales específicos del dominio tienden a ser más rápidos porque están especializados. Los cerebros en los mamíferos tienen muchos caminos generales, lo que hace que sea más difícil enseñarlos, y que una computadora modele un cerebro de mamífero real en un espacio/tiempo dado.

Los cerebros reales también tienen un montón de diafonía como la estática (algunas personas creen que es aquí donde se origina la creatividad o el pensamiento original). Los cerebros tampoco aprenden usando el estímulo/recompensa "directo" ... usan la experiencia pasada de la materia no relacionada para crear su propio aprendizaje. La recreación de las neuronas es una cosa en el espacio computacional, la creación de un aprendizaje preciso es otra. No importa la dopamina (octopamina en insectos) y otros químicos neurológicos.

imagine dar un cerebro digital LSD o antidepresivos. Como una simulación real. Increíble. Esa sería una simulación compleja que sospecho.

+1

Más complejidad aún: cuando el cerebro humano está completamente desarrollado, * cada neurona individual es una entidad distinta *, genética y funcionalmente. ~ 20 años de exposición asincrónica a mutantes y neurotransmisores, así como diferencias de desarrollo y comportamientos de plasticidad (ciertas neuronas que rellenan huecos de vías como cinta de aluminio en el núcleo de un reactor) entre células individuales, convierten a un modelo canónico de cerebro humano en una construcción nebulosa. una inútil. Y eso es antes de abordar la cuestión de simular los componentes mecánicos cuánticos recientemente descubiertos de los sistemas biológicos ... – manglano

7

Creo que estás asumiendo que nuestra idea de cómo funcionan las redes neuronales es un buen modelo para el cerebro a gran escala; No estoy seguro de que sea una buena suposición. Demonios, no hace muchos años no creíamos que las células gliales fueran importantes para las funciones mentales, y fue la idea durante mucho tiempo que no hubo neurogénesis después de que el cerebro madure.

Por otro lado, las redes neuronales parecen manejar bastante bien algunas funciones aparentemente complejas.

Así que, aquí hay una pequeña pregunta para usted: ¿cuántos teraflops o petaflops cree que representa el cálculo de un cerebro humano?

+0

Más de lo que tenemos. Tenemos más posibilidades de desarrollar un cerebro humano y darle entrada/salida digital. Tal vez overclockearlo o especializándolo un poco. Computación impulsada por emociones utilizando estímulos químicos artificiales. Podría invocar receptores de dolor en predicciones incorrectas. –

+5

@Aiden: realmente espero que no tengas hijos. :-) –

+0

:) si el cerebro tiene un problema con él, conectaré mis cables neuronales y tendré doble virtual con nuestros cuerpos virtuales. A menos que sea mujer. Entonces es diferente. –

2

Yup: OpenCog está trabajando en ello.

+0

No está realmente ... implementado todavía y no lo será por un tiempo ... – DeadHead

5

Jeff Hawkins diría que una red neuronal es una mala aproximación de un cerebro. Su "On Intelligence" es una lectura excelente.

+1

¡Sí! Es posible que desee consultar www.numemta.com y su software NuPIC. Esto se basa en la tecnología de memoria temporal jerárquica, basada en conceptos desarrollados por Jeff Hawkins en este libro. – mjv

1

Es la estructura. Incluso si hoy tuviéramos computadoras con el mismo o más alto rendimiento que un cerebro humano (hay diferentes predicciones cuando lleguemos allí, pero aún faltan algunos años), aún necesitamos programarlo. Y aunque hoy conocemos mucho al cerebro, todavía hay muchas, muchas cosas más que no sabemos. Y estos no son solo detalles, sino grandes áreas que no se entienden en absoluto.

Centrarse solo en Tera-/Peta-FLOPS es como mirar solo megapíxeles con cámaras digitales: se centra en un solo valor cuando hay muchos factores involucrados (y hay algunos más en un cerebro que en una cámara). También creo que muchas de las estimaciones sobre cuántos FLOPS se necesitarían para simular un cerebro están muy lejos, pero esa es una discusión completamente diferente.

+0

Robert, eso es exactamente lo que menciono en la pregunta inicial: la potencia de procesamiento está algo así, pero nos damos cuenta de que no hay absolutamente ningún entendimiento sobre cómo usar esto para modelar un proceso de aprendizaje simple. (¿una idea para una startup? :-) – Andy

+0

Es posible que puedas evaluar el potencial de una startup si eres un experto en inteligencia artificial. Estas cosas suelen ser spinouts universitarios. –

2

Solo me pregunto, hemos alcanzado 1 teraflop por PC, y todavía no somos capaces de modelar el cerebro de un insecto. ¿Alguien ha visto una implementación decente de una red neuronal de autodesarrollo autodesarrollada?

Ya podemos modelar cerebros. La pregunta en estos días es qué tan rápido y qué tan preciso.

Al principio, se hizo un esfuerzo para tratar de encontrar la representación más abstracta de las neuronas con la menor cantidad de propiedades físicas necesarias.

Esto llevó a la invención de la perceptron en la Universidad de Cornell, que es un modelo muy simple. De hecho, puede haber sido demasiado simple, ya que el famoso profesor de AI del MIT, Marvin Minsky, escribió un documento que erróneamente llegó a la conclusión de que sería imposible que este tipo de modelo aprendiera XOR (una puerta lógica básica que podría emularse por cada computadora que tenemos hoy). Desafortunadamente, su artículo sumergió la investigación de redes neuronales en las edades oscuras durante al menos 10 años.

Aunque probablemente no sea tan impresionante como muchos desearían, existen redes de aprendizaje que ya existen que pueden hacer reconocimiento y reconocimiento visual y de voz.

Y aunque tenemos CPU más rápidas, todavía no es lo mismo que una neurona. Las neuronas en nuestro cerebro son, al menos, unidades adler paralelas. Imagine 100 mil millones de neuronas humanas simuladas, agregando cada segundo, enviando sus salidas a 100 billones de conexiones con un "reloj" de aproximadamente 20 hz. La cantidad de cálculos que se realizan aquí supera con creces los petaflops de potencia de procesamiento que tenemos, especialmente cuando nuestras CPU son principalmente seriales en vez de paralelas.

+2

Es por esta razón, creo que los FPGA son más adecuados para simular un cerebro que una CPU tradicional – Earlz

0

Hay un gusano llamado C. Elegancia y su anatomía es completamente conocida por nosotros. Cada célula está mapeada y cada neurona está bien estudiada. Este gusano tiene una propiedad interesante por nacimiento y es que sigue o crece solo hacia aquellas regiones de temperatura en las que nació. Here is link to the paper. Este documento tiene implementación de la propiedad con modelo neuronal. Y hay algunos estudiantes que han construido un robot que solo sigue las regiones oscuras de la región que tienen diferentes tonos de luz, usando este modelo neuronal. Este trabajo podría haberse realizado usando otros métodos también, pero este método es más resistente al ruido, como lo prueba el papel al que he dado el enlace anterior.

Cuestiones relacionadas