n, una capa de entrada no necesita una conexión a la neurona sesgo, ya que ningún tipo de activación que recibió de la neurona sesgo sería completamente anulado por la entrada real.
Por ejemplo, imaginemos una red que está tratando de resolver el clásico XOR problem, usando esta arquitectura (donde la neurona se acaban de marcar 1 es el sesgo):
Para ejecutar esta red en la entrada (1 , 0), simplemente bloquea la activación de las neuronas X1 = 1 y X2 = 0. Ahora, si X1 o X2 también habían recibido información del sesgo, esa entrada se anularía de todos modos, haciendo que tal conexión no tenga sentido.
Disculpe, en su dibujo, la neurona de polarización es parte de la capa de entrada, ya que se envía a la capa oculta, ¿me equivoco? – tunnuz
Eh, un poco. La neurona de sesgo generalmente siempre se representa como si estuviera en su propia capa lil. Pensé que su pregunta era si CONECTAR o no la unidad de polarización a las unidades en la capa de entrada. En cualquier caso, la respuesta es un no firme; siempre solo necesita una única unidad de polarización que tiene una activación constante y está en su propia capa. En general, se conecta a todas las capas sin entrada. – zergylord
Para una explicación más detallada, consulte esta pregunta: http://stackoverflow.com/q/7175099/821806. Además, no es mi figura, sino más bien una que obtuve de aquí: http://home.agh.edu.pl/~vlsi/AI/xor_t/en/main.htm – zergylord