En la capa de entrada, tiene X nodos separados para cada dimensión (clima, viento, etc.) de los datos de entrada, donde X es el número de días para mirar hacia atrás (digamos 4-7). Entonces debería normalizar cada dimensión de entrada en un rango adecuado, digamos [-1.0, 1.0].
Disponer de una segunda capa "oculta" totalmente interconectada con la primera capa (y también con un nodo "parcial" de entrada de corrección 1.0 para que sirva como un punto fijo). Debería haber menos nodos aquí que en la capa de entrada, pero eso es solo una regla general, es posible que deba experimentar.
La última capa es la capa de salida completamente interconectada con la segunda capa (y también se cae en un sesgo). Tener una neurona de salida separada para cada dimensión.
No olvide capacitarse con los valores normalizados tanto en la entrada como en la salida. Como se trata de una serie temporal, es posible que no necesite aleatorizar el orden de los datos de entrenamiento, sino alimentarlos a medida que lleguen a tiempo: su red también aprenderá las relaciones temporales (con suerte :)
(También tenga en cuenta que existe un método llamado "backpropagation temporal" que está sintonizado para los datos de series de tiempo)
Si está interesado en usar Weka, una opción podría ser probar Knime, un paquete de flujo de trabajo basado en eclipse que incluye primitivos Weka. –
Tengo curiosidad por cómo aplicar los árboles de decisiones a este problema. – brian
Los bosques aleatorios son divertidos – ron