Yo no estoy seguro de entender perfectamente su pregunta, el concepto de "series de tiempo con densidad variable a lo largo del tiempo" no es muy clara.
Una cosa es segura, la forma óptima para "alimentar" una red neuronal es una función de el tipo de NNet misma y en el método de aprendizaje que usted ha elegido.
Para las series de tiempo
- ya sea que usted cree que sus datos son iid vectores, y se puede utilizar un completamente conectado de tipo perceptrón
- ya sea que se auto-correlación, y, probablemente, un LSTM (Largo-Corto Tiempo de Memoria) es una buena opción a considerar
- si usted espera que ellos tienen multi-escala de los patrones de ConvNets son probablemente una buena opción.
Para el aprendizaje, la forma de alimentar a los NNet tiene que ser compatible con su opción anterior:
- totalmente conectado perceptrones en iid observaciones deben ser entrenados a través de la Estocástico de Gradiente de la pendiente (SGD), es decir, mediante un sistema aleatorio de lotes pequeños
- LSTM tiene que ser alimentado por los largos bloques de datos consecutivos,
- ConvNets tiene que ser alimentado por los bloques de la preservación de la estructura de sus patrones esperados.
Aquí están algunos comentarios respecto a su último punto acerca del uso de una ventana fija en el número de observaciones frente a una observación de duración:
- usted necesita tener un decente número de observaciones en cada lote, por lo tanto si elige una duración, tomar el tiempo suficiente
- usted necesita para no romper el tipo de patrón que usted espera de la NNet para capturar; tomar de su tiempo (o número de puntos) el tiempo suficiente.
En esencia, para el mini-lotes de la conducción de un SGD, su composición tiene que ser elegido tal que la estimación de la pendiente (derivada de la media de la mini-lote), tiene la misma varianza de un mini-lote a otro. Fijamos en los datos y hacer la mejor elección!