Como programador, realizo hallazgos revolucionarios cada pocos años. Estoy adelantado a la curva, o detrás de ella por aproximadamente π en la fase. Una lección difícil que aprendí fue que escalar no siempre es mejor, con bastante frecuencia los mayores aumentos de rendimiento se producen cuando nos reagrupamos y ampliamos.Razones para NO aumentar el tamaño frente a -out?
¿Qué razones tiene para ampliar o aumentar? Precio, rendimiento, visión, uso proyectado? Si es así, ¿cómo funcionó esto para usted?
Una vez escalamos varios cientos de nodos que serializarían y almacenarían en caché los datos necesarios para cada nodo y ejecutarían procesos matemáticos en los registros. Muchos, muchos miles de millones de registros deben ser (cruzados) analizados. Fue el negocio perfecto y el caso técnico para emplear escalamiento horizontal. Seguimos optimizando hasta procesamos aproximadamente 24 horas de datos en 26 horas reloj de pared. En pocas palabras, alquilamos una gigantesca (por el momento) IBM pSeries, pusimos Oracle Enterprise en ella, indexamos nuestros datos y terminamos procesando las mismas 24 horas de datos en aproximadamente 6 horas. Revolución para mí
Muchos sistemas empresariales son OLTP y los datos no son fragmentados, pero el deseo de muchos es agrupar o ampliar horizontalmente. ¿Es esta una reacción a las nuevas técnicas o al rendimiento percibido?
¿Actualmente las aplicaciones en general o nuestros matras de programación se prestan mejor para escalar? ¿Debemos/debemos tomar esta tendencia siempre en cuenta en el futuro?
Subjetivo y argumentativo. – Malfist
Si deja caer la última línea, realmente es una buena pregunta. La percepción común es que tirar más hardware detrás de un F5 va a resolver todos los problemas. – mfeingold
De acuerdo en la argumentación. He ajustado mi pregunta. – Xailor