Esta es una pregunta común, pero buscar en Google esto da mucha basura.
Transferencia de datos grandes entre servidores Fast
Como los volúmenes de datos son cada vez más y más alto, a lo largo de la potencia de procesamiento & capacidades de nube, estamos asistiendo a una creciente necesidad de tecnologías de transferencia de datos capaces de liberar el poder de todos estos datos a disposición por/en movimiento/intercambio de propagación a través de diferentes servidores/clientes.
En nuestro caso, estamos grabando datos binarios en tiempo real (50 gigas por día) y tenemos que cargarlo/descargarlo todos los días a/desde suscriptores (sí, todo lo necesita localmente cada servidor de suscriptor, para el cálculo y diversos datos cosas análisis)
Así que poner es poco, ¿cuáles son las opciones disponibles en la actualidad para transferir muchos gigas de datos muy rápido entre ventanas servidores remotos (VPS, Nube, con un "bastante" bandwitdth coherente - (fibra óptica a un lado))
Esta es una pregunta abierta. Todas las ideas son bienvenidas sea cual sea el protocolo.
Creo que esto podría ser mejor para los programadores? – Thousand
¿Cómo se almacenan los datos? –
Conozco CloudOpt, que parece ser una solución interesante (http://www.cloudopt.com/). Aunque me da curiosidad saber qué otras tecnologías/configuraciones recientes tienen para ofrecer –