¿Existen limitaciones conocidas de la escala S3? ¿Alguien alguna vez tuvo tantas lecturas o escrituras simultáneas que un cubo comenzó a devolver errores? Estoy un poco más interesado en escribir que leer porque es probable que S3 esté optimizado para lecturas.¿Alguien ha alcanzado alguna vez un límite superior de lectura o escritura para un cubo de Amazon S3?
Respuesta
comentario de Eric lo resume ya en un nivel conceptual, como se abordó en el FAQ What happens if traffic from my application suddenly spikes? así:
Amazon S3 fue diseñado desde cero para manejar el tráfico para cualquier aplicación Internet. [...] La escala masiva de Amazon S3 nos permite repartir la carga de manera uniforme, por lo que ninguna aplicación individual se ve afectada por picos de tráfico .
Por supuesto, usted todavía tiene que dar cuenta de posibles problemas y Tune [su] Solicitud de errores desaceleración repetidas (véase Amazon S3 Error Best Practices):
Como con cualquier sistema distribuido, S3 tiene Los mecanismos de protección detectan el consumo excesivo o no intencional de recursos y reaccionan en consecuencia. Los errores SlowDown pueden ocurrir cuando una alta tasa de solicitud activa uno de estos mecanismos. Al reducir su tasa de solicitud, disminuirá o eliminará los errores de este tipo. En general, la mayoría de los usuarios de no experimentarán estos errores regularmente; Sin embargo, si desea más información o está experimentando errores altas o inesperadas desaceleración, por favor publique en nuestro foro de desarrolladores de Amazon S3 http://developer.amazonwebservices.com/connect/forum.jspa?forumID=24 o se inscribe para AWS Soporte Premium http://aws.amazon.com/premiumsupport/. [el énfasis es mío]
Aunque es poco común, estas ralentizaciones qué suceden por supuesto - aquí es un AWS team response que ilustra el tema (bastante antiguo, sin embargo):
Amazon S3 devolverá este error cuando el la tasa de solicitud es lo suficientemente alta como que el servicio de las solicitudes causaría la degradación del servicio para otros clientes . Este error rara vez se activa. Si recibe , debe retroceder exponencialmente. Si se produce este error, los recursos del sistema se reequilibrarán/asignarán de forma reactiva para admitir mejor una tasa de solicitud más alta de . Como resultado, el período de tiempo durante el cual se lanzará este error debería ser relativamente corto. [el énfasis es mío]
Su suposición acerca de leer frente a la optimización de escritura se confirma allí también:
El umbral en el que este error se trigged varía y dependerá, en parte, de la tipo y patrón de solicitud. En general, podrá obtener rps más altos con puts contra puts y con lotes de get para un pequeño número de teclas frente a lotes de get para un gran número de claves. Al calcular o colocar un gran número de claves, podrá obtener rps más altos si las teclas están en orden alfanumérico contra orden aleatorio/hash .
- 1. Límite S3 para objetos en un cubo
- 2. cargue un archivo en un cubo de Amazon S3 en su defecto con "El número máximo de reintentos alcanzado"
- 3. ¿Cómo crear un enlace de descarga para un objeto de cubo de Amazon S3?
- 4. Amazon S3 ACL para sólo lectura y de escritura única de acceso
- 5. ¿Es posible que emacs cargue un buffer desde un cubo de Amazon S3?
- 6. ¿Cómo puedo hacer una copia de seguridad o sincronizar un cubo de Amazon S3?
- 7. ¿Cómo escribir una cadena en el cubo de Amazon S3?
- 8. Eliminando las versiones de cada archivo en un cubo de Amazon S3 anterior a X días
- 9. ¿Cómo se configura S3BotoStorage o collectstatic para cargar en un subdirectorio de cubo s3?
- 10. Cómo enumerar _todos_ objetos en el cubo de Amazon S3?
- 11. URL para obtener un archivo de Amazon S3
- 12. Configurando el propietario de los objetos en un cubo S3
- 13. ¿Puedo establecer el encabezado caduca en todos los objetos en un cubo de Amazon S3 todo a la vez?
- 14. ¿Alguna vez alguien usa el Control Ribbon?
- 15. ¿Alguien ha creado alguna vez un carrito de compras en Expression Engine?
- 16. Hacer un depósito público en Amazon S3
- 17. ¿Hay un límite superior para BigInteger?
- 18. ¿Alguien ha descubierto cómo escalar las réplicas de lectura de Amazon RDS?
- 19. Compruebe si existe una clave con un cierto prefijo en el cubo de Amazon S3
- 20. ¿Alguna vez Scala (o JVM) ha optimizado objetos (Function)?
- 21. SignatureDoesNotMatch - Amazon S3 API
- 22. Biblioteca .NET o aplicación asp.net para Amazon S3
- 23. ¿Cómo elimino/cuento objetos en un cubo s3?
- 24. Amazon S3: sitios web estáticos: dominio personalizado o subdominio
- 25. ¿Qué tan estable es s3fs para montar un depósito de Amazon S3 como un directorio local?
- 26. Amazon S3 - ¿Cómo construir correctamente las URL que apuntan a los objetos en un cubo?
- 27. Paperclip: ¿eliminar un archivo de Amazon S3?
- 28. ¿Alguna vez ha usado ngen.exe?
- 29. ¿Recibe una notificación cuando el usuario carga un cubo S3?
- 30. Permisos de Amazon S3
Amazon S3 procesa cientos de miles de solicitudes por segundo (http://aws.typepad.com/aws/amazon_s3/). No hay límite en la cantidad de objetos por segmento, por lo que dudo que existan límites de concurrencia en el nivel de depósito. –
FYI, acabo de cargar más de 10 millones de archivos en menos de 15 días, con 30 subprocesos concurrentes. No encontré ningún límite/problema. – Benjamin