2010-07-12 17 views
9

Claramente, ¿es posible sin tener que leer el recurso remoto en un servidor local y luego PONERLO en los servidores de S3?¿Es posible cargar en S3 simplemente proporcionando una URL?

Por lo tanto, en cierto sentido, en lugar de la transmisión con este aspecto:

S3<--(PUT DATA)--LOCAL<--(REQUEST DATA)--REMOTE_URL 

que termina pareciéndose a esto.

S3<--(PUT DATA BY URL)--LOCAL 

S3<--(REQUEST DATA)--REMOTE_URL 
+0

En caso de que otros encuentren esto a través de Google ... usted * puede * hacer esto a través de Azure: [Cómo copiar un objeto de Amazon S3 a Windows Azure Blob Storage usando "Copiar Blob"] (http://gauravmantri.com/2012/06/14/how-to-copy-an-object-from-amazon-s3-to-windows-azure-blob-storage-using-copy-blob /) – Richard

Respuesta

7

No es posible.

Amazon no ofrece un servicio de extracción para S3, y tampoco he visto a nadie anunciando ninguno. (No es una idea de negocio terrible, sin embargo).

Habiendo dicho eso, ¡hay un montón de herramientas para ayudar con esto!

Mucha gente usa algo como s3fs con su utilidad de copia de seguridad favorita (es decir, cron + rsync).

Últimamente, he tenido un gran éxito con boto y algunas secuencias de comandos de Python personalizadas. La razón por la que me gusta es porque se integra muy bien con cualquier otro servicio que esté ejecutando en la caja, y le da actualizaciones de estado.

He escrito un script de shell que inicia una instancia de EC2, se conecta a través de SSH, tiene los datos de descarga de cuadro EC2 de un sitio FTP a su disco local y luego carga los datos nuevos a S3.

Cuestiones relacionadas