2010-06-30 2 views
7

Estoy buscando algunas tecnologías para investigar. Me sorprende que puedas acceder a la interfaz de [insertar sitio grande aquí], actualizar una configuración y en cuestión de segundos se envía para que se publique en todos los ámbitos. Un buen ejemplo de esto es adwords. Si ingresa a AdWords y cambia una campaña, esa configuración se almacena en el servidor con una identificación única. El código de anuncio llama al servidor con esa identificación y la información (tamaño, colores, etc.) se levanta instantáneamente para mostrar el anuncio. ¿Cómo es que Google puede enviar eso a cientos de miles de servidores tan rápido? ¿Qué tipo de sistemas de db están usando?¿Cómo propagan los sitios grandes (Google, Facebook, etc.) a todos los servidores en tiempo real?

Respuesta

6

Google ha publicado documentos de investigación para su Google File System (o "BigFiles" como se conocía anteriormente) y BigTable, que se utilizan ampliamente en sus servicios. Esos probablemente harían una buena lectura, en sí mismos y porque probablemente citan el estado de la técnica.

0

Sé que Facebook usa peer-to-peer para impulsar la actualización en su servidor.

El primer servidor recibe la actualización, luego la envía a otros que hace lo mismo ... ¡y continúa hasta que la actualización esté en todo su servidor!

+0

Cualquier nombre de software o teorías que puede investigar? –

0

He estado buscando información similar.

Busque "Datos estructurados".

Particularidades: MojoDB, CouchDB. Busque las comparaciones en el sitio web de mojodb.

Facebook ha hecho que Cassandra (base de datos distribuida) sea de código abierto. Creo que ellos y muchos otros lo usan ahora.

También busque Hadoop framework y Map/Reduce, como una cuestión de interés.

Cuestiones relacionadas