Estoy trabajando en un proyecto paralelo ahora que implica la codificación de todos los enlaces entre las páginas de Wikipedia. He extraído esta información en un disco, pero el uso de memoria requerido para codificar la estructura de este gráfico es bastante ridículo: hay millones de nodos y decenas de millones de enlaces. Si bien esta estructura cabe en la memoria, no estoy seguro de qué haría si hubiera, digamos, mil millones de enlaces o mil millones de páginas.Representación gráfica comprimida?
Mi pregunta es: ¿hay alguna manera de comprimir sin pérdidas un gráfico demasiado grande para caber en la memoria para que quepa en la memoria? De lo contrario, ¿existe un buen algoritmo con pérdidas que, para alguna definición de "estructura", no pierda demasiada estructura del gráfico original?
¿Qué representación estás usando actualmente? ¿Matrix-forma? – fresskoma
Lista de adyacencia simple donde cada página está codificada como un entero de 32 bits. – templatetypedef
+1 - una pregunta realmente interesante. –