soy estudiante investigador. Estoy buscando datos de gran tamaño para el problema de la mochila. Quería probar mi algoritmo para el problema de la mochila. Pero no pude encontrar datos grandes. Necesito datos tiene 1000 elementos y la capacidad no importa. El punto es un elemento tanto como enorme, es bueno para mi algoritmo. ¿Hay datos enormes disponibles en internet? ¿Alguien sabe por favor chicos necesito urgente.datos de prueba grandes para el problema de la mochila
Respuesta
Puede generar fácilmente sus propios datos. Solo use un generador de números aleatorios y genere muchos valores. Para probar que su algoritmo proporciona los resultados correctos, compárelo con los resultados de otro algoritmo de trabajo conocido.
tienes razón pero la cosa es que tengo que saber la mejor solución. ¡porque quería saber que mi algoritmo puede encontrar la mejor solución o no! – user347918
@ user347918: puede encontrar un algoritmo de trabajo existente para decirle cuál es la mejor solución y comprobar que obtiene la misma. Tal vez pruebe 3 o 4 algoritmos diferentes y asegúrese de que todos estén de acuerdo, en caso de que alguno de ellos tenga un error. Puede, por ejemplo, probar algunas de las soluciones aquí: http://rosettacode.org/wiki/Knapsack_problem/Bounded –
Gracias por su asesoramiento. Perdona una pregunta más. Si voy a probar mi algoritmo problema multiknapsack. ¿No es diferente a singleknapsack verdad? Quiero decir que asumí que el problema tiene 100 itmes y 5 mochilas. Significa ¿puedo pensar que el problema tiene 500 artículos? Lo siento, no culpo, no tengo experiencia. Soy realmente un mal estudiante investigador :(. Estoy empezando ahora. – user347918
Tengo el mismo requisito.
Obviamente, solo Brute force dará la respuesta óptima y eso no funcionará para problemas grandes.
Sin embargo podríamos lanzar nuestros algoritmos uno contra el otro ...
Para que quede claro, mi algoritmo funciona para problemas 0-1 (es decir, 0 o 1 de cada elemento), enteros o datos decimales.
También tengo una versión que funciona para 2 dimensiones (por ejemplo, volumen y peso frente a valor).
Mi lector de archivos utiliza un formato simple CSV (nombre-elemento, peso, valor): mina de
X229257,9,286
X509192,11,272
X847469,5,184
X457095,4,88
etc....
Si no recuerdo mal, que he probado en 1000 artículos también.
Atentamente.
PS:
me encontré con mi algoritmo de nuevo el problema de Código Rosette que Mark resaltado (gracias). Obtuve el mismo resultado pero mi solución es mucho más escalable que las soluciones de programación/LP dinámicas y funcionará en problemas mucho más grandes
El editor ha mostrado incorrectamente mi formato de archivo. Mi lector de archivos espera un artículo por línea. En este momento tengo el peso objetivo codificado y lo cambiaré a lo que esté usando. –
Hola, Suena muy bien. ¿Pueden enviarme sus datos? Voy a ejecutar mi algoritmo en sus datos.Entonces confirmaré los resultados. Sería un trabajo muy agradable. Gracias – user347918
también una cosa en realidad usé soluciones LP. Pero no mucho, diferente de los demás lo que hicieron. Probé varios problemas cada vez que mi método buscaba la mejor solución. – user347918
- 1. Resolviendo la mochila entera
- 2. algoritmo de programación dinámica para una variación de la mochila Problema
- 3. Problema: transferir datos grandes a la segunda actividad
- 4. ¿Qué DB para grandes bases de datos?
- 5. Haskell mochila
- 6. mochila algoritmo de variación
- 7. ¿Cuál es el nombre/algoritmo correcto del problema para la descripción de este problema en la teoría de la informática?
- 8. Organización de un proyecto de prueba unitaria para soluciones grandes
- 9. SQLite para grandes conjuntos de datos?
- 10. Prueba unitaria basada en datos: ¿problema con la codificación CSV?
- 11. Esquema de la base de datos para aplicaciones web grandes
- 12. Conjuntos de datos grandes
- 13. triplestore para grandes conjuntos de datos
- 14. Diseño del algoritmo: ¿puede proporcionar una solución al problema de la mochila múltiple?
- 15. Escribir datos grandes en el problema de almacenamiento en caché de archivos
- 16. programación dinámica y la aplicación de la mochila
- 17. Problema de prueba Omniauth Rspec
- 18. problema mmap, asigna grandes cantidades de memoria
- 19. 0-1 Mochila con restricciones de partición
- 20. Optimización de Autocompletar para grandes conjuntos de datos
- 21. Implementación en C++ de la rama de mochila y encuadernado
- 22. GZipStream en datos grandes
- 23. ordenando datos de texto grandes
- 24. Muestreo de archivos de datos grandes
- 25. ¿Qué se puede hacer para mejorar el rendimiento de IE8 para grandes conjuntos de datos?
- 26. Scikit y Pandas: Ajuste de datos grandes
- 27. Prueba de unidad Herramienta para la base de datos Sybase
- 28. Práctica recomendada para almacenar grandes cantidades de datos con J2ME
- 29. ¿Está JavaScript listo para visualizar grandes conjuntos de datos?
- 30. Uso de Emacs para grandes proyectos grandes
http://www.random.org/ le dará un montón de aleatorio gratuito. Tendrá que NP-complete los datos de fuerza bruta para obtener una solución óptima para la prueba. – msw
@ user347918 hola, sé que esta es una publicación muy antigua, pero estoy teniendo el mismo problema de datos que tenía, ¿podría decirme cómo generó sus datos? Encontré este sitio web http://people.sc.fsu.edu/~jburkardt/datasets/knapsack_01/knapsack_01.html pero los tamaños del problema son muy pequeños. Espero que puedas ayudar. Gracias. – RegUser