Estoy trabajando con alguien que tiene algún código de MATLAB que desean acelerar. Actualmente están tratando de convertir todo este código en CUDA para que se ejecute en una CPU. Creo que sería más rápido usar la caja de herramientas de cómputo paralelo de MATLAB para acelerar esto y ejecutarlo en un clúster que tenga la Caja de herramientas de computación distribuida de MATLAB, lo que me permite ejecutar esto en varios nodos de trabajadores diferentes. Ahora, como parte de la caja de herramientas de computación paralela, puede usar things like GPUArray. Sin embargo, estoy confundido sobre cómo funcionaría esto. ¿Están usando cosas como parfor (paralelización) y gpuarray (programación gpu) compatibles entre sí? ¿Puedo usar ambos? ¿Se puede dividir algo en diferentes nodos de trabajadores (paralelización) al tiempo que se utilizan las GPU disponibles para cada trabajador?MATLAB Parallel Computing Toolbox - Parallization vs GPU?
Piensan que todavía vale la pena explorar el tiempo que lleva convertir todo el código de matlab en código cuda para ejecutar en una máquina con múltiples GPU ... pero creo que el enfoque correcto sería usar las funciones ya integradas MATLAB.
¡Cualquier ayuda, consejo, dirección sería realmente apreciada!
Gracias!
Quizás le interese probar Jacket para este en lugar de gpuArays.No he escuchado a nadie feliz con la actuación de gpuArrays, por estos motivos: http://accelereyes.com/compare – arrayfire