En el libro Programming Massively Parallel Processors
se usa la cantidad de gflops para comparar la eficiencia de los diferentes núcleos de multiplicación de matrices. ¿Cómo calculo esto para mis propios granos en mi propia máquina?¿Cómo se miden los gflops de un núcleo de multiplicación de matriz?
En algún lugar de los foros de NVIDIA encontré este 'algoritmo', pero no sé, qué tan válido es o de dónde vienen los dos tiempos.
NumOps = 2 * pow(MatrixSize,3)
gflops = 1.0e-9 * NumOps/ExecutionTime
p.s. Por favor, siéntase libre de cambiar las etiquetas ...
+1. Permítanme agregar que en el hardware con una instrucción incorporada FMAD (fusionar multiplicar y agregar), que incluye todo el nvidia gpus más nuevo, la gente discutirá si usar o no el factor de 2 delante del término MatrixSize^3. Mientras lo haga de manera consistente, no debería importar mucho. –