Estoy haciendo algunos cálculos y haciendo algunos análisis sobre las fuerzas y la debilidad de las diferentes implementaciones de BLAS. sin embargo, he encontrado un problema.¿Cómo transponer una matriz de manera óptima usando blas?
Estoy probando cuBlas, hacer linAlg en la GPU parecería una buena idea, pero hay un problema.
Implementación de cuBlas utilizando el formato de columna principal, y dado que esto no es lo que necesito al final, tengo curiosidad si hay una forma de hacerlo con uno puede hacer que BLAS haga la transposición de matriz?
".... y ya que esto no es lo que al final .....". ¿Falta un par de palabras? – talonmies
A partir de CUDA 5.0, cuBLAS tiene 'cublas geam' que es una rutina muy eficiente para realizar la transposición de matrices. Para obtener un código completo que implemente esta solución y compare el rendimiento con la transposición de matrices utilizando Thrust, consulte [¿Cuál es la forma más eficiente de transponer una matriz en CUDA?] (Http://stackoverflow.com/questions/15458552/what-is- la forma-más-eficiente-de-transponer-a-matriz-en-cuda/21803459 # 21803459). –
JackOLantern