He estado tratando de encontrar información sobre el rendimiento del uso de float vs double en hardware de gráficos. He encontrado mucha información sobre float vs double en CPU, pero esa información es más escasa para las GPU.float vs double en hardware de gráficos
I código con OpenGL, por lo que si hay alguna información específica de esa API que sientes que debe conocerse, vamos a tenerlo.
Entiendo que si el programa está moviendo una gran cantidad de datos hacia/desde el hardware de gráficos, entonces probablemente sería mejor usar flotadores ya que los dobles requerirían el doble de ancho de banda. Mis consultas son más sobre cómo el hardware de gráficos lo procesa. Tal como lo entiendo, las CPU Intel modernas convierten flotante/doble en real de 80 bits para cálculos (las instrucciones SSE están excluidas) y ambos tipos son, por lo tanto, igualmente rápidos. ¿Las tarjetas gráficas modernas hacen algo así? ¿el flotador y el doble rendimiento son iguales ahora? ¿Hay alguna razón fuerte para usar una sobre la otra?
+1 para el consejo. Aunque me imagino que aún se mantiene (como dices, los dobles probablemente no harán una gran diferencia para los gráficos), me interesaría saber si alguna de tus respuestas ha cambiado (tal vez en términos de hardware) en los seis años. desde que lo escribiste –
Las tarjetas Nvidia basadas en Maxwell tienen una diferencia aún mayor entre los cálculos de precisión simple y doble. Agregaron más unidades FP32 al costo de espacio de las unidades FP64. La precisión simple es el camino a seguir en las GPU, a menos que necesite absolutamente la mayor precisión. – tkerwin