2010-02-24 10 views
7

alguien ha usado la descarga directa con numpy/scipy para aplicaciones numéricas/científicas? ¿Es significativamente más rápido en tu experiencia? cualquier opinión sería fabulosa.descarga-tragar con numpy/scipy

+4

Ok, no me puedo resistir, ¿qué tan rápido está en vacío-tragar? ¿Es africano o europeo? – TheJacobTaylor

+0

@TheJacobTaylor +1: No me di cuenta de qué se trataba hasta que vi la película ayer xD – fortran

+3

"Es una simple cuestión de proporciones de peso". –

Respuesta

5

Nadie tiene una amplia experiencia con Unladen Swallow todavía (excepto los desarrolladores), por lo que será difícil encontrar mucha gente que pueda discutirlo. Además, con la conversación de fusionar Unladen Swallow (que se construye usando LLVM) con el tiempo de ejecución de CPython, todo va a ser algo así como un objetivo en movimiento hasta que todo sea más estable.

Hay puntos de referencia disponibles para Unladen Swallow, pero numpy y scipy no están incluidos. As the developers themselves explain: "... el rendimiento de los módulos de extensión como numpy no es interesante ya que las rutinas centrales de numpy se implementan en C".

En resumen, si está escribiendo un buen código para numpy y scipy, su código no se ejecutará "significativamente más rápido" en Unladen Swallow, ya que se está ejecutando por debajo del nivel de la máquina virtual. Si está escribiendo un código incorrecto para numpy y scipy, debe corregir el código y luego volver a consultar la primera oración.

1

Debería ser más rápido. No lo he probado yo mismo, pero acabo de regresar de Pycon y tuvieron una charla acerca de la descarga en vacío en la que mencionaron el aumento de rendimiento con numpy y otros paquetes. Puede ver la conversación here.

1

Sobre la cuestión, no una respuesta:

Total runtime = python + numpy + interface, 
       cpython/unladenswallow + mostlyC + interface. 

Sin datos reales sobre cómo estos 3 Split - 20 70 10, 40 40 20? y que para> 1 punto de referencia,
, no hay forma de saber qué camino tomar.