2012-05-30 15 views
5

Estoy comenzando a usar la biblioteca PETSc para resolver el sistema lineal de ecuaciones en paralelo. He instalado todos los paquetes, compilar y ejecutar con éxito los ejemplos en petsc/src/ksp/ksp/examples/tutorials/folder, por ejemplo ex.cSistema lineal de resolución PETSc con la guía ksp

Pero no pude entender cómo rellenar las matrices A, X y B leyéndolas, por ejemplo, del archivo.

Aquí proporciono el código dentro del archivo ex2.c:

/* Program usage: mpiexec -n <procs> ex2 [-help] [all PETSc options] */ 

static char help[] = "Solves a linear system in parallel with KSP.\n\ 
Input parameters include:\n\ 
    -random_exact_sol : use a random exact solution vector\n\ 
    -view_exact_sol : write exact solution vector to stdout\n\ 
    -m <mesh_x>  : number of mesh points in x-direction\n\ 
    -n <mesh_n>  : number of mesh points in y-direction\n\n"; 

/*T 
    Concepts: KSP^basic parallel example; 
    Concepts: KSP^Laplacian, 2d 
    Concepts: Laplacian, 2d 
    Processors: n 
T*/ 

/* 
    Include "petscksp.h" so that we can use KSP solvers. Note that this file 
    automatically includes: 
    petscsys.h  - base PETSc routines petscvec.h - vectors 
    petscmat.h - matrices 
    petscis.h  - index sets   petscksp.h - Krylov subspace methods 
    petscviewer.h - viewers    petscpc.h - preconditioners 
*/ 
#include <C:\PETSC\include\petscksp.h> 

#undef __FUNCT__ 
#define __FUNCT__ "main" 
int main(int argc,char **args) 
{ 
    Vec   x,b,u; /* approx solution, RHS, exact solution */ 
    Mat   A;  /* linear system matrix */ 
    KSP   ksp;  /* linear solver context */ 
    PetscRandom rctx;  /* random number generator context */ 
    PetscReal  norm;  /* norm of solution error */ 
    PetscInt  i,j,Ii,J,Istart,Iend,m = 8,n = 7,its; 
    PetscErrorCode ierr; 
    PetscBool  flg = PETSC_FALSE; 
    PetscScalar v; 
#if defined(PETSC_USE_LOG) 
    PetscLogStage stage; 
#endif 

    PetscInitialize(&argc,&args,(char *)0,help); 
    ierr = PetscOptionsGetInt(PETSC_NULL,"-m",&m,PETSC_NULL);CHKERRQ(ierr); 
    ierr = PetscOptionsGetInt(PETSC_NULL,"-n",&n,PETSC_NULL);CHKERRQ(ierr); 
    /* - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
     Compute the matrix and right-hand-side vector that define 
     the linear system, Ax = b. 
    - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - */ 
    /* 
    Create parallel matrix, specifying only its global dimensions. 
    When using MatCreate(), the matrix format can be specified at 
    runtime. Also, the parallel partitioning of the matrix is 
    determined by PETSc at runtime. 

    Performance tuning note: For problems of substantial size, 
    preallocation of matrix memory is crucial for attaining good 
    performance. See the matrix chapter of the users manual for details. 
    */ 
    ierr = MatCreate(PETSC_COMM_WORLD,&A);CHKERRQ(ierr); 
    ierr = MatSetSizes(A,PETSC_DECIDE,PETSC_DECIDE,m*n,m*n);CHKERRQ(ierr); 
    ierr = MatSetFromOptions(A);CHKERRQ(ierr); 
    ierr = MatMPIAIJSetPreallocation(A,5,PETSC_NULL,5,PETSC_NULL);CHKERRQ(ierr); 
    ierr = MatSeqAIJSetPreallocation(A,5,PETSC_NULL);CHKERRQ(ierr); 

    /* 
    Currently, all PETSc parallel matrix formats are partitioned by 
    contiguous chunks of rows across the processors. Determine which 
    rows of the matrix are locally owned. 
    */ 
    ierr = MatGetOwnershipRange(A,&Istart,&Iend);CHKERRQ(ierr); 

    /* 
    Set matrix elements for the 2-D, five-point stencil in parallel. 
     - Each processor needs to insert only elements that it owns 
     locally (but any non-local elements will be sent to the 
     appropriate processor during matrix assembly). 
     - Always specify global rows and columns of matrix entries. 

    Note: this uses the less common natural ordering that orders first 
    all the unknowns for x = h then for x = 2h etc; Hence you see J = Ii +- n 
    instead of J = I +- m as you might expect. The more standard ordering 
    would first do all variables for y = h, then y = 2h etc. 

    */ 
    ierr = PetscLogStageRegister("Assembly", &stage);CHKERRQ(ierr); 
    ierr = PetscLogStagePush(stage);CHKERRQ(ierr); 
    for (Ii=Istart; Ii<Iend; Ii++) { 
    v = -1.0; i = Ii/n; j = Ii - i*n; 
    if (i>0) {J = Ii - n; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr);} 
    if (i<m-1) {J = Ii + n; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr);} 
    if (j>0) {J = Ii - 1; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr);} 
    if (j<n-1) {J = Ii + 1; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr);} 
    v = 4.0; ierr = MatSetValues(A,1,&Ii,1,&Ii,&v,INSERT_VALUES);CHKERRQ(ierr); 
    } 

    /* 
    Assemble matrix, using the 2-step process: 
     MatAssemblyBegin(), MatAssemblyEnd() 
    Computations can be done while messages are in transition 
    by placing code between these two statements. 
    */ 
    ierr = MatAssemblyBegin(A,MAT_FINAL_ASSEMBLY);CHKERRQ(ierr); 
    ierr = MatAssemblyEnd(A,MAT_FINAL_ASSEMBLY);CHKERRQ(ierr); 
    ierr = PetscLogStagePop();CHKERRQ(ierr); 

    /* A is symmetric. Set symmetric flag to enable ICC/Cholesky preconditioner */ 
    ierr = MatSetOption(A,MAT_SYMMETRIC,PETSC_TRUE);CHKERRQ(ierr); 

    /* 
    Create parallel vectors. 
     - We form 1 vector from scratch and then duplicate as needed. 
     - When using VecCreate(), VecSetSizes and VecSetFromOptions() 
     in this example, we specify only the 
     vector's global dimension; the parallel partitioning is determined 
     at runtime. 
     - When solving a linear system, the vectors and matrices MUST 
     be partitioned accordingly. PETSc automatically generates 
     appropriately partitioned matrices and vectors when MatCreate() 
     and VecCreate() are used with the same communicator. 
     - The user can alternatively specify the local vector and matrix 
     dimensions when more sophisticated partitioning is needed 
     (replacing the PETSC_DECIDE argument in the VecSetSizes() statement 
     below). 
    */ 
    ierr = VecCreate(PETSC_COMM_WORLD,&u);CHKERRQ(ierr); 
    ierr = VecSetSizes(u,PETSC_DECIDE,m*n);CHKERRQ(ierr); 
    ierr = VecSetFromOptions(u);CHKERRQ(ierr); 
    ierr = VecDuplicate(u,&b);CHKERRQ(ierr); 
    ierr = VecDuplicate(b,&x);CHKERRQ(ierr); 

    /* 
    Set exact solution; then compute right-hand-side vector. 
    By default we use an exact solution of a vector with all 
    elements of 1.0; Alternatively, using the runtime option 
    -random_sol forms a solution vector with random components. 
    */ 
    ierr = PetscOptionsGetBool(PETSC_NULL,"-random_exact_sol",&flg,PETSC_NULL);CHKERRQ(ierr); 
    if (flg) { 
    ierr = PetscRandomCreate(PETSC_COMM_WORLD,&rctx);CHKERRQ(ierr); 
    ierr = PetscRandomSetFromOptions(rctx);CHKERRQ(ierr); 
    ierr = VecSetRandom(u,rctx);CHKERRQ(ierr); 
    ierr = PetscRandomDestroy(&rctx);CHKERRQ(ierr); 
    } else { 
    ierr = VecSet(u,1.0);CHKERRQ(ierr); 
    } 
    ierr = MatMult(A,u,b);CHKERRQ(ierr); 

    /* 
    View the exact solution vector if desired 
    */ 
    flg = PETSC_FALSE; 
    ierr = PetscOptionsGetBool(PETSC_NULL,"-view_exact_sol",&flg,PETSC_NULL);CHKERRQ(ierr); 
    if (flg) {ierr = VecView(u,PETSC_VIEWER_STDOUT_WORLD);CHKERRQ(ierr);} 

    /* - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
       Create the linear solver and set various options 
    - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - */ 

    /* 
    Create linear solver context 
    */ 
    ierr = KSPCreate(PETSC_COMM_WORLD,&ksp);CHKERRQ(ierr); 

    /* 
    Set operators. Here the matrix that defines the linear system 
    also serves as the preconditioning matrix. 
    */ 
    ierr = KSPSetOperators(ksp,A,A,DIFFERENT_NONZERO_PATTERN);CHKERRQ(ierr); 

    /* 
    Set linear solver defaults for this problem (optional). 
    - By extracting the KSP and PC contexts from the KSP context, 
     we can then directly call any KSP and PC routines to set 
     various options. 
    - The following two statements are optional; all of these 
     parameters could alternatively be specified at runtime via 
     KSPSetFromOptions(). All of these defaults can be 
     overridden at runtime, as indicated below. 
    */ 
    ierr = KSPSetTolerances(ksp,1.e-2/((m+1)*(n+1)),1.e-50,PETSC_DEFAULT, 
          PETSC_DEFAULT);CHKERRQ(ierr); 

    /* 
    Set runtime options, e.g., 
     -ksp_type <type> -pc_type <type> -ksp_monitor -ksp_rtol <rtol> 
    These options will override those specified above as long as 
    KSPSetFromOptions() is called _after_ any other customization 
    routines. 
    */ 
    ierr = KSPSetFromOptions(ksp);CHKERRQ(ierr); 

    /* - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
         Solve the linear system 
    - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - */ 

    ierr = KSPSolve(ksp,b,x);CHKERRQ(ierr); 

    /* - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
         Check solution and clean up 
    - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - */ 

    /* 
    Check the error 
    */ 
    ierr = VecAXPY(x,-1.0,u);CHKERRQ(ierr); 
    ierr = VecNorm(x,NORM_2,&norm);CHKERRQ(ierr); 
    ierr = KSPGetIterationNumber(ksp,&its);CHKERRQ(ierr); 
    /* Scale the norm */ 
    /* norm *= sqrt(1.0/((m+1)*(n+1))); */ 

    /* 
    Print convergence information. PetscPrintf() produces a single 
    print statement from all processes that share a communicator. 
    An alternative is PetscFPrintf(), which prints to a file. 
    */ 
    ierr = PetscPrintf(PETSC_COMM_WORLD,"Norm of error %A iterations %D\n", 
        norm,its);CHKERRQ(ierr); 

    /* 
    Free work space. All PETSc objects should be destroyed when they 
    are no longer needed. 
    */ 
    ierr = KSPDestroy(&ksp);CHKERRQ(ierr); 
    ierr = VecDestroy(&u);CHKERRQ(ierr); ierr = VecDestroy(&x);CHKERRQ(ierr); 
    ierr = VecDestroy(&b);CHKERRQ(ierr); ierr = MatDestroy(&A);CHKERRQ(ierr); 

    /* 
    Always call PetscFinalize() before exiting a program. This routine 
     - finalizes the PETSc libraries as well as MPI 
     - provides summary and diagnostic information if certain runtime 
     options are chosen (e.g., -log_summary). 
    */ 
    ierr = PetscFinalize(); 
    return 0; 
} 

¿Alguien sabe cómo llenar propias matrices dentro de ejemplos?

Respuesta

11

Sí, esto puede ser un poco desalentador cuando estás comenzando. Hay un buen recorrido del proceso en el thisACTS tutorial de 2006; el tutorials listed en la página web de PetSC es generalmente bastante bueno.

Las partes clave de esto son:

ierr = MatCreate(PETSC_COMM_WORLD,&A);CHKERRQ(ierr); 

realidad crear el objeto matriz PetSC, Mat A;

ierr = MatSetSizes(A,PETSC_DECIDE,PETSC_DECIDE,m*n,m*n);CHKERRQ(ierr); 

establece los tamaños; aquí, la matriz es m*n x m*n, ya que es una plantilla para operar sobre una rejilla m x n 2d

ierr = MatSetFromOptions(A);CHKERRQ(ierr); 

Esto sólo se necesita ninguna opción de línea de comandos PetSC que podría haber suministrados en tiempo de ejecución y aplicarlos a la matriz, si quería controlar cómo se configuró A; de lo contrario, podría simplemente, por ejemplo, haber usado MatCreateMPIAIJ() para crearlo como una matriz de formato AIJ (el valor predeterminado), MatCreateMPIDense() si fuera a ser una matriz densa.

ierr = MatMPIAIJSetPreallocation(A,5,PETSC_NULL,5,PETSC_NULL);CHKERRQ(ierr); 
    ierr = MatSeqAIJSetPreallocation(A,5,PETSC_NULL);CHKERRQ(ierr); 

Ahora que hemos conseguido una matriz de actividades conjuntas, estas llamadas simplemente pre-asigna la matriz dispersa, asumiendo 5 no-ceros por fila. Esto es por rendimiento Tenga en cuenta que se deben llamar tanto las funciones MPI como Seq para asegurarse de que esto funcione tanto con 1 procesador como con múltiples procesadores; esto siempre parecía extraño, pero ahí lo tienes.

Bien, ahora que la matriz está configurada, aquí es donde empezamos a entrar en la carne real de la cuestión.

Primero, descubrimos qué filas posee este proceso en particular. La distribución es por filas, que es una buena distribución para matrices dispersas típicas.

ierr = MatGetOwnershipRange(A,&Istart,&Iend);CHKERRQ(ierr); 

Así que después de esta llamada, cada procesador tiene su propia versión de Istart y IEND, y su trabajo de procesadores esta para actualizar filas a partir de finales Istart terminando justo antes IEND, como se ve en este bucle for:

for (Ii=Istart; Ii<Iend; Ii++) { 
    v = -1.0; i = Ii/n; j = Ii - i*n; 

Ok, por lo que si estamos operando en el corredor de Ii, esto corresponde a la ubicación de rejilla (i,j) donde i = Ii/n y j = Ii % n. Por ejemplo, la ubicación de la cuadrícula (i,j) corresponde a la fila Ii = i*n + j. ¿Tiene sentido?

Voy a quitar las declaraciones if aquí porque son importantes, pero solo están lidiando con los valores límite y hacen las cosas más complicadas.

En esta fila, habrá un 4 en la diagonal, y -1S en columnas correspondientes a , (i+1,j), (i,j-1), y (i,j+1). Suponiendo que no hemos ido fuera de la final de la parrilla por éstos (por ejemplo, 1 < i < m-1 y 1 < j < n-1), eso significa

J = Ii - n; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr); 
    J = Ii + n; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr); 
    J = Ii - 1; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr); 
    J = Ii + 1; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr); 

    v = 4.0; ierr = MatSetValues(A,1,&Ii,1,&Ii,&v,INSERT_VALUES);CHKERRQ(ierr); 
    } 

El if me llevó a cabo simplemente evitar el establecimiento de esos valores, si no existen, y el macro CHKERRQ simplemente imprime un error útil si ierr != 0, por ejemplo, la llamada a los valores establecidos falló (porque intentamos establecer un valor no válido).

Ahora hemos establecido los valores locales; las llamadas MatAssembly inician la comunicación para garantizar que se intercambien los valores necesarios entre los procesadores. Si usted tiene cualquier trabajo relacionado a hacer, puede ser atrapado entre el Inicio y Fin para tratar de superponer la comunicación y la computación:

ierr = MatAssemblyBegin(A,MAT_FINAL_ASSEMBLY);CHKERRQ(ierr); 
    ierr = MatAssemblyEnd(A,MAT_FINAL_ASSEMBLY);CHKERRQ(ierr); 

Y ahora que haya terminado y puede llamar a sus solucionadores.

lo tanto, un flujo de trabajo típico es:

  • Cree su matriz (MatCreate)
  • defina su tamaño (MatSetSizes)
  • preparar varias opciones de la matriz (MatSetFromOptions es una buena opción, en lugar de codificar las cosas)
  • Para matrices dispersas, establezca la preasignación en conjeturas razonables para el número de no ceros por fila; puede hacerlo con un valor único (como aquí), o con una matriz que representa el número de no ceros por fila (rellenado aquí con PETSC_NULL): (MatMPIAIJSetPreallocation, MatSeqAIJSetPreallocation)
  • Averigüe qué filas son su responsabilidad: (MatGetOwnershipRange)
  • establecer los valores (que llaman MatSetValues ya sea una vez por valor, o que pasan en un trozo de valores; INSERT_VALUES establece nuevos elementos, ADD_VALUES incrementos de cualquier elementos existentes)
  • luego hacer el conjunto (MatAssemblyBegin, MatAssemblyEnd).

Otros casos de uso más complicados son posibles.

+0

esto necesita más votos – pyCthon

Cuestiones relacionadas