2012-05-30 17 views
5

Sto iniziando ad usare la libreria PETSc per risolvere in parallelo il sistema lineare di equazioni. Ho installato tutti i pacchetti, compilato ed eseguito correttamente gli esempi in petsc/src/ksp/ksp/esempi/tutorial/cartella, ad esempio ex.cSistema lineare di risoluzione PETSc con guida ksp

Ma non riuscivo a capire come riempire le matrici A, X an B leggendoli ad esempio dal file.

Qui fornisco il codice all'interno del file ex2.c:

/* Program usage: mpiexec -n <procs> ex2 [-help] [all PETSc options] */ 

static char help[] = "Solves a linear system in parallel with KSP.\n\ 
Input parameters include:\n\ 
    -random_exact_sol : use a random exact solution vector\n\ 
    -view_exact_sol : write exact solution vector to stdout\n\ 
    -m <mesh_x>  : number of mesh points in x-direction\n\ 
    -n <mesh_n>  : number of mesh points in y-direction\n\n"; 

/*T 
    Concepts: KSP^basic parallel example; 
    Concepts: KSP^Laplacian, 2d 
    Concepts: Laplacian, 2d 
    Processors: n 
T*/ 

/* 
    Include "petscksp.h" so that we can use KSP solvers. Note that this file 
    automatically includes: 
    petscsys.h  - base PETSc routines petscvec.h - vectors 
    petscmat.h - matrices 
    petscis.h  - index sets   petscksp.h - Krylov subspace methods 
    petscviewer.h - viewers    petscpc.h - preconditioners 
*/ 
#include <C:\PETSC\include\petscksp.h> 

#undef __FUNCT__ 
#define __FUNCT__ "main" 
int main(int argc,char **args) 
{ 
    Vec   x,b,u; /* approx solution, RHS, exact solution */ 
    Mat   A;  /* linear system matrix */ 
    KSP   ksp;  /* linear solver context */ 
    PetscRandom rctx;  /* random number generator context */ 
    PetscReal  norm;  /* norm of solution error */ 
    PetscInt  i,j,Ii,J,Istart,Iend,m = 8,n = 7,its; 
    PetscErrorCode ierr; 
    PetscBool  flg = PETSC_FALSE; 
    PetscScalar v; 
#if defined(PETSC_USE_LOG) 
    PetscLogStage stage; 
#endif 

    PetscInitialize(&argc,&args,(char *)0,help); 
    ierr = PetscOptionsGetInt(PETSC_NULL,"-m",&m,PETSC_NULL);CHKERRQ(ierr); 
    ierr = PetscOptionsGetInt(PETSC_NULL,"-n",&n,PETSC_NULL);CHKERRQ(ierr); 
    /* - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
     Compute the matrix and right-hand-side vector that define 
     the linear system, Ax = b. 
    - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - */ 
    /* 
    Create parallel matrix, specifying only its global dimensions. 
    When using MatCreate(), the matrix format can be specified at 
    runtime. Also, the parallel partitioning of the matrix is 
    determined by PETSc at runtime. 

    Performance tuning note: For problems of substantial size, 
    preallocation of matrix memory is crucial for attaining good 
    performance. See the matrix chapter of the users manual for details. 
    */ 
    ierr = MatCreate(PETSC_COMM_WORLD,&A);CHKERRQ(ierr); 
    ierr = MatSetSizes(A,PETSC_DECIDE,PETSC_DECIDE,m*n,m*n);CHKERRQ(ierr); 
    ierr = MatSetFromOptions(A);CHKERRQ(ierr); 
    ierr = MatMPIAIJSetPreallocation(A,5,PETSC_NULL,5,PETSC_NULL);CHKERRQ(ierr); 
    ierr = MatSeqAIJSetPreallocation(A,5,PETSC_NULL);CHKERRQ(ierr); 

    /* 
    Currently, all PETSc parallel matrix formats are partitioned by 
    contiguous chunks of rows across the processors. Determine which 
    rows of the matrix are locally owned. 
    */ 
    ierr = MatGetOwnershipRange(A,&Istart,&Iend);CHKERRQ(ierr); 

    /* 
    Set matrix elements for the 2-D, five-point stencil in parallel. 
     - Each processor needs to insert only elements that it owns 
     locally (but any non-local elements will be sent to the 
     appropriate processor during matrix assembly). 
     - Always specify global rows and columns of matrix entries. 

    Note: this uses the less common natural ordering that orders first 
    all the unknowns for x = h then for x = 2h etc; Hence you see J = Ii +- n 
    instead of J = I +- m as you might expect. The more standard ordering 
    would first do all variables for y = h, then y = 2h etc. 

    */ 
    ierr = PetscLogStageRegister("Assembly", &stage);CHKERRQ(ierr); 
    ierr = PetscLogStagePush(stage);CHKERRQ(ierr); 
    for (Ii=Istart; Ii<Iend; Ii++) { 
    v = -1.0; i = Ii/n; j = Ii - i*n; 
    if (i>0) {J = Ii - n; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr);} 
    if (i<m-1) {J = Ii + n; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr);} 
    if (j>0) {J = Ii - 1; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr);} 
    if (j<n-1) {J = Ii + 1; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr);} 
    v = 4.0; ierr = MatSetValues(A,1,&Ii,1,&Ii,&v,INSERT_VALUES);CHKERRQ(ierr); 
    } 

    /* 
    Assemble matrix, using the 2-step process: 
     MatAssemblyBegin(), MatAssemblyEnd() 
    Computations can be done while messages are in transition 
    by placing code between these two statements. 
    */ 
    ierr = MatAssemblyBegin(A,MAT_FINAL_ASSEMBLY);CHKERRQ(ierr); 
    ierr = MatAssemblyEnd(A,MAT_FINAL_ASSEMBLY);CHKERRQ(ierr); 
    ierr = PetscLogStagePop();CHKERRQ(ierr); 

    /* A is symmetric. Set symmetric flag to enable ICC/Cholesky preconditioner */ 
    ierr = MatSetOption(A,MAT_SYMMETRIC,PETSC_TRUE);CHKERRQ(ierr); 

    /* 
    Create parallel vectors. 
     - We form 1 vector from scratch and then duplicate as needed. 
     - When using VecCreate(), VecSetSizes and VecSetFromOptions() 
     in this example, we specify only the 
     vector's global dimension; the parallel partitioning is determined 
     at runtime. 
     - When solving a linear system, the vectors and matrices MUST 
     be partitioned accordingly. PETSc automatically generates 
     appropriately partitioned matrices and vectors when MatCreate() 
     and VecCreate() are used with the same communicator. 
     - The user can alternatively specify the local vector and matrix 
     dimensions when more sophisticated partitioning is needed 
     (replacing the PETSC_DECIDE argument in the VecSetSizes() statement 
     below). 
    */ 
    ierr = VecCreate(PETSC_COMM_WORLD,&u);CHKERRQ(ierr); 
    ierr = VecSetSizes(u,PETSC_DECIDE,m*n);CHKERRQ(ierr); 
    ierr = VecSetFromOptions(u);CHKERRQ(ierr); 
    ierr = VecDuplicate(u,&b);CHKERRQ(ierr); 
    ierr = VecDuplicate(b,&x);CHKERRQ(ierr); 

    /* 
    Set exact solution; then compute right-hand-side vector. 
    By default we use an exact solution of a vector with all 
    elements of 1.0; Alternatively, using the runtime option 
    -random_sol forms a solution vector with random components. 
    */ 
    ierr = PetscOptionsGetBool(PETSC_NULL,"-random_exact_sol",&flg,PETSC_NULL);CHKERRQ(ierr); 
    if (flg) { 
    ierr = PetscRandomCreate(PETSC_COMM_WORLD,&rctx);CHKERRQ(ierr); 
    ierr = PetscRandomSetFromOptions(rctx);CHKERRQ(ierr); 
    ierr = VecSetRandom(u,rctx);CHKERRQ(ierr); 
    ierr = PetscRandomDestroy(&rctx);CHKERRQ(ierr); 
    } else { 
    ierr = VecSet(u,1.0);CHKERRQ(ierr); 
    } 
    ierr = MatMult(A,u,b);CHKERRQ(ierr); 

    /* 
    View the exact solution vector if desired 
    */ 
    flg = PETSC_FALSE; 
    ierr = PetscOptionsGetBool(PETSC_NULL,"-view_exact_sol",&flg,PETSC_NULL);CHKERRQ(ierr); 
    if (flg) {ierr = VecView(u,PETSC_VIEWER_STDOUT_WORLD);CHKERRQ(ierr);} 

    /* - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
       Create the linear solver and set various options 
    - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - */ 

    /* 
    Create linear solver context 
    */ 
    ierr = KSPCreate(PETSC_COMM_WORLD,&ksp);CHKERRQ(ierr); 

    /* 
    Set operators. Here the matrix that defines the linear system 
    also serves as the preconditioning matrix. 
    */ 
    ierr = KSPSetOperators(ksp,A,A,DIFFERENT_NONZERO_PATTERN);CHKERRQ(ierr); 

    /* 
    Set linear solver defaults for this problem (optional). 
    - By extracting the KSP and PC contexts from the KSP context, 
     we can then directly call any KSP and PC routines to set 
     various options. 
    - The following two statements are optional; all of these 
     parameters could alternatively be specified at runtime via 
     KSPSetFromOptions(). All of these defaults can be 
     overridden at runtime, as indicated below. 
    */ 
    ierr = KSPSetTolerances(ksp,1.e-2/((m+1)*(n+1)),1.e-50,PETSC_DEFAULT, 
          PETSC_DEFAULT);CHKERRQ(ierr); 

    /* 
    Set runtime options, e.g., 
     -ksp_type <type> -pc_type <type> -ksp_monitor -ksp_rtol <rtol> 
    These options will override those specified above as long as 
    KSPSetFromOptions() is called _after_ any other customization 
    routines. 
    */ 
    ierr = KSPSetFromOptions(ksp);CHKERRQ(ierr); 

    /* - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
         Solve the linear system 
    - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - */ 

    ierr = KSPSolve(ksp,b,x);CHKERRQ(ierr); 

    /* - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
         Check solution and clean up 
    - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - */ 

    /* 
    Check the error 
    */ 
    ierr = VecAXPY(x,-1.0,u);CHKERRQ(ierr); 
    ierr = VecNorm(x,NORM_2,&norm);CHKERRQ(ierr); 
    ierr = KSPGetIterationNumber(ksp,&its);CHKERRQ(ierr); 
    /* Scale the norm */ 
    /* norm *= sqrt(1.0/((m+1)*(n+1))); */ 

    /* 
    Print convergence information. PetscPrintf() produces a single 
    print statement from all processes that share a communicator. 
    An alternative is PetscFPrintf(), which prints to a file. 
    */ 
    ierr = PetscPrintf(PETSC_COMM_WORLD,"Norm of error %A iterations %D\n", 
        norm,its);CHKERRQ(ierr); 

    /* 
    Free work space. All PETSc objects should be destroyed when they 
    are no longer needed. 
    */ 
    ierr = KSPDestroy(&ksp);CHKERRQ(ierr); 
    ierr = VecDestroy(&u);CHKERRQ(ierr); ierr = VecDestroy(&x);CHKERRQ(ierr); 
    ierr = VecDestroy(&b);CHKERRQ(ierr); ierr = MatDestroy(&A);CHKERRQ(ierr); 

    /* 
    Always call PetscFinalize() before exiting a program. This routine 
     - finalizes the PETSc libraries as well as MPI 
     - provides summary and diagnostic information if certain runtime 
     options are chosen (e.g., -log_summary). 
    */ 
    ierr = PetscFinalize(); 
    return 0; 
} 

Qualcuno sa come riempire proprie matrici all'interno di esempi?

risposta

11

Sì, questo può essere un po 'scoraggiante quando si inizia. Esiste un buon resoconto del processo nel tutorial thisACTS del 2006; lo tutorials listed sulla pagina Web di PetSC è generalmente abbastanza buono.

Le fasi fondamentali di questa sono:

ierr = MatCreate(PETSC_COMM_WORLD,&A);CHKERRQ(ierr); 

realtà creare l'oggetto matrice PetSC, Mat A;

ierr = MatSetSizes(A,PETSC_DECIDE,PETSC_DECIDE,m*n,m*n);CHKERRQ(ierr); 

impostare le dimensioni; qui, la matrice è m*n x m*n, in quanto è uno stencil per operare su una griglia m x n 2d

ierr = MatSetFromOptions(A);CHKERRQ(ierr); 

Questo solo prende tutte le opzioni della riga di comando PetSC che si potrebbe avere in dotazione in fase di esecuzione e li applica alla matrice, se si voleva controllare come è stato creato A; altrimenti, si potrebbe, ad esempio, utilizzare MatCreateMPIAIJ() per crearlo come matrice di formato AIJ (impostazione predefinita), se si trattasse di una matrice densa.

ierr = MatMPIAIJSetPreallocation(A,5,PETSC_NULL,5,PETSC_NULL);CHKERRQ(ierr); 
    ierr = MatSeqAIJSetPreallocation(A,5,PETSC_NULL);CHKERRQ(ierr); 

Ora che abbiamo ottenuto una matrice AIJ, queste chiamate semplicemente pre-alloca la matrice sparsa, assumendo 5 non zeri per riga. Questo è per le prestazioni. Si noti che entrambe le funzioni MPI e Seq devono essere chiamate per assicurarsi che funzioni sia con 1 processore sia con più processori; questo mi è sempre sembrato strano, ma ci sei.

Ok, ora che la matrice è impostata, ecco dove iniziamo a entrare nella vera carne della questione.

In primo luogo, scopriamo quali righe questo processo particolare possiede. La distribuzione è per righe, che è una buona distribuzione per le tipiche matrici sparse.

ierr = MatGetOwnershipRange(A,&Istart,&Iend);CHKERRQ(ierr); 

Così, dopo questa chiamata, ogni processore ha la propria versione di ISTART e IEND, e il suo compito processori questo per aggiornare le righe a partire da fine istart fine poco prima IEND, come si vede in questo ciclo for:

for (Ii=Istart; Ii<Iend; Ii++) { 
    v = -1.0; i = Ii/n; j = Ii - i*n; 

Ok, quindi se stiamo operando nel braccio Ii, ciò corrisponde a posizione della griglia (i,j) dove i = Ii/n e j = Ii % n. Ad esempio, la posizione della griglia (i,j) corrisponde alla riga Ii = i*n + j. Ha senso?

Spiegherò qui le affermazioni if ​​perché sono importanti ma stanno solo trattando i valori dei confini e rendono le cose più complicate.

In questa riga, ci sarà un +4 sulla diagonale, e -1S alle colonne corrispondenti ai , (i+1,j), (i,j-1) e (i,j+1). Partendo dal presupposto che non siamo andati fuori alla fine della griglia per queste (ad esempio, 1 < i < m-1 e 1 < j < n-1), questo significa che

J = Ii - n; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr); 
    J = Ii + n; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr); 
    J = Ii - 1; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr); 
    J = Ii + 1; ierr = MatSetValues(A,1,&Ii,1,&J,&v,INSERT_VALUES);CHKERRQ(ierr); 

    v = 4.0; ierr = MatSetValues(A,1,&Ii,1,&Ii,&v,INSERT_VALUES);CHKERRQ(ierr); 
    } 

Il se le dichiarazioni che ho fatto fuori solo evitare di impostare questi valori, se non esistono, e la macro CHKERRQ stampa un errore utile se ierr != 0, ad esempio la chiamata dei valori impostati non è riuscita (perché abbiamo provato a impostare un valore non valido).

Ora abbiamo impostato i valori locali; le chiamate MatAssembly avviano la comunicazione per garantire che vengano scambiati i valori necessari tra i processori. Se avete qualche lavoro estranei a farlo, può essere bloccato tra il iniziano e finiscono per cercare di sovrapporre la comunicazione e calcolo:

ierr = MatAssemblyBegin(A,MAT_FINAL_ASSEMBLY);CHKERRQ(ierr); 
    ierr = MatAssemblyEnd(A,MAT_FINAL_ASSEMBLY);CHKERRQ(ierr); 

E ora il gioco è fatto e puoi chiamare i tuoi risolutori.

Così un flusso di lavoro tipico è:

  • Crea la matrice (MatCreate)
  • Impostare le sue dimensioni (MatSetSizes)
  • Imposta varie opzioni di matrice (MatSetFromOptions è una buona scelta, piuttosto che brutalmente le cose)
  • Per le matrici sparse, impostare la preallocazione su supposizioni ragionevoli per il numero di non zeri per riga; puoi farlo con un singolo valore (come qui) o con un array che rappresenta il numero di non zeri per riga (qui compilato con PETSC_NULL): (MatMPIAIJSetPreallocation, MatSeqAIJSetPreallocation)
  • Scopri quali righe sono sotto la tua responsabilità: (MatGetOwnershipRange)
  • Impostare i valori (chiamata MatSetValues o una volta ogni valore o di passaggio di un pezzo di valori; INSERT_VALUES insiemi nuovi elementi, ADD_VALUES incrementi eventuali elementi esistenti)
  • quindi eseguire il montaggio (MatAssemblyBegin, MatAssemblyEnd).

Altri casi d'uso più complicati sono possibili.

+0

questo ha bisogno di più voti – pyCthon

Problemi correlati