Merge branch 'release-4-6' into master
[alexxy/gromacs.git] / src / gromacs / legacyheaders / pme.h
1 /*
2  *
3  *                This source code is part of
4  *
5  *                 G   R   O   M   A   C   S
6  *
7  *          GROningen MAchine for Chemical Simulations
8  *
9  *                        VERSION 3.2.0
10  * Written by David van der Spoel, Erik Lindahl, Berk Hess, and others.
11  * Copyright (c) 1991-2000, University of Groningen, The Netherlands.
12  * Copyright (c) 2001-2004, The GROMACS development team,
13  * check out http://www.gromacs.org for more information.
14
15  * This program is free software; you can redistribute it and/or
16  * modify it under the terms of the GNU General Public License
17  * as published by the Free Software Foundation; either version 2
18  * of the License, or (at your option) any later version.
19  *
20  * If you want to redistribute modifications, please consider that
21  * scientific software is very special. Version control is crucial -
22  * bugs must be traceable. We will be happy to consider code for
23  * inclusion in the official distribution, but derived work must not
24  * be called official GROMACS. Details are found in the README & COPYING
25  * files - if they are missing, get the official version at www.gromacs.org.
26  *
27  * To help us fund GROMACS development, we humbly ask that you cite
28  * the papers on the package - you can find them in the top README file.
29  *
30  * For more info, check our website at http://www.gromacs.org
31  *
32  * And Hey:
33  * Gromacs Runs On Most of All Computer Systems
34  */
35
36 #ifndef _pme_h
37 #define _pme_h
38
39 #include <stdio.h>
40 #include "typedefs.h"
41 #include "gmxcomplex.h"
42 #include "gmx_wallcycle.h"
43
44 #ifdef __cplusplus
45 extern "C" {
46 #endif
47
48 typedef real *splinevec[DIM];
49
50 enum {
51     GMX_SUM_QGRID_FORWARD, GMX_SUM_QGRID_BACKWARD
52 };
53
54 int gmx_pme_init(gmx_pme_t *pmedata, t_commrec *cr,
55                  int nnodes_major, int nnodes_minor,
56                  t_inputrec *ir, int homenr,
57                  gmx_bool bFreeEnergy, gmx_bool bReproducible, int nthread);
58 /* Initialize the pme data structures resepectively.
59  * Return value 0 indicates all well, non zero is an error code.
60  */
61
62 int gmx_pme_reinit(gmx_pme_t *         pmedata,
63                    t_commrec *         cr,
64                    gmx_pme_t           pme_src,
65                    const t_inputrec *  ir,
66                    ivec                grid_size);
67 /* As gmx_pme_init, but takes most settings, except the grid, from pme_src */
68
69 int gmx_pme_destroy(FILE *log, gmx_pme_t *pmedata);
70 /* Destroy the pme data structures resepectively.
71  * Return value 0 indicates all well, non zero is an error code.
72  */
73
74 #define GMX_PME_SPREAD_Q      (1<<0)
75 #define GMX_PME_SOLVE         (1<<1)
76 #define GMX_PME_CALC_F        (1<<2)
77 #define GMX_PME_CALC_ENER_VIR (1<<3)
78 /* This forces the grid to be backtransformed even without GMX_PME_CALC_F */
79 #define GMX_PME_CALC_POT      (1<<4)
80 #define GMX_PME_DO_ALL_F  (GMX_PME_SPREAD_Q | GMX_PME_SOLVE | GMX_PME_CALC_F)
81
82 int gmx_pme_do(gmx_pme_t pme,
83                int start,       int homenr,
84                rvec x[],        rvec f[],
85                real chargeA[],  real chargeB[],
86                matrix box,      t_commrec *cr,
87                int  maxshift_x, int maxshift_y,
88                t_nrnb *nrnb,    gmx_wallcycle_t wcycle,
89                matrix lrvir,    real ewaldcoeff,
90                real *energy,    real lambda,
91                real *dvdlambda, int flags);
92 /* Do a PME calculation for the long range electrostatics.
93  * flags, defined above, determine which parts of the calculation are performed.
94  * Return value 0 indicates all well, non zero is an error code.
95  */
96
97 int gmx_pmeonly(gmx_pme_t pme,
98                 t_commrec *cr,     t_nrnb *mynrnb,
99                 gmx_wallcycle_t wcycle,
100                 real ewaldcoeff,   gmx_bool bGatherOnly,
101                 t_inputrec *ir);
102 /* Called on the nodes that do PME exclusively (as slaves)
103  */
104
105 void gmx_pme_calc_energy(gmx_pme_t pme, int n, rvec *x, real *q, real *V);
106 /* Calculate the PME grid energy V for n charges with a potential
107  * in the pme struct determined before with a call to gmx_pme_do
108  * with at least GMX_PME_SPREAD_Q and GMX_PME_SOLVE specified.
109  * Note that the charges are not spread on the grid in the pme struct.
110  * Currently does not work in parallel or with free energy.
111  */
112
113 /* The following three routines are for PME/PP node splitting in pme_pp.c */
114
115 /* Abstract type for PME <-> PP communication */
116 typedef struct gmx_pme_pp *gmx_pme_pp_t;
117
118 void gmx_pme_check_restrictions(int pme_order,
119                                 int nkx, int nky, int nkz,
120                                 int nnodes_major,
121                                 int nnodes_minor,
122                                 gmx_bool bUseThreads,
123                                 gmx_bool bFatal,
124                                 gmx_bool *bValidSettings);
125 /* Check restrictions on pme_order and the PME grid nkx,nky,nkz.
126  * With bFatal=TRUE, a fatal error is generated on violation,
127  * bValidSettings=NULL can be passed.
128  * With bFatal=FALSE, *bValidSettings reports the validity of the settings.
129  * bUseThreads tells if any MPI rank doing PME uses more than 1 threads.
130  * If at calling you bUseThreads is unknown, pass TRUE for conservative
131  * checking.
132  */
133
134 gmx_pme_pp_t gmx_pme_pp_init(t_commrec *cr);
135 /* Initialize the PME-only side of the PME <-> PP communication */
136
137 void gmx_pme_send_q(t_commrec *cr,
138                     gmx_bool bFreeEnergy, real *chargeA, real *chargeB,
139                     int maxshift_x, int maxshift_y);
140 /* Send the charges and maxshift to out PME-only node. */
141
142 void gmx_pme_send_x(t_commrec *cr, matrix box, rvec *x,
143                     gmx_bool bFreeEnergy, real lambda,
144                     gmx_bool bEnerVir,
145                     gmx_large_int_t step);
146 /* Send the coordinates to our PME-only node and request a PME calculation */
147
148 void gmx_pme_send_finish(t_commrec *cr);
149 /* Tell our PME-only node to finish */
150
151 void gmx_pme_send_switchgrid(t_commrec *cr, ivec grid_size, real ewaldcoeff);
152 /* Tell our PME-only node to switch to a new grid size */
153
154 void gmx_pme_send_resetcounters(t_commrec *cr, gmx_large_int_t step);
155 /* Tell our PME-only node to reset all cycle and flop counters */
156
157 void gmx_pme_receive_f(t_commrec *cr,
158                        rvec f[], matrix vir,
159                        real *energy, real *dvdlambda,
160                        float *pme_cycles);
161 /* PP nodes receive the long range forces from the PME nodes */
162
163 /* Return values for gmx_pme_recv_q_x */
164 enum {
165     pmerecvqxX,            /* calculate PME mesh interactions for new x    */
166     pmerecvqxFINISH,       /* the simulation should finish, we should quit */
167     pmerecvqxSWITCHGRID,   /* change the PME grid size                     */
168     pmerecvqxRESETCOUNTERS /* reset the cycle and flop counters            */
169 };
170
171 int gmx_pme_recv_q_x(gmx_pme_pp_t pme_pp,
172                      int *natoms,
173                      real **chargeA, real **chargeB,
174                      matrix box, rvec **x, rvec **f,
175                      int *maxshift_x, int *maxshift_y,
176                      gmx_bool *bFreeEnergy, real *lambda,
177                      gmx_bool *bEnerVir,
178                      gmx_large_int_t *step,
179                      ivec grid_size, real *ewaldcoeff);
180 ;
181 /* With return value:
182  * pmerecvqxX:             all parameters set, chargeA and chargeB can be NULL
183  * pmerecvqxFINISH:        no parameters set
184  * pmerecvqxSWITCHGRID:    only grid_size and *ewaldcoeff are set
185  * pmerecvqxRESETCOUNTERS: *step is set
186  */
187
188 void gmx_pme_send_force_vir_ener(gmx_pme_pp_t pme_pp,
189                                  rvec *f, matrix vir,
190                                  real energy, real dvdlambda,
191                                  float cycles);
192 /* Send the PME mesh force, virial and energy to the PP-only nodes */
193
194 #ifdef __cplusplus
195 }
196 #endif
197
198 #endif