4001f52961144468513073f870cdaaf209d99e73
[alexxy/gromacs.git] / src / gromacs / legacyheaders / pme.h
1 /*
2  * This file is part of the GROMACS molecular simulation package.
3  *
4  * Copyright (c) 1991-2000, University of Groningen, The Netherlands.
5  * Copyright (c) 2001-2004, The GROMACS development team.
6  * Copyright (c) 2013,2014, by the GROMACS development team, led by
7  * Mark Abraham, David van der Spoel, Berk Hess, and Erik Lindahl,
8  * and including many others, as listed in the AUTHORS file in the
9  * top-level source directory and at http://www.gromacs.org.
10  *
11  * GROMACS is free software; you can redistribute it and/or
12  * modify it under the terms of the GNU Lesser General Public License
13  * as published by the Free Software Foundation; either version 2.1
14  * of the License, or (at your option) any later version.
15  *
16  * GROMACS is distributed in the hope that it will be useful,
17  * but WITHOUT ANY WARRANTY; without even the implied warranty of
18  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
19  * Lesser General Public License for more details.
20  *
21  * You should have received a copy of the GNU Lesser General Public
22  * License along with GROMACS; if not, see
23  * http://www.gnu.org/licenses, or write to the Free Software Foundation,
24  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA.
25  *
26  * If you want to redistribute modifications to GROMACS, please
27  * consider that scientific software is very special. Version
28  * control is crucial - bugs must be traceable. We will be happy to
29  * consider code for inclusion in the official distribution, but
30  * derived work must not be called official GROMACS. Details are found
31  * in the README & COPYING files - if they are missing, get the
32  * official version at http://www.gromacs.org.
33  *
34  * To help us fund GROMACS development, we humbly ask that you cite
35  * the research papers on the package. Check out http://www.gromacs.org.
36  */
37
38 #ifndef _pme_h
39 #define _pme_h
40
41 #include <stdio.h>
42 #include "gromacs/legacyheaders/typedefs.h"
43 #include "../math/gmxcomplex.h"
44 #include "../timing/wallcycle.h"
45 #include "../timing/walltime_accounting.h"
46 #include "../legacyheaders/network.h"
47
48 #ifdef __cplusplus
49 extern "C" {
50 #endif
51
52 typedef real *splinevec[DIM];
53
54 enum {
55     GMX_SUM_GRID_FORWARD, GMX_SUM_GRID_BACKWARD
56 };
57
58 int gmx_pme_init(gmx_pme_t *pmedata, t_commrec *cr,
59                  int nnodes_major, int nnodes_minor,
60                  t_inputrec *ir, int homenr,
61                  gmx_bool bFreeEnergy_q, gmx_bool bFreeEnergy_lj,
62                  gmx_bool bReproducible, int nthread);
63 /* Initialize the pme data structures resepectively.
64  * Return value 0 indicates all well, non zero is an error code.
65  */
66
67 int gmx_pme_reinit(gmx_pme_t *         pmedata,
68                    t_commrec *         cr,
69                    gmx_pme_t           pme_src,
70                    const t_inputrec *  ir,
71                    ivec                grid_size);
72 /* As gmx_pme_init, but takes most settings, except the grid, from pme_src */
73
74 int gmx_pme_destroy(FILE *log, gmx_pme_t *pmedata);
75 /* Destroy the pme data structures resepectively.
76  * Return value 0 indicates all well, non zero is an error code.
77  */
78
79 #define GMX_PME_SPREAD        (1<<0)
80 #define GMX_PME_SOLVE         (1<<1)
81 #define GMX_PME_CALC_F        (1<<2)
82 #define GMX_PME_CALC_ENER_VIR (1<<3)
83 /* This forces the grid to be backtransformed even without GMX_PME_CALC_F */
84 #define GMX_PME_CALC_POT      (1<<4)
85
86 /* These values label bits used for sending messages to PME nodes using the
87  * routines in pme_pp.c and shouldn't conflict with the flags used there
88  */
89 #define GMX_PME_DO_COULOMB    (1<<13)
90 #define GMX_PME_DO_LJ         (1<<14)
91
92 #define GMX_PME_DO_ALL_F  (GMX_PME_SPREAD | GMX_PME_SOLVE | GMX_PME_CALC_F)
93
94 int gmx_pme_do(gmx_pme_t pme,
95                int start,       int homenr,
96                rvec x[],        rvec f[],
97                real chargeA[],  real chargeB[],
98                real c6A[],      real c6B[],
99                real sigmaA[],   real sigmaB[],
100                matrix box,      t_commrec *cr,
101                int  maxshift_x, int maxshift_y,
102                t_nrnb *nrnb,    gmx_wallcycle_t wcycle,
103                matrix vir_q,    real ewaldcoeff_q,
104                matrix vir_lj,   real ewaldcoeff_lj,
105                real *energy_q,  real *energy_lj,
106                real lambda_q, real lambda_lj,
107                real *dvdlambda_q, real *dvdlambda_lj,
108                int flags);
109 /* Do a PME calculation for the long range electrostatics and/or LJ.
110  * flags, defined above, determine which parts of the calculation are performed.
111  * Return value 0 indicates all well, non zero is an error code.
112  */
113
114 int gmx_pmeonly(gmx_pme_t pme,
115                 t_commrec *cr,     t_nrnb *mynrnb,
116                 gmx_wallcycle_t wcycle,
117                 gmx_walltime_accounting_t walltime_accounting,
118                 real ewaldcoeff_q, real ewaldcoeff_lj,
119                 t_inputrec *ir);
120 /* Called on the nodes that do PME exclusively (as slaves)
121  */
122
123 void gmx_pme_calc_energy(gmx_pme_t pme, int n, rvec *x, real *q, real *V);
124 /* Calculate the PME grid energy V for n charges with a potential
125  * in the pme struct determined before with a call to gmx_pme_do
126  * with at least GMX_PME_SPREAD and GMX_PME_SOLVE specified.
127  * Note that the charges are not spread on the grid in the pme struct.
128  * Currently does not work in parallel or with free energy.
129  */
130
131 /* The following three routines are for PME/PP node splitting in pme_pp.c */
132
133 /* Abstract type for PME <-> PP communication */
134 typedef struct gmx_pme_pp *gmx_pme_pp_t;
135
136 void gmx_pme_check_restrictions(int pme_order,
137                                 int nkx, int nky, int nkz,
138                                 int nnodes_major,
139                                 int nnodes_minor,
140                                 gmx_bool bUseThreads,
141                                 gmx_bool bFatal,
142                                 gmx_bool *bValidSettings);
143 /* Check restrictions on pme_order and the PME grid nkx,nky,nkz.
144  * With bFatal=TRUE, a fatal error is generated on violation,
145  * bValidSettings=NULL can be passed.
146  * With bFatal=FALSE, *bValidSettings reports the validity of the settings.
147  * bUseThreads tells if any MPI rank doing PME uses more than 1 threads.
148  * If at calling you bUseThreads is unknown, pass TRUE for conservative
149  * checking.
150  */
151
152 gmx_pme_pp_t gmx_pme_pp_init(t_commrec *cr);
153 /* Initialize the PME-only side of the PME <-> PP communication */
154
155 void gmx_pme_send_parameters(t_commrec *cr,
156                              const interaction_const_t *ic,
157                              gmx_bool bFreeEnergy_q, gmx_bool bFreeEnergy_lj,
158                              real *chargeA, real *chargeB,
159                              real *sqrt_c6A, real *sqrt_c6B,
160                              real *sigmaA, real *sigmaB,
161                              int maxshift_x, int maxshift_y);
162 /* Send the charges and maxshift to out PME-only node. */
163
164 void gmx_pme_send_coordinates(t_commrec *cr, matrix box, rvec *x,
165                               gmx_bool bFreeEnergy_q, gmx_bool bFreeEnergy_lj,
166                               real lambda_q, real lambda_lj,
167                               gmx_bool bEnerVir, int pme_flags,
168                               gmx_int64_t step);
169 /* Send the coordinates to our PME-only node and request a PME calculation */
170
171 void gmx_pme_send_finish(t_commrec *cr);
172 /* Tell our PME-only node to finish */
173
174 void gmx_pme_send_switchgrid(t_commrec *cr, ivec grid_size, real ewaldcoeff_q, real ewaldcoeff_lj);
175 /* Tell our PME-only node to switch to a new grid size */
176
177 void gmx_pme_send_resetcounters(t_commrec *cr, gmx_int64_t step);
178 /* Tell our PME-only node to reset all cycle and flop counters */
179
180 void gmx_pme_receive_f(t_commrec *cr,
181                        rvec f[], matrix vir_q, real *energy_q,
182                        matrix vir_lj, real *energy_lj,
183                        real *dvdlambda_q, real *dvdlambda_lj,
184                        float *pme_cycles);
185 /* PP nodes receive the long range forces from the PME nodes */
186
187 /* Return values for gmx_pme_recv_q_x */
188 enum {
189     pmerecvqxX,            /* calculate PME mesh interactions for new x    */
190     pmerecvqxFINISH,       /* the simulation should finish, we should quit */
191     pmerecvqxSWITCHGRID,   /* change the PME grid size                     */
192     pmerecvqxRESETCOUNTERS /* reset the cycle and flop counters            */
193 };
194
195 int gmx_pme_recv_coeffs_coords(gmx_pme_pp_t pme_pp,
196                                int *natoms,
197                                real **chargeA, real **chargeB,
198                                real **sqrt_c6A, real **sqrt_c6B,
199                                real **sigmaA, real **sigmaB,
200                                matrix box, rvec **x, rvec **f,
201                                int *maxshift_x, int *maxshift_y,
202                                gmx_bool *bFreeEnergy_q, gmx_bool *bFreeEnergy_lj,
203                                real *lambda_q, real *lambda_lj,
204                                gmx_bool *bEnerVir, int *pme_flags,
205                                gmx_int64_t *step,
206                                ivec grid_size, real *ewaldcoeff_q, real *ewaldcoeff_lj);
207 ;
208 /* With return value:
209  * pmerecvqxX:             all parameters set, chargeA and chargeB can be NULL
210  * pmerecvqxFINISH:        no parameters set
211  * pmerecvqxSWITCHGRID:    only grid_size and *ewaldcoeff are set
212  * pmerecvqxRESETCOUNTERS: *step is set
213  */
214
215 void gmx_pme_send_force_vir_ener(gmx_pme_pp_t pme_pp,
216                                  rvec *f, matrix vir_q, real energy_q,
217                                  matrix vir_lj, real energy_lj,
218                                  real dvdlambda_q, real dvdlambda_lj,
219                                  float cycles);
220 /* Send the PME mesh force, virial and energy to the PP-only nodes */
221
222 #ifdef __cplusplus
223 }
224 #endif
225
226 #endif