Reenabled SIMD kernels without cut-offs
[alexxy/gromacs.git] / src / gromacs / mdlib / forcerec.cpp
1 /*
2  * This file is part of the GROMACS molecular simulation package.
3  *
4  * Copyright (c) 1991-2000, University of Groningen, The Netherlands.
5  * Copyright (c) 2001-2004, The GROMACS development team.
6  * Copyright (c) 2013,2014,2015, by the GROMACS development team, led by
7  * Mark Abraham, David van der Spoel, Berk Hess, and Erik Lindahl,
8  * and including many others, as listed in the AUTHORS file in the
9  * top-level source directory and at http://www.gromacs.org.
10  *
11  * GROMACS is free software; you can redistribute it and/or
12  * modify it under the terms of the GNU Lesser General Public License
13  * as published by the Free Software Foundation; either version 2.1
14  * of the License, or (at your option) any later version.
15  *
16  * GROMACS is distributed in the hope that it will be useful,
17  * but WITHOUT ANY WARRANTY; without even the implied warranty of
18  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
19  * Lesser General Public License for more details.
20  *
21  * You should have received a copy of the GNU Lesser General Public
22  * License along with GROMACS; if not, see
23  * http://www.gnu.org/licenses, or write to the Free Software Foundation,
24  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA.
25  *
26  * If you want to redistribute modifications to GROMACS, please
27  * consider that scientific software is very special. Version
28  * control is crucial - bugs must be traceable. We will be happy to
29  * consider code for inclusion in the official distribution, but
30  * derived work must not be called official GROMACS. Details are found
31  * in the README & COPYING files - if they are missing, get the
32  * official version at http://www.gromacs.org.
33  *
34  * To help us fund GROMACS development, we humbly ask that you cite
35  * the research papers on the package. Check out http://www.gromacs.org.
36  */
37 #include "gmxpre.h"
38
39 #include "config.h"
40
41 #include <assert.h>
42 #include <math.h>
43 #include <stdlib.h>
44 #include <string.h>
45
46 #include <algorithm>
47
48 #include "gromacs/domdec/domdec.h"
49 #include "gromacs/ewald/ewald.h"
50 #include "gromacs/gmxlib/gpu_utils/gpu_utils.h"
51 #include "gromacs/legacyheaders/copyrite.h"
52 #include "gromacs/legacyheaders/force.h"
53 #include "gromacs/legacyheaders/gmx_detect_hardware.h"
54 #include "gromacs/legacyheaders/gmx_omp_nthreads.h"
55 #include "gromacs/legacyheaders/inputrec.h"
56 #include "gromacs/legacyheaders/macros.h"
57 #include "gromacs/legacyheaders/md_logging.h"
58 #include "gromacs/legacyheaders/md_support.h"
59 #include "gromacs/legacyheaders/names.h"
60 #include "gromacs/legacyheaders/network.h"
61 #include "gromacs/legacyheaders/nonbonded.h"
62 #include "gromacs/legacyheaders/ns.h"
63 #include "gromacs/legacyheaders/qmmm.h"
64 #include "gromacs/legacyheaders/tables.h"
65 #include "gromacs/legacyheaders/txtdump.h"
66 #include "gromacs/legacyheaders/typedefs.h"
67 #include "gromacs/legacyheaders/types/commrec.h"
68 #include "gromacs/listed-forces/manage-threading.h"
69 #include "gromacs/math/calculate-ewald-splitting-coefficient.h"
70 #include "gromacs/math/units.h"
71 #include "gromacs/math/utilities.h"
72 #include "gromacs/math/vec.h"
73 #include "gromacs/mdlib/forcerec-threading.h"
74 #include "gromacs/mdlib/nb_verlet.h"
75 #include "gromacs/mdlib/nbnxn_atomdata.h"
76 #include "gromacs/mdlib/nbnxn_consts.h"
77 #include "gromacs/mdlib/nbnxn_gpu_data_mgmt.h"
78 #include "gromacs/mdlib/nbnxn_search.h"
79 #include "gromacs/mdlib/nbnxn_simd.h"
80 #include "gromacs/pbcutil/ishift.h"
81 #include "gromacs/pbcutil/pbc.h"
82 #include "gromacs/simd/simd.h"
83 #include "gromacs/topology/mtop_util.h"
84 #include "gromacs/utility/fatalerror.h"
85 #include "gromacs/utility/smalloc.h"
86
87 #include "nbnxn_gpu_jit_support.h"
88
89 t_forcerec *mk_forcerec(void)
90 {
91     t_forcerec *fr;
92
93     snew(fr, 1);
94
95     return fr;
96 }
97
98 #ifdef DEBUG
99 static void pr_nbfp(FILE *fp, real *nbfp, gmx_bool bBHAM, int atnr)
100 {
101     int i, j;
102
103     for (i = 0; (i < atnr); i++)
104     {
105         for (j = 0; (j < atnr); j++)
106         {
107             fprintf(fp, "%2d - %2d", i, j);
108             if (bBHAM)
109             {
110                 fprintf(fp, "  a=%10g, b=%10g, c=%10g\n", BHAMA(nbfp, atnr, i, j),
111                         BHAMB(nbfp, atnr, i, j), BHAMC(nbfp, atnr, i, j)/6.0);
112             }
113             else
114             {
115                 fprintf(fp, "  c6=%10g, c12=%10g\n", C6(nbfp, atnr, i, j)/6.0,
116                         C12(nbfp, atnr, i, j)/12.0);
117             }
118         }
119     }
120 }
121 #endif
122
123 static real *mk_nbfp(const gmx_ffparams_t *idef, gmx_bool bBHAM)
124 {
125     real *nbfp;
126     int   i, j, k, atnr;
127
128     atnr = idef->atnr;
129     if (bBHAM)
130     {
131         snew(nbfp, 3*atnr*atnr);
132         for (i = k = 0; (i < atnr); i++)
133         {
134             for (j = 0; (j < atnr); j++, k++)
135             {
136                 BHAMA(nbfp, atnr, i, j) = idef->iparams[k].bham.a;
137                 BHAMB(nbfp, atnr, i, j) = idef->iparams[k].bham.b;
138                 /* nbfp now includes the 6.0 derivative prefactor */
139                 BHAMC(nbfp, atnr, i, j) = idef->iparams[k].bham.c*6.0;
140             }
141         }
142     }
143     else
144     {
145         snew(nbfp, 2*atnr*atnr);
146         for (i = k = 0; (i < atnr); i++)
147         {
148             for (j = 0; (j < atnr); j++, k++)
149             {
150                 /* nbfp now includes the 6.0/12.0 derivative prefactors */
151                 C6(nbfp, atnr, i, j)   = idef->iparams[k].lj.c6*6.0;
152                 C12(nbfp, atnr, i, j)  = idef->iparams[k].lj.c12*12.0;
153             }
154         }
155     }
156
157     return nbfp;
158 }
159
160 static real *make_ljpme_c6grid(const gmx_ffparams_t *idef, t_forcerec *fr)
161 {
162     int        i, j, k, atnr;
163     real       c6, c6i, c6j, c12i, c12j, epsi, epsj, sigmai, sigmaj;
164     real      *grid;
165     const real oneOverSix = 1.0 / 6.0;
166
167     /* For LJ-PME simulations, we correct the energies with the reciprocal space
168      * inside of the cut-off. To do this the non-bonded kernels needs to have
169      * access to the C6-values used on the reciprocal grid in pme.c
170      */
171
172     atnr = idef->atnr;
173     snew(grid, 2*atnr*atnr);
174     for (i = k = 0; (i < atnr); i++)
175     {
176         for (j = 0; (j < atnr); j++, k++)
177         {
178             c6i  = idef->iparams[i*(atnr+1)].lj.c6;
179             c12i = idef->iparams[i*(atnr+1)].lj.c12;
180             c6j  = idef->iparams[j*(atnr+1)].lj.c6;
181             c12j = idef->iparams[j*(atnr+1)].lj.c12;
182             c6   = sqrt(c6i * c6j);
183             if (fr->ljpme_combination_rule == eljpmeLB
184                 && !gmx_numzero(c6) && !gmx_numzero(c12i) && !gmx_numzero(c12j))
185             {
186                 sigmai = pow(c12i / c6i, oneOverSix);
187                 sigmaj = pow(c12j / c6j, oneOverSix);
188                 epsi   = c6i * c6i / c12i;
189                 epsj   = c6j * c6j / c12j;
190                 c6     = sqrt(epsi * epsj) * pow(0.5*(sigmai+sigmaj), 6);
191             }
192             /* Store the elements at the same relative positions as C6 in nbfp in order
193              * to simplify access in the kernels
194              */
195             grid[2*(atnr*i+j)] = c6*6.0;
196         }
197     }
198     return grid;
199 }
200
201 static real *mk_nbfp_combination_rule(const gmx_ffparams_t *idef, int comb_rule)
202 {
203     real      *nbfp;
204     int        i, j, atnr;
205     real       c6i, c6j, c12i, c12j, epsi, epsj, sigmai, sigmaj;
206     real       c6, c12;
207     const real oneOverSix = 1.0 / 6.0;
208
209     atnr = idef->atnr;
210     snew(nbfp, 2*atnr*atnr);
211     for (i = 0; i < atnr; ++i)
212     {
213         for (j = 0; j < atnr; ++j)
214         {
215             c6i  = idef->iparams[i*(atnr+1)].lj.c6;
216             c12i = idef->iparams[i*(atnr+1)].lj.c12;
217             c6j  = idef->iparams[j*(atnr+1)].lj.c6;
218             c12j = idef->iparams[j*(atnr+1)].lj.c12;
219             c6   = sqrt(c6i  * c6j);
220             c12  = sqrt(c12i * c12j);
221             if (comb_rule == eCOMB_ARITHMETIC
222                 && !gmx_numzero(c6) && !gmx_numzero(c12))
223             {
224                 sigmai = pow(c12i / c6i, oneOverSix);
225                 sigmaj = pow(c12j / c6j, oneOverSix);
226                 epsi   = c6i * c6i / c12i;
227                 epsj   = c6j * c6j / c12j;
228                 c6     = sqrt(epsi * epsj) * pow(0.5*(sigmai+sigmaj), 6);
229                 c12    = sqrt(epsi * epsj) * pow(0.5*(sigmai+sigmaj), 12);
230             }
231             C6(nbfp, atnr, i, j)   = c6*6.0;
232             C12(nbfp, atnr, i, j)  = c12*12.0;
233         }
234     }
235     return nbfp;
236 }
237
238 /* This routine sets fr->solvent_opt to the most common solvent in the
239  * system, e.g. esolSPC or esolTIP4P. It will also mark each charge group in
240  * the fr->solvent_type array with the correct type (or esolNO).
241  *
242  * Charge groups that fulfill the conditions but are not identical to the
243  * most common one will be marked as esolNO in the solvent_type array.
244  *
245  * TIP3p is identical to SPC for these purposes, so we call it
246  * SPC in the arrays (Apologies to Bill Jorgensen ;-)
247  *
248  * NOTE: QM particle should not
249  * become an optimized solvent. Not even if there is only one charge
250  * group in the Qm
251  */
252
253 typedef struct
254 {
255     int    model;
256     int    count;
257     int    vdwtype[4];
258     real   charge[4];
259 } solvent_parameters_t;
260
261 static void
262 check_solvent_cg(const gmx_moltype_t    *molt,
263                  int                     cg0,
264                  int                     nmol,
265                  const unsigned char    *qm_grpnr,
266                  const t_grps           *qm_grps,
267                  t_forcerec   *          fr,
268                  int                    *n_solvent_parameters,
269                  solvent_parameters_t  **solvent_parameters_p,
270                  int                     cginfo,
271                  int                    *cg_sp)
272 {
273     t_atom               *atom;
274     int                   j, k;
275     int                   j0, j1, nj;
276     gmx_bool              perturbed;
277     gmx_bool              has_vdw[4];
278     gmx_bool              match;
279     real                  tmp_charge[4]  = { 0.0 }; /* init to zero to make gcc4.8 happy */
280     int                   tmp_vdwtype[4] = { 0 };   /* init to zero to make gcc4.8 happy */
281     int                   tjA;
282     gmx_bool              qm;
283     solvent_parameters_t *solvent_parameters;
284
285     /* We use a list with parameters for each solvent type.
286      * Every time we discover a new molecule that fulfills the basic
287      * conditions for a solvent we compare with the previous entries
288      * in these lists. If the parameters are the same we just increment
289      * the counter for that type, and otherwise we create a new type
290      * based on the current molecule.
291      *
292      * Once we've finished going through all molecules we check which
293      * solvent is most common, and mark all those molecules while we
294      * clear the flag on all others.
295      */
296
297     solvent_parameters = *solvent_parameters_p;
298
299     /* Mark the cg first as non optimized */
300     *cg_sp = -1;
301
302     /* Check if this cg has no exclusions with atoms in other charge groups
303      * and all atoms inside the charge group excluded.
304      * We only have 3 or 4 atom solvent loops.
305      */
306     if (GET_CGINFO_EXCL_INTER(cginfo) ||
307         !GET_CGINFO_EXCL_INTRA(cginfo))
308     {
309         return;
310     }
311
312     /* Get the indices of the first atom in this charge group */
313     j0     = molt->cgs.index[cg0];
314     j1     = molt->cgs.index[cg0+1];
315
316     /* Number of atoms in our molecule */
317     nj     = j1 - j0;
318
319     if (debug)
320     {
321         fprintf(debug,
322                 "Moltype '%s': there are %d atoms in this charge group\n",
323                 *molt->name, nj);
324     }
325
326     /* Check if it could be an SPC (3 atoms) or TIP4p (4) water,
327      * otherwise skip it.
328      */
329     if (nj < 3 || nj > 4)
330     {
331         return;
332     }
333
334     /* Check if we are doing QM on this group */
335     qm = FALSE;
336     if (qm_grpnr != NULL)
337     {
338         for (j = j0; j < j1 && !qm; j++)
339         {
340             qm = (qm_grpnr[j] < qm_grps->nr - 1);
341         }
342     }
343     /* Cannot use solvent optimization with QM */
344     if (qm)
345     {
346         return;
347     }
348
349     atom = molt->atoms.atom;
350
351     /* Still looks like a solvent, time to check parameters */
352
353     /* If it is perturbed (free energy) we can't use the solvent loops,
354      * so then we just skip to the next molecule.
355      */
356     perturbed = FALSE;
357
358     for (j = j0; j < j1 && !perturbed; j++)
359     {
360         perturbed = PERTURBED(atom[j]);
361     }
362
363     if (perturbed)
364     {
365         return;
366     }
367
368     /* Now it's only a question if the VdW and charge parameters
369      * are OK. Before doing the check we compare and see if they are
370      * identical to a possible previous solvent type.
371      * First we assign the current types and charges.
372      */
373     for (j = 0; j < nj; j++)
374     {
375         tmp_vdwtype[j] = atom[j0+j].type;
376         tmp_charge[j]  = atom[j0+j].q;
377     }
378
379     /* Does it match any previous solvent type? */
380     for (k = 0; k < *n_solvent_parameters; k++)
381     {
382         match = TRUE;
383
384
385         /* We can only match SPC with 3 atoms and TIP4p with 4 atoms */
386         if ( (solvent_parameters[k].model == esolSPC   && nj != 3)  ||
387              (solvent_parameters[k].model == esolTIP4P && nj != 4) )
388         {
389             match = FALSE;
390         }
391
392         /* Check that types & charges match for all atoms in molecule */
393         for (j = 0; j < nj && match == TRUE; j++)
394         {
395             if (tmp_vdwtype[j] != solvent_parameters[k].vdwtype[j])
396             {
397                 match = FALSE;
398             }
399             if (tmp_charge[j] != solvent_parameters[k].charge[j])
400             {
401                 match = FALSE;
402             }
403         }
404         if (match == TRUE)
405         {
406             /* Congratulations! We have a matched solvent.
407              * Flag it with this type for later processing.
408              */
409             *cg_sp = k;
410             solvent_parameters[k].count += nmol;
411
412             /* We are done with this charge group */
413             return;
414         }
415     }
416
417     /* If we get here, we have a tentative new solvent type.
418      * Before we add it we must check that it fulfills the requirements
419      * of the solvent optimized loops. First determine which atoms have
420      * VdW interactions.
421      */
422     for (j = 0; j < nj; j++)
423     {
424         has_vdw[j] = FALSE;
425         tjA        = tmp_vdwtype[j];
426
427         /* Go through all other tpes and see if any have non-zero
428          * VdW parameters when combined with this one.
429          */
430         for (k = 0; k < fr->ntype && (has_vdw[j] == FALSE); k++)
431         {
432             /* We already checked that the atoms weren't perturbed,
433              * so we only need to check state A now.
434              */
435             if (fr->bBHAM)
436             {
437                 has_vdw[j] = (has_vdw[j] ||
438                               (BHAMA(fr->nbfp, fr->ntype, tjA, k) != 0.0) ||
439                               (BHAMB(fr->nbfp, fr->ntype, tjA, k) != 0.0) ||
440                               (BHAMC(fr->nbfp, fr->ntype, tjA, k) != 0.0));
441             }
442             else
443             {
444                 /* Standard LJ */
445                 has_vdw[j] = (has_vdw[j] ||
446                               (C6(fr->nbfp, fr->ntype, tjA, k)  != 0.0) ||
447                               (C12(fr->nbfp, fr->ntype, tjA, k) != 0.0));
448             }
449         }
450     }
451
452     /* Now we know all we need to make the final check and assignment. */
453     if (nj == 3)
454     {
455         /* So, is it an SPC?
456          * For this we require thatn all atoms have charge,
457          * the charges on atom 2 & 3 should be the same, and only
458          * atom 1 might have VdW.
459          */
460         if (has_vdw[1] == FALSE &&
461             has_vdw[2] == FALSE &&
462             tmp_charge[0]  != 0 &&
463             tmp_charge[1]  != 0 &&
464             tmp_charge[2]  == tmp_charge[1])
465         {
466             srenew(solvent_parameters, *n_solvent_parameters+1);
467             solvent_parameters[*n_solvent_parameters].model = esolSPC;
468             solvent_parameters[*n_solvent_parameters].count = nmol;
469             for (k = 0; k < 3; k++)
470             {
471                 solvent_parameters[*n_solvent_parameters].vdwtype[k] = tmp_vdwtype[k];
472                 solvent_parameters[*n_solvent_parameters].charge[k]  = tmp_charge[k];
473             }
474
475             *cg_sp = *n_solvent_parameters;
476             (*n_solvent_parameters)++;
477         }
478     }
479     else if (nj == 4)
480     {
481         /* Or could it be a TIP4P?
482          * For this we require thatn atoms 2,3,4 have charge, but not atom 1.
483          * Only atom 1 mght have VdW.
484          */
485         if (has_vdw[1] == FALSE &&
486             has_vdw[2] == FALSE &&
487             has_vdw[3] == FALSE &&
488             tmp_charge[0]  == 0 &&
489             tmp_charge[1]  != 0 &&
490             tmp_charge[2]  == tmp_charge[1] &&
491             tmp_charge[3]  != 0)
492         {
493             srenew(solvent_parameters, *n_solvent_parameters+1);
494             solvent_parameters[*n_solvent_parameters].model = esolTIP4P;
495             solvent_parameters[*n_solvent_parameters].count = nmol;
496             for (k = 0; k < 4; k++)
497             {
498                 solvent_parameters[*n_solvent_parameters].vdwtype[k] = tmp_vdwtype[k];
499                 solvent_parameters[*n_solvent_parameters].charge[k]  = tmp_charge[k];
500             }
501
502             *cg_sp = *n_solvent_parameters;
503             (*n_solvent_parameters)++;
504         }
505     }
506
507     *solvent_parameters_p = solvent_parameters;
508 }
509
510 static void
511 check_solvent(FILE  *                fp,
512               const gmx_mtop_t  *    mtop,
513               t_forcerec  *          fr,
514               cginfo_mb_t           *cginfo_mb)
515 {
516     const t_block     *   cgs;
517     const gmx_moltype_t  *molt;
518     int                   mb, mol, cg_mol, at_offset, am, cgm, i, nmol_ch, nmol;
519     int                   n_solvent_parameters;
520     solvent_parameters_t *solvent_parameters;
521     int                 **cg_sp;
522     int                   bestsp, bestsol;
523
524     if (debug)
525     {
526         fprintf(debug, "Going to determine what solvent types we have.\n");
527     }
528
529     n_solvent_parameters = 0;
530     solvent_parameters   = NULL;
531     /* Allocate temporary array for solvent type */
532     snew(cg_sp, mtop->nmolblock);
533
534     at_offset = 0;
535     for (mb = 0; mb < mtop->nmolblock; mb++)
536     {
537         molt = &mtop->moltype[mtop->molblock[mb].type];
538         cgs  = &molt->cgs;
539         /* Here we have to loop over all individual molecules
540          * because we need to check for QMMM particles.
541          */
542         snew(cg_sp[mb], cginfo_mb[mb].cg_mod);
543         nmol_ch = cginfo_mb[mb].cg_mod/cgs->nr;
544         nmol    = mtop->molblock[mb].nmol/nmol_ch;
545         for (mol = 0; mol < nmol_ch; mol++)
546         {
547             cgm = mol*cgs->nr;
548             am  = mol*cgs->index[cgs->nr];
549             for (cg_mol = 0; cg_mol < cgs->nr; cg_mol++)
550             {
551                 check_solvent_cg(molt, cg_mol, nmol,
552                                  mtop->groups.grpnr[egcQMMM] ?
553                                  mtop->groups.grpnr[egcQMMM]+at_offset+am : 0,
554                                  &mtop->groups.grps[egcQMMM],
555                                  fr,
556                                  &n_solvent_parameters, &solvent_parameters,
557                                  cginfo_mb[mb].cginfo[cgm+cg_mol],
558                                  &cg_sp[mb][cgm+cg_mol]);
559             }
560         }
561         at_offset += cgs->index[cgs->nr];
562     }
563
564     /* Puh! We finished going through all charge groups.
565      * Now find the most common solvent model.
566      */
567
568     /* Most common solvent this far */
569     bestsp = -2;
570     for (i = 0; i < n_solvent_parameters; i++)
571     {
572         if (bestsp == -2 ||
573             solvent_parameters[i].count > solvent_parameters[bestsp].count)
574         {
575             bestsp = i;
576         }
577     }
578
579     if (bestsp >= 0)
580     {
581         bestsol = solvent_parameters[bestsp].model;
582     }
583     else
584     {
585         bestsol = esolNO;
586     }
587
588     fr->nWatMol = 0;
589     for (mb = 0; mb < mtop->nmolblock; mb++)
590     {
591         cgs  = &mtop->moltype[mtop->molblock[mb].type].cgs;
592         nmol = (mtop->molblock[mb].nmol*cgs->nr)/cginfo_mb[mb].cg_mod;
593         for (i = 0; i < cginfo_mb[mb].cg_mod; i++)
594         {
595             if (cg_sp[mb][i] == bestsp)
596             {
597                 SET_CGINFO_SOLOPT(cginfo_mb[mb].cginfo[i], bestsol);
598                 fr->nWatMol += nmol;
599             }
600             else
601             {
602                 SET_CGINFO_SOLOPT(cginfo_mb[mb].cginfo[i], esolNO);
603             }
604         }
605         sfree(cg_sp[mb]);
606     }
607     sfree(cg_sp);
608
609     if (bestsol != esolNO && fp != NULL)
610     {
611         fprintf(fp, "\nEnabling %s-like water optimization for %d molecules.\n\n",
612                 esol_names[bestsol],
613                 solvent_parameters[bestsp].count);
614     }
615
616     sfree(solvent_parameters);
617     fr->solvent_opt = bestsol;
618 }
619
620 enum {
621     acNONE = 0, acCONSTRAINT, acSETTLE
622 };
623
624 static cginfo_mb_t *init_cginfo_mb(FILE *fplog, const gmx_mtop_t *mtop,
625                                    t_forcerec *fr, gmx_bool bNoSolvOpt,
626                                    gmx_bool *bFEP_NonBonded,
627                                    gmx_bool *bExcl_IntraCGAll_InterCGNone)
628 {
629     const t_block        *cgs;
630     const t_blocka       *excl;
631     const gmx_moltype_t  *molt;
632     const gmx_molblock_t *molb;
633     cginfo_mb_t          *cginfo_mb;
634     gmx_bool             *type_VDW;
635     int                  *cginfo;
636     int                   cg_offset, a_offset;
637     int                   mb, m, cg, a0, a1, gid, ai, j, aj, excl_nalloc;
638     int                  *a_con;
639     int                   ftype;
640     int                   ia;
641     gmx_bool              bId, *bExcl, bExclIntraAll, bExclInter, bHaveVDW, bHaveQ, bHavePerturbedAtoms;
642
643     snew(cginfo_mb, mtop->nmolblock);
644
645     snew(type_VDW, fr->ntype);
646     for (ai = 0; ai < fr->ntype; ai++)
647     {
648         type_VDW[ai] = FALSE;
649         for (j = 0; j < fr->ntype; j++)
650         {
651             type_VDW[ai] = type_VDW[ai] ||
652                 fr->bBHAM ||
653                 C6(fr->nbfp, fr->ntype, ai, j) != 0 ||
654                 C12(fr->nbfp, fr->ntype, ai, j) != 0;
655         }
656     }
657
658     *bFEP_NonBonded               = FALSE;
659     *bExcl_IntraCGAll_InterCGNone = TRUE;
660
661     excl_nalloc = 10;
662     snew(bExcl, excl_nalloc);
663     cg_offset = 0;
664     a_offset  = 0;
665     for (mb = 0; mb < mtop->nmolblock; mb++)
666     {
667         molb = &mtop->molblock[mb];
668         molt = &mtop->moltype[molb->type];
669         cgs  = &molt->cgs;
670         excl = &molt->excls;
671
672         /* Check if the cginfo is identical for all molecules in this block.
673          * If so, we only need an array of the size of one molecule.
674          * Otherwise we make an array of #mol times #cgs per molecule.
675          */
676         bId = TRUE;
677         for (m = 0; m < molb->nmol; m++)
678         {
679             int am = m*cgs->index[cgs->nr];
680             for (cg = 0; cg < cgs->nr; cg++)
681             {
682                 a0 = cgs->index[cg];
683                 a1 = cgs->index[cg+1];
684                 if (ggrpnr(&mtop->groups, egcENER, a_offset+am+a0) !=
685                     ggrpnr(&mtop->groups, egcENER, a_offset   +a0))
686                 {
687                     bId = FALSE;
688                 }
689                 if (mtop->groups.grpnr[egcQMMM] != NULL)
690                 {
691                     for (ai = a0; ai < a1; ai++)
692                     {
693                         if (mtop->groups.grpnr[egcQMMM][a_offset+am+ai] !=
694                             mtop->groups.grpnr[egcQMMM][a_offset   +ai])
695                         {
696                             bId = FALSE;
697                         }
698                     }
699                 }
700             }
701         }
702
703         cginfo_mb[mb].cg_start = cg_offset;
704         cginfo_mb[mb].cg_end   = cg_offset + molb->nmol*cgs->nr;
705         cginfo_mb[mb].cg_mod   = (bId ? 1 : molb->nmol)*cgs->nr;
706         snew(cginfo_mb[mb].cginfo, cginfo_mb[mb].cg_mod);
707         cginfo = cginfo_mb[mb].cginfo;
708
709         /* Set constraints flags for constrained atoms */
710         snew(a_con, molt->atoms.nr);
711         for (ftype = 0; ftype < F_NRE; ftype++)
712         {
713             if (interaction_function[ftype].flags & IF_CONSTRAINT)
714             {
715                 int nral;
716
717                 nral = NRAL(ftype);
718                 for (ia = 0; ia < molt->ilist[ftype].nr; ia += 1+nral)
719                 {
720                     int a;
721
722                     for (a = 0; a < nral; a++)
723                     {
724                         a_con[molt->ilist[ftype].iatoms[ia+1+a]] =
725                             (ftype == F_SETTLE ? acSETTLE : acCONSTRAINT);
726                     }
727                 }
728             }
729         }
730
731         for (m = 0; m < (bId ? 1 : molb->nmol); m++)
732         {
733             int cgm = m*cgs->nr;
734             int am  = m*cgs->index[cgs->nr];
735             for (cg = 0; cg < cgs->nr; cg++)
736             {
737                 a0 = cgs->index[cg];
738                 a1 = cgs->index[cg+1];
739
740                 /* Store the energy group in cginfo */
741                 gid = ggrpnr(&mtop->groups, egcENER, a_offset+am+a0);
742                 SET_CGINFO_GID(cginfo[cgm+cg], gid);
743
744                 /* Check the intra/inter charge group exclusions */
745                 if (a1-a0 > excl_nalloc)
746                 {
747                     excl_nalloc = a1 - a0;
748                     srenew(bExcl, excl_nalloc);
749                 }
750                 /* bExclIntraAll: all intra cg interactions excluded
751                  * bExclInter:    any inter cg interactions excluded
752                  */
753                 bExclIntraAll       = TRUE;
754                 bExclInter          = FALSE;
755                 bHaveVDW            = FALSE;
756                 bHaveQ              = FALSE;
757                 bHavePerturbedAtoms = FALSE;
758                 for (ai = a0; ai < a1; ai++)
759                 {
760                     /* Check VDW and electrostatic interactions */
761                     bHaveVDW = bHaveVDW || (type_VDW[molt->atoms.atom[ai].type] ||
762                                             type_VDW[molt->atoms.atom[ai].typeB]);
763                     bHaveQ  = bHaveQ    || (molt->atoms.atom[ai].q != 0 ||
764                                             molt->atoms.atom[ai].qB != 0);
765
766                     bHavePerturbedAtoms = bHavePerturbedAtoms || (PERTURBED(molt->atoms.atom[ai]) != 0);
767
768                     /* Clear the exclusion list for atom ai */
769                     for (aj = a0; aj < a1; aj++)
770                     {
771                         bExcl[aj-a0] = FALSE;
772                     }
773                     /* Loop over all the exclusions of atom ai */
774                     for (j = excl->index[ai]; j < excl->index[ai+1]; j++)
775                     {
776                         aj = excl->a[j];
777                         if (aj < a0 || aj >= a1)
778                         {
779                             bExclInter = TRUE;
780                         }
781                         else
782                         {
783                             bExcl[aj-a0] = TRUE;
784                         }
785                     }
786                     /* Check if ai excludes a0 to a1 */
787                     for (aj = a0; aj < a1; aj++)
788                     {
789                         if (!bExcl[aj-a0])
790                         {
791                             bExclIntraAll = FALSE;
792                         }
793                     }
794
795                     switch (a_con[ai])
796                     {
797                         case acCONSTRAINT:
798                             SET_CGINFO_CONSTR(cginfo[cgm+cg]);
799                             break;
800                         case acSETTLE:
801                             SET_CGINFO_SETTLE(cginfo[cgm+cg]);
802                             break;
803                         default:
804                             break;
805                     }
806                 }
807                 if (bExclIntraAll)
808                 {
809                     SET_CGINFO_EXCL_INTRA(cginfo[cgm+cg]);
810                 }
811                 if (bExclInter)
812                 {
813                     SET_CGINFO_EXCL_INTER(cginfo[cgm+cg]);
814                 }
815                 if (a1 - a0 > MAX_CHARGEGROUP_SIZE)
816                 {
817                     /* The size in cginfo is currently only read with DD */
818                     gmx_fatal(FARGS, "A charge group has size %d which is larger than the limit of %d atoms", a1-a0, MAX_CHARGEGROUP_SIZE);
819                 }
820                 if (bHaveVDW)
821                 {
822                     SET_CGINFO_HAS_VDW(cginfo[cgm+cg]);
823                 }
824                 if (bHaveQ)
825                 {
826                     SET_CGINFO_HAS_Q(cginfo[cgm+cg]);
827                 }
828                 if (bHavePerturbedAtoms && fr->efep != efepNO)
829                 {
830                     SET_CGINFO_FEP(cginfo[cgm+cg]);
831                     *bFEP_NonBonded = TRUE;
832                 }
833                 /* Store the charge group size */
834                 SET_CGINFO_NATOMS(cginfo[cgm+cg], a1-a0);
835
836                 if (!bExclIntraAll || bExclInter)
837                 {
838                     *bExcl_IntraCGAll_InterCGNone = FALSE;
839                 }
840             }
841         }
842
843         sfree(a_con);
844
845         cg_offset += molb->nmol*cgs->nr;
846         a_offset  += molb->nmol*cgs->index[cgs->nr];
847     }
848     sfree(bExcl);
849
850     /* the solvent optimizer is called after the QM is initialized,
851      * because we don't want to have the QM subsystemto become an
852      * optimized solvent
853      */
854
855     check_solvent(fplog, mtop, fr, cginfo_mb);
856
857     if (getenv("GMX_NO_SOLV_OPT"))
858     {
859         if (fplog)
860         {
861             fprintf(fplog, "Found environment variable GMX_NO_SOLV_OPT.\n"
862                     "Disabling all solvent optimization\n");
863         }
864         fr->solvent_opt = esolNO;
865     }
866     if (bNoSolvOpt)
867     {
868         fr->solvent_opt = esolNO;
869     }
870     if (!fr->solvent_opt)
871     {
872         for (mb = 0; mb < mtop->nmolblock; mb++)
873         {
874             for (cg = 0; cg < cginfo_mb[mb].cg_mod; cg++)
875             {
876                 SET_CGINFO_SOLOPT(cginfo_mb[mb].cginfo[cg], esolNO);
877             }
878         }
879     }
880
881     return cginfo_mb;
882 }
883
884 static int *cginfo_expand(int nmb, cginfo_mb_t *cgi_mb)
885 {
886     int  ncg, mb, cg;
887     int *cginfo;
888
889     ncg = cgi_mb[nmb-1].cg_end;
890     snew(cginfo, ncg);
891     mb = 0;
892     for (cg = 0; cg < ncg; cg++)
893     {
894         while (cg >= cgi_mb[mb].cg_end)
895         {
896             mb++;
897         }
898         cginfo[cg] =
899             cgi_mb[mb].cginfo[(cg - cgi_mb[mb].cg_start) % cgi_mb[mb].cg_mod];
900     }
901
902     return cginfo;
903 }
904
905 static void set_chargesum(FILE *log, t_forcerec *fr, const gmx_mtop_t *mtop)
906 {
907     /*This now calculates sum for q and c6*/
908     double         qsum, q2sum, q, c6sum, c6;
909     int            mb, nmol, i;
910     const t_atoms *atoms;
911
912     qsum   = 0;
913     q2sum  = 0;
914     c6sum  = 0;
915     for (mb = 0; mb < mtop->nmolblock; mb++)
916     {
917         nmol  = mtop->molblock[mb].nmol;
918         atoms = &mtop->moltype[mtop->molblock[mb].type].atoms;
919         for (i = 0; i < atoms->nr; i++)
920         {
921             q       = atoms->atom[i].q;
922             qsum   += nmol*q;
923             q2sum  += nmol*q*q;
924             c6      = mtop->ffparams.iparams[atoms->atom[i].type*(mtop->ffparams.atnr+1)].lj.c6;
925             c6sum  += nmol*c6;
926         }
927     }
928     fr->qsum[0]   = qsum;
929     fr->q2sum[0]  = q2sum;
930     fr->c6sum[0]  = c6sum;
931
932     if (fr->efep != efepNO)
933     {
934         qsum   = 0;
935         q2sum  = 0;
936         c6sum  = 0;
937         for (mb = 0; mb < mtop->nmolblock; mb++)
938         {
939             nmol  = mtop->molblock[mb].nmol;
940             atoms = &mtop->moltype[mtop->molblock[mb].type].atoms;
941             for (i = 0; i < atoms->nr; i++)
942             {
943                 q       = atoms->atom[i].qB;
944                 qsum   += nmol*q;
945                 q2sum  += nmol*q*q;
946                 c6      = mtop->ffparams.iparams[atoms->atom[i].typeB*(mtop->ffparams.atnr+1)].lj.c6;
947                 c6sum  += nmol*c6;
948             }
949             fr->qsum[1]   = qsum;
950             fr->q2sum[1]  = q2sum;
951             fr->c6sum[1]  = c6sum;
952         }
953     }
954     else
955     {
956         fr->qsum[1]   = fr->qsum[0];
957         fr->q2sum[1]  = fr->q2sum[0];
958         fr->c6sum[1]  = fr->c6sum[0];
959     }
960     if (log)
961     {
962         if (fr->efep == efepNO)
963         {
964             fprintf(log, "System total charge: %.3f\n", fr->qsum[0]);
965         }
966         else
967         {
968             fprintf(log, "System total charge, top. A: %.3f top. B: %.3f\n",
969                     fr->qsum[0], fr->qsum[1]);
970         }
971     }
972 }
973
974 void update_forcerec(t_forcerec *fr, matrix box)
975 {
976     if (fr->eeltype == eelGRF)
977     {
978         calc_rffac(NULL, fr->eeltype, fr->epsilon_r, fr->epsilon_rf,
979                    fr->rcoulomb, fr->temp, fr->zsquare, box,
980                    &fr->kappa, &fr->k_rf, &fr->c_rf);
981     }
982 }
983
984 void set_avcsixtwelve(FILE *fplog, t_forcerec *fr, const gmx_mtop_t *mtop)
985 {
986     const t_atoms  *atoms, *atoms_tpi;
987     const t_blocka *excl;
988     int             mb, nmol, nmolc, i, j, tpi, tpj, j1, j2, k, nexcl, q;
989     gmx_int64_t     npair, npair_ij, tmpi, tmpj;
990     double          csix, ctwelve;
991     int             ntp, *typecount;
992     gmx_bool        bBHAM;
993     real           *nbfp;
994     real           *nbfp_comb = NULL;
995
996     ntp   = fr->ntype;
997     bBHAM = fr->bBHAM;
998     nbfp  = fr->nbfp;
999
1000     /* For LJ-PME, we want to correct for the difference between the
1001      * actual C6 values and the C6 values used by the LJ-PME based on
1002      * combination rules. */
1003
1004     if (EVDW_PME(fr->vdwtype))
1005     {
1006         nbfp_comb = mk_nbfp_combination_rule(&mtop->ffparams,
1007                                              (fr->ljpme_combination_rule == eljpmeLB) ? eCOMB_ARITHMETIC : eCOMB_GEOMETRIC);
1008         for (tpi = 0; tpi < ntp; ++tpi)
1009         {
1010             for (tpj = 0; tpj < ntp; ++tpj)
1011             {
1012                 C6(nbfp_comb, ntp, tpi, tpj) =
1013                     C6(nbfp, ntp, tpi, tpj) - C6(nbfp_comb, ntp, tpi, tpj);
1014                 C12(nbfp_comb, ntp, tpi, tpj) = C12(nbfp, ntp, tpi, tpj);
1015             }
1016         }
1017         nbfp = nbfp_comb;
1018     }
1019     for (q = 0; q < (fr->efep == efepNO ? 1 : 2); q++)
1020     {
1021         csix    = 0;
1022         ctwelve = 0;
1023         npair   = 0;
1024         nexcl   = 0;
1025         if (!fr->n_tpi)
1026         {
1027             /* Count the types so we avoid natoms^2 operations */
1028             snew(typecount, ntp);
1029             gmx_mtop_count_atomtypes(mtop, q, typecount);
1030
1031             for (tpi = 0; tpi < ntp; tpi++)
1032             {
1033                 for (tpj = tpi; tpj < ntp; tpj++)
1034                 {
1035                     tmpi = typecount[tpi];
1036                     tmpj = typecount[tpj];
1037                     if (tpi != tpj)
1038                     {
1039                         npair_ij = tmpi*tmpj;
1040                     }
1041                     else
1042                     {
1043                         npair_ij = tmpi*(tmpi - 1)/2;
1044                     }
1045                     if (bBHAM)
1046                     {
1047                         /* nbfp now includes the 6.0 derivative prefactor */
1048                         csix    += npair_ij*BHAMC(nbfp, ntp, tpi, tpj)/6.0;
1049                     }
1050                     else
1051                     {
1052                         /* nbfp now includes the 6.0/12.0 derivative prefactors */
1053                         csix    += npair_ij*   C6(nbfp, ntp, tpi, tpj)/6.0;
1054                         ctwelve += npair_ij*  C12(nbfp, ntp, tpi, tpj)/12.0;
1055                     }
1056                     npair += npair_ij;
1057                 }
1058             }
1059             sfree(typecount);
1060             /* Subtract the excluded pairs.
1061              * The main reason for substracting exclusions is that in some cases
1062              * some combinations might never occur and the parameters could have
1063              * any value. These unused values should not influence the dispersion
1064              * correction.
1065              */
1066             for (mb = 0; mb < mtop->nmolblock; mb++)
1067             {
1068                 nmol  = mtop->molblock[mb].nmol;
1069                 atoms = &mtop->moltype[mtop->molblock[mb].type].atoms;
1070                 excl  = &mtop->moltype[mtop->molblock[mb].type].excls;
1071                 for (i = 0; (i < atoms->nr); i++)
1072                 {
1073                     if (q == 0)
1074                     {
1075                         tpi = atoms->atom[i].type;
1076                     }
1077                     else
1078                     {
1079                         tpi = atoms->atom[i].typeB;
1080                     }
1081                     j1  = excl->index[i];
1082                     j2  = excl->index[i+1];
1083                     for (j = j1; j < j2; j++)
1084                     {
1085                         k = excl->a[j];
1086                         if (k > i)
1087                         {
1088                             if (q == 0)
1089                             {
1090                                 tpj = atoms->atom[k].type;
1091                             }
1092                             else
1093                             {
1094                                 tpj = atoms->atom[k].typeB;
1095                             }
1096                             if (bBHAM)
1097                             {
1098                                 /* nbfp now includes the 6.0 derivative prefactor */
1099                                 csix -= nmol*BHAMC(nbfp, ntp, tpi, tpj)/6.0;
1100                             }
1101                             else
1102                             {
1103                                 /* nbfp now includes the 6.0/12.0 derivative prefactors */
1104                                 csix    -= nmol*C6 (nbfp, ntp, tpi, tpj)/6.0;
1105                                 ctwelve -= nmol*C12(nbfp, ntp, tpi, tpj)/12.0;
1106                             }
1107                             nexcl += nmol;
1108                         }
1109                     }
1110                 }
1111             }
1112         }
1113         else
1114         {
1115             /* Only correct for the interaction of the test particle
1116              * with the rest of the system.
1117              */
1118             atoms_tpi =
1119                 &mtop->moltype[mtop->molblock[mtop->nmolblock-1].type].atoms;
1120
1121             npair = 0;
1122             for (mb = 0; mb < mtop->nmolblock; mb++)
1123             {
1124                 nmol  = mtop->molblock[mb].nmol;
1125                 atoms = &mtop->moltype[mtop->molblock[mb].type].atoms;
1126                 for (j = 0; j < atoms->nr; j++)
1127                 {
1128                     nmolc = nmol;
1129                     /* Remove the interaction of the test charge group
1130                      * with itself.
1131                      */
1132                     if (mb == mtop->nmolblock-1)
1133                     {
1134                         nmolc--;
1135
1136                         if (mb == 0 && nmol == 1)
1137                         {
1138                             gmx_fatal(FARGS, "Old format tpr with TPI, please generate a new tpr file");
1139                         }
1140                     }
1141                     if (q == 0)
1142                     {
1143                         tpj = atoms->atom[j].type;
1144                     }
1145                     else
1146                     {
1147                         tpj = atoms->atom[j].typeB;
1148                     }
1149                     for (i = 0; i < fr->n_tpi; i++)
1150                     {
1151                         if (q == 0)
1152                         {
1153                             tpi = atoms_tpi->atom[i].type;
1154                         }
1155                         else
1156                         {
1157                             tpi = atoms_tpi->atom[i].typeB;
1158                         }
1159                         if (bBHAM)
1160                         {
1161                             /* nbfp now includes the 6.0 derivative prefactor */
1162                             csix    += nmolc*BHAMC(nbfp, ntp, tpi, tpj)/6.0;
1163                         }
1164                         else
1165                         {
1166                             /* nbfp now includes the 6.0/12.0 derivative prefactors */
1167                             csix    += nmolc*C6 (nbfp, ntp, tpi, tpj)/6.0;
1168                             ctwelve += nmolc*C12(nbfp, ntp, tpi, tpj)/12.0;
1169                         }
1170                         npair += nmolc;
1171                     }
1172                 }
1173             }
1174         }
1175         if (npair - nexcl <= 0 && fplog)
1176         {
1177             fprintf(fplog, "\nWARNING: There are no atom pairs for dispersion correction\n\n");
1178             csix     = 0;
1179             ctwelve  = 0;
1180         }
1181         else
1182         {
1183             csix    /= npair - nexcl;
1184             ctwelve /= npair - nexcl;
1185         }
1186         if (debug)
1187         {
1188             fprintf(debug, "Counted %d exclusions\n", nexcl);
1189             fprintf(debug, "Average C6 parameter is: %10g\n", (double)csix);
1190             fprintf(debug, "Average C12 parameter is: %10g\n", (double)ctwelve);
1191         }
1192         fr->avcsix[q]    = csix;
1193         fr->avctwelve[q] = ctwelve;
1194     }
1195
1196     if (EVDW_PME(fr->vdwtype))
1197     {
1198         sfree(nbfp_comb);
1199     }
1200
1201     if (fplog != NULL)
1202     {
1203         if (fr->eDispCorr == edispcAllEner ||
1204             fr->eDispCorr == edispcAllEnerPres)
1205         {
1206             fprintf(fplog, "Long Range LJ corr.: <C6> %10.4e, <C12> %10.4e\n",
1207                     fr->avcsix[0], fr->avctwelve[0]);
1208         }
1209         else
1210         {
1211             fprintf(fplog, "Long Range LJ corr.: <C6> %10.4e\n", fr->avcsix[0]);
1212         }
1213     }
1214 }
1215
1216
1217 static void set_bham_b_max(FILE *fplog, t_forcerec *fr,
1218                            const gmx_mtop_t *mtop)
1219 {
1220     const t_atoms *at1, *at2;
1221     int            mt1, mt2, i, j, tpi, tpj, ntypes;
1222     real           b, bmin;
1223     real          *nbfp;
1224
1225     if (fplog)
1226     {
1227         fprintf(fplog, "Determining largest Buckingham b parameter for table\n");
1228     }
1229     nbfp   = fr->nbfp;
1230     ntypes = fr->ntype;
1231
1232     bmin           = -1;
1233     fr->bham_b_max = 0;
1234     for (mt1 = 0; mt1 < mtop->nmoltype; mt1++)
1235     {
1236         at1 = &mtop->moltype[mt1].atoms;
1237         for (i = 0; (i < at1->nr); i++)
1238         {
1239             tpi = at1->atom[i].type;
1240             if (tpi >= ntypes)
1241             {
1242                 gmx_fatal(FARGS, "Atomtype[%d] = %d, maximum = %d", i, tpi, ntypes);
1243             }
1244
1245             for (mt2 = mt1; mt2 < mtop->nmoltype; mt2++)
1246             {
1247                 at2 = &mtop->moltype[mt2].atoms;
1248                 for (j = 0; (j < at2->nr); j++)
1249                 {
1250                     tpj = at2->atom[j].type;
1251                     if (tpj >= ntypes)
1252                     {
1253                         gmx_fatal(FARGS, "Atomtype[%d] = %d, maximum = %d", j, tpj, ntypes);
1254                     }
1255                     b = BHAMB(nbfp, ntypes, tpi, tpj);
1256                     if (b > fr->bham_b_max)
1257                     {
1258                         fr->bham_b_max = b;
1259                     }
1260                     if ((b < bmin) || (bmin == -1))
1261                     {
1262                         bmin = b;
1263                     }
1264                 }
1265             }
1266         }
1267     }
1268     if (fplog)
1269     {
1270         fprintf(fplog, "Buckingham b parameters, min: %g, max: %g\n",
1271                 bmin, fr->bham_b_max);
1272     }
1273 }
1274
1275 static void make_nbf_tables(FILE *fp, const output_env_t oenv,
1276                             t_forcerec *fr, real rtab,
1277                             const t_commrec *cr,
1278                             const char *tabfn, char *eg1, char *eg2,
1279                             t_nblists *nbl)
1280 {
1281     char buf[STRLEN];
1282     int  i, j;
1283
1284     if (tabfn == NULL)
1285     {
1286         if (debug)
1287         {
1288             fprintf(debug, "No table file name passed, can not read table, can not do non-bonded interactions\n");
1289         }
1290         return;
1291     }
1292
1293     sprintf(buf, "%s", tabfn);
1294     if (eg1 && eg2)
1295     {
1296         /* Append the two energy group names */
1297         sprintf(buf + strlen(tabfn) - strlen(ftp2ext(efXVG)) - 1, "_%s_%s.%s",
1298                 eg1, eg2, ftp2ext(efXVG));
1299     }
1300     nbl->table_elec_vdw = make_tables(fp, oenv, fr, MASTER(cr), buf, rtab, 0);
1301     /* Copy the contents of the table to separate coulomb and LJ tables too,
1302      * to improve cache performance.
1303      */
1304     /* For performance reasons we want
1305      * the table data to be aligned to 16-byte. The pointers could be freed
1306      * but currently aren't.
1307      */
1308     nbl->table_elec.interaction   = GMX_TABLE_INTERACTION_ELEC;
1309     nbl->table_elec.format        = nbl->table_elec_vdw.format;
1310     nbl->table_elec.r             = nbl->table_elec_vdw.r;
1311     nbl->table_elec.n             = nbl->table_elec_vdw.n;
1312     nbl->table_elec.scale         = nbl->table_elec_vdw.scale;
1313     nbl->table_elec.scale_exp     = nbl->table_elec_vdw.scale_exp;
1314     nbl->table_elec.formatsize    = nbl->table_elec_vdw.formatsize;
1315     nbl->table_elec.ninteractions = 1;
1316     nbl->table_elec.stride        = nbl->table_elec.formatsize * nbl->table_elec.ninteractions;
1317     snew_aligned(nbl->table_elec.data, nbl->table_elec.stride*(nbl->table_elec.n+1), 32);
1318
1319     nbl->table_vdw.interaction   = GMX_TABLE_INTERACTION_VDWREP_VDWDISP;
1320     nbl->table_vdw.format        = nbl->table_elec_vdw.format;
1321     nbl->table_vdw.r             = nbl->table_elec_vdw.r;
1322     nbl->table_vdw.n             = nbl->table_elec_vdw.n;
1323     nbl->table_vdw.scale         = nbl->table_elec_vdw.scale;
1324     nbl->table_vdw.scale_exp     = nbl->table_elec_vdw.scale_exp;
1325     nbl->table_vdw.formatsize    = nbl->table_elec_vdw.formatsize;
1326     nbl->table_vdw.ninteractions = 2;
1327     nbl->table_vdw.stride        = nbl->table_vdw.formatsize * nbl->table_vdw.ninteractions;
1328     snew_aligned(nbl->table_vdw.data, nbl->table_vdw.stride*(nbl->table_vdw.n+1), 32);
1329
1330     for (i = 0; i <= nbl->table_elec_vdw.n; i++)
1331     {
1332         for (j = 0; j < 4; j++)
1333         {
1334             nbl->table_elec.data[4*i+j] = nbl->table_elec_vdw.data[12*i+j];
1335         }
1336         for (j = 0; j < 8; j++)
1337         {
1338             nbl->table_vdw.data[8*i+j] = nbl->table_elec_vdw.data[12*i+4+j];
1339         }
1340     }
1341 }
1342
1343 static void count_tables(int ftype1, int ftype2, const gmx_mtop_t *mtop,
1344                          int *ncount, int **count)
1345 {
1346     const gmx_moltype_t *molt;
1347     const t_ilist       *il;
1348     int                  mt, ftype, stride, i, j, tabnr;
1349
1350     for (mt = 0; mt < mtop->nmoltype; mt++)
1351     {
1352         molt = &mtop->moltype[mt];
1353         for (ftype = 0; ftype < F_NRE; ftype++)
1354         {
1355             if (ftype == ftype1 || ftype == ftype2)
1356             {
1357                 il     = &molt->ilist[ftype];
1358                 stride = 1 + NRAL(ftype);
1359                 for (i = 0; i < il->nr; i += stride)
1360                 {
1361                     tabnr = mtop->ffparams.iparams[il->iatoms[i]].tab.table;
1362                     if (tabnr < 0)
1363                     {
1364                         gmx_fatal(FARGS, "A bonded table number is smaller than 0: %d\n", tabnr);
1365                     }
1366                     if (tabnr >= *ncount)
1367                     {
1368                         srenew(*count, tabnr+1);
1369                         for (j = *ncount; j < tabnr+1; j++)
1370                         {
1371                             (*count)[j] = 0;
1372                         }
1373                         *ncount = tabnr+1;
1374                     }
1375                     (*count)[tabnr]++;
1376                 }
1377             }
1378         }
1379     }
1380 }
1381
1382 static bondedtable_t *make_bonded_tables(FILE *fplog,
1383                                          int ftype1, int ftype2,
1384                                          const gmx_mtop_t *mtop,
1385                                          const char *basefn, const char *tabext)
1386 {
1387     int            i, ncount, *count;
1388     char           tabfn[STRLEN];
1389     bondedtable_t *tab;
1390
1391     tab = NULL;
1392
1393     ncount = 0;
1394     count  = NULL;
1395     count_tables(ftype1, ftype2, mtop, &ncount, &count);
1396
1397     if (ncount > 0)
1398     {
1399         snew(tab, ncount);
1400         for (i = 0; i < ncount; i++)
1401         {
1402             if (count[i] > 0)
1403             {
1404                 sprintf(tabfn, "%s", basefn);
1405                 sprintf(tabfn + strlen(basefn) - strlen(ftp2ext(efXVG)) - 1, "_%s%d.%s",
1406                         tabext, i, ftp2ext(efXVG));
1407                 tab[i] = make_bonded_table(fplog, tabfn, NRAL(ftype1)-2);
1408             }
1409         }
1410         sfree(count);
1411     }
1412
1413     return tab;
1414 }
1415
1416 void forcerec_set_ranges(t_forcerec *fr,
1417                          int ncg_home, int ncg_force,
1418                          int natoms_force,
1419                          int natoms_force_constr, int natoms_f_novirsum)
1420 {
1421     fr->cg0 = 0;
1422     fr->hcg = ncg_home;
1423
1424     /* fr->ncg_force is unused in the standard code,
1425      * but it can be useful for modified code dealing with charge groups.
1426      */
1427     fr->ncg_force           = ncg_force;
1428     fr->natoms_force        = natoms_force;
1429     fr->natoms_force_constr = natoms_force_constr;
1430
1431     if (fr->natoms_force_constr > fr->nalloc_force)
1432     {
1433         fr->nalloc_force = over_alloc_dd(fr->natoms_force_constr);
1434
1435         if (fr->bTwinRange)
1436         {
1437             srenew(fr->f_twin, fr->nalloc_force);
1438         }
1439     }
1440
1441     if (fr->bF_NoVirSum)
1442     {
1443         fr->f_novirsum_n = natoms_f_novirsum;
1444         if (fr->f_novirsum_n > fr->f_novirsum_nalloc)
1445         {
1446             fr->f_novirsum_nalloc = over_alloc_dd(fr->f_novirsum_n);
1447             srenew(fr->f_novirsum_alloc, fr->f_novirsum_nalloc);
1448         }
1449     }
1450     else
1451     {
1452         fr->f_novirsum_n = 0;
1453     }
1454 }
1455
1456 static real cutoff_inf(real cutoff)
1457 {
1458     if (cutoff == 0)
1459     {
1460         cutoff = GMX_CUTOFF_INF;
1461     }
1462
1463     return cutoff;
1464 }
1465
1466 static void make_adress_tf_tables(FILE *fp, const output_env_t oenv,
1467                                   t_forcerec *fr, const t_inputrec *ir,
1468                                   const char *tabfn, const gmx_mtop_t *mtop,
1469                                   matrix     box)
1470 {
1471     char buf[STRLEN];
1472     int  i, j;
1473
1474     if (tabfn == NULL)
1475     {
1476         gmx_fatal(FARGS, "No thermoforce table file given. Use -tabletf to specify a file\n");
1477         return;
1478     }
1479
1480     snew(fr->atf_tabs, ir->adress->n_tf_grps);
1481
1482     sprintf(buf, "%s", tabfn);
1483     for (i = 0; i < ir->adress->n_tf_grps; i++)
1484     {
1485         j = ir->adress->tf_table_index[i]; /* get energy group index */
1486         sprintf(buf + strlen(tabfn) - strlen(ftp2ext(efXVG)) - 1, "tf_%s.%s",
1487                 *(mtop->groups.grpname[mtop->groups.grps[egcENER].nm_ind[j]]), ftp2ext(efXVG));
1488         if (fp)
1489         {
1490             fprintf(fp, "loading tf table for energygrp index %d from %s\n", ir->adress->tf_table_index[i], buf);
1491         }
1492         fr->atf_tabs[i] = make_atf_table(fp, oenv, fr, buf, box);
1493     }
1494
1495 }
1496
1497 gmx_bool can_use_allvsall(const t_inputrec *ir, gmx_bool bPrintNote, t_commrec *cr, FILE *fp)
1498 {
1499     gmx_bool bAllvsAll;
1500
1501     bAllvsAll =
1502         (
1503             ir->rlist == 0            &&
1504             ir->rcoulomb == 0         &&
1505             ir->rvdw == 0             &&
1506             ir->ePBC == epbcNONE      &&
1507             ir->vdwtype == evdwCUT    &&
1508             ir->coulombtype == eelCUT &&
1509             ir->efep == efepNO        &&
1510             (ir->implicit_solvent == eisNO ||
1511              (ir->implicit_solvent == eisGBSA && (ir->gb_algorithm == egbSTILL ||
1512                                                   ir->gb_algorithm == egbHCT   ||
1513                                                   ir->gb_algorithm == egbOBC))) &&
1514             getenv("GMX_NO_ALLVSALL") == NULL
1515         );
1516
1517     if (bAllvsAll && ir->opts.ngener > 1)
1518     {
1519         const char *note = "NOTE: Can not use all-vs-all force loops, because there are multiple energy monitor groups; you might get significantly higher performance when using only a single energy monitor group.\n";
1520
1521         if (bPrintNote)
1522         {
1523             if (MASTER(cr))
1524             {
1525                 fprintf(stderr, "\n%s\n", note);
1526             }
1527             if (fp != NULL)
1528             {
1529                 fprintf(fp, "\n%s\n", note);
1530             }
1531         }
1532         bAllvsAll = FALSE;
1533     }
1534
1535     if (bAllvsAll && fp && MASTER(cr))
1536     {
1537         fprintf(fp, "\nUsing SIMD all-vs-all kernels.\n\n");
1538     }
1539
1540     return bAllvsAll;
1541 }
1542
1543
1544 gmx_bool nbnxn_acceleration_supported(FILE             *fplog,
1545                                       const t_commrec  *cr,
1546                                       const t_inputrec *ir,
1547                                       gmx_bool          bGPU)
1548 {
1549     if (!bGPU && (ir->vdwtype == evdwPME && ir->ljpme_combination_rule == eljpmeLB))
1550     {
1551         md_print_warn(cr, fplog, "LJ-PME with Lorentz-Berthelot is not supported with %s, falling back to %s\n",
1552                       bGPU ? "GPUs" : "SIMD kernels",
1553                       bGPU ? "CPU only" : "plain-C kernels");
1554         return FALSE;
1555     }
1556
1557     return TRUE;
1558 }
1559
1560
1561 static void pick_nbnxn_kernel_cpu(const t_inputrec gmx_unused *ir,
1562                                   int                         *kernel_type,
1563                                   int                         *ewald_excl)
1564 {
1565     *kernel_type = nbnxnk4x4_PlainC;
1566     *ewald_excl  = ewaldexclTable;
1567
1568 #ifdef GMX_NBNXN_SIMD
1569     {
1570 #ifdef GMX_NBNXN_SIMD_4XN
1571         *kernel_type = nbnxnk4xN_SIMD_4xN;
1572 #endif
1573 #ifdef GMX_NBNXN_SIMD_2XNN
1574         *kernel_type = nbnxnk4xN_SIMD_2xNN;
1575 #endif
1576
1577 #if defined GMX_NBNXN_SIMD_2XNN && defined GMX_NBNXN_SIMD_4XN
1578         /* We need to choose if we want 2x(N+N) or 4xN kernels.
1579          * Currently this is based on the SIMD acceleration choice,
1580          * but it might be better to decide this at runtime based on CPU.
1581          *
1582          * 4xN calculates more (zero) interactions, but has less pair-search
1583          * work and much better kernel instruction scheduling.
1584          *
1585          * Up till now we have only seen that on Intel Sandy/Ivy Bridge,
1586          * which doesn't have FMA, both the analytical and tabulated Ewald
1587          * kernels have similar pair rates for 4x8 and 2x(4+4), so we choose
1588          * 2x(4+4) because it results in significantly fewer pairs.
1589          * For RF, the raw pair rate of the 4x8 kernel is higher than 2x(4+4),
1590          * 10% with HT, 50% without HT. As we currently don't detect the actual
1591          * use of HT, use 4x8 to avoid a potential performance hit.
1592          * On Intel Haswell 4x8 is always faster.
1593          */
1594         *kernel_type = nbnxnk4xN_SIMD_4xN;
1595
1596 #ifndef GMX_SIMD_HAVE_FMA
1597         if (EEL_PME_EWALD(ir->coulombtype) ||
1598             EVDW_PME(ir->vdwtype))
1599         {
1600             /* We have Ewald kernels without FMA (Intel Sandy/Ivy Bridge).
1601              * There are enough instructions to make 2x(4+4) efficient.
1602              */
1603             *kernel_type = nbnxnk4xN_SIMD_2xNN;
1604         }
1605 #endif
1606 #endif  /* GMX_NBNXN_SIMD_2XNN && GMX_NBNXN_SIMD_4XN */
1607
1608
1609         if (getenv("GMX_NBNXN_SIMD_4XN") != NULL)
1610         {
1611 #ifdef GMX_NBNXN_SIMD_4XN
1612             *kernel_type = nbnxnk4xN_SIMD_4xN;
1613 #else
1614             gmx_fatal(FARGS, "SIMD 4xN kernels requested, but GROMACS has been compiled without support for these kernels");
1615 #endif
1616         }
1617         if (getenv("GMX_NBNXN_SIMD_2XNN") != NULL)
1618         {
1619 #ifdef GMX_NBNXN_SIMD_2XNN
1620             *kernel_type = nbnxnk4xN_SIMD_2xNN;
1621 #else
1622             gmx_fatal(FARGS, "SIMD 2x(N+N) kernels requested, but GROMACS has been compiled without support for these kernels");
1623 #endif
1624         }
1625
1626         /* Analytical Ewald exclusion correction is only an option in
1627          * the SIMD kernel.
1628          * Since table lookup's don't parallelize with SIMD, analytical
1629          * will probably always be faster for a SIMD width of 8 or more.
1630          * With FMA analytical is sometimes faster for a width if 4 as well.
1631          * On BlueGene/Q, this is faster regardless of precision.
1632          * In single precision, this is faster on Bulldozer.
1633          */
1634 #if GMX_SIMD_REAL_WIDTH >= 8 || \
1635         (GMX_SIMD_REAL_WIDTH >= 4 && defined GMX_SIMD_HAVE_FMA && !defined GMX_DOUBLE) || \
1636         defined GMX_SIMD_IBM_QPX
1637         *ewald_excl = ewaldexclAnalytical;
1638 #endif
1639         if (getenv("GMX_NBNXN_EWALD_TABLE") != NULL)
1640         {
1641             *ewald_excl = ewaldexclTable;
1642         }
1643         if (getenv("GMX_NBNXN_EWALD_ANALYTICAL") != NULL)
1644         {
1645             *ewald_excl = ewaldexclAnalytical;
1646         }
1647
1648     }
1649 #endif /* GMX_NBNXN_SIMD */
1650 }
1651
1652
1653 const char *lookup_nbnxn_kernel_name(int kernel_type)
1654 {
1655     const char *returnvalue = NULL;
1656     switch (kernel_type)
1657     {
1658         case nbnxnkNotSet:
1659             returnvalue = "not set";
1660             break;
1661         case nbnxnk4x4_PlainC:
1662             returnvalue = "plain C";
1663             break;
1664         case nbnxnk4xN_SIMD_4xN:
1665         case nbnxnk4xN_SIMD_2xNN:
1666 #ifdef GMX_NBNXN_SIMD
1667 #if defined GMX_SIMD_X86_SSE2
1668             returnvalue = "SSE2";
1669 #elif defined GMX_SIMD_X86_SSE4_1
1670             returnvalue = "SSE4.1";
1671 #elif defined GMX_SIMD_X86_AVX_128_FMA
1672             returnvalue = "AVX_128_FMA";
1673 #elif defined GMX_SIMD_X86_AVX_256
1674             returnvalue = "AVX_256";
1675 #elif defined GMX_SIMD_X86_AVX2_256
1676             returnvalue = "AVX2_256";
1677 #else
1678             returnvalue = "SIMD";
1679 #endif
1680 #else  /* GMX_NBNXN_SIMD */
1681             returnvalue = "not available";
1682 #endif /* GMX_NBNXN_SIMD */
1683             break;
1684         case nbnxnk8x8x8_GPU: returnvalue    = "GPU"; break;
1685         case nbnxnk8x8x8_PlainC: returnvalue = "plain C"; break;
1686
1687         case nbnxnkNR:
1688         default:
1689             gmx_fatal(FARGS, "Illegal kernel type selected");
1690             returnvalue = NULL;
1691             break;
1692     }
1693     return returnvalue;
1694 };
1695
1696 static void pick_nbnxn_kernel(FILE                *fp,
1697                               const t_commrec     *cr,
1698                               gmx_bool             use_simd_kernels,
1699                               gmx_bool             bUseGPU,
1700                               gmx_bool             bEmulateGPU,
1701                               const t_inputrec    *ir,
1702                               int                 *kernel_type,
1703                               int                 *ewald_excl,
1704                               gmx_bool             bDoNonbonded)
1705 {
1706     assert(kernel_type);
1707
1708     *kernel_type = nbnxnkNotSet;
1709     *ewald_excl  = ewaldexclTable;
1710
1711     if (bEmulateGPU)
1712     {
1713         *kernel_type = nbnxnk8x8x8_PlainC;
1714
1715         if (bDoNonbonded)
1716         {
1717             md_print_warn(cr, fp, "Emulating a GPU run on the CPU (slow)");
1718         }
1719     }
1720     else if (bUseGPU)
1721     {
1722         *kernel_type = nbnxnk8x8x8_GPU;
1723     }
1724
1725     if (*kernel_type == nbnxnkNotSet)
1726     {
1727         /* LJ PME with LB combination rule does 7 mesh operations.
1728          * This so slow that we don't compile SIMD non-bonded kernels for that.
1729          */
1730         if (use_simd_kernels &&
1731             nbnxn_acceleration_supported(fp, cr, ir, FALSE))
1732         {
1733             pick_nbnxn_kernel_cpu(ir, kernel_type, ewald_excl);
1734         }
1735         else
1736         {
1737             *kernel_type = nbnxnk4x4_PlainC;
1738         }
1739     }
1740
1741     if (bDoNonbonded && fp != NULL)
1742     {
1743         fprintf(fp, "\nUsing %s %dx%d non-bonded kernels\n\n",
1744                 lookup_nbnxn_kernel_name(*kernel_type),
1745                 nbnxn_kernel_pairlist_simple(*kernel_type) ? NBNXN_CPU_CLUSTER_I_SIZE : NBNXN_GPU_CLUSTER_SIZE,
1746                 nbnxn_kernel_to_cj_size(*kernel_type));
1747
1748         if (nbnxnk4x4_PlainC == *kernel_type ||
1749             nbnxnk8x8x8_PlainC == *kernel_type)
1750         {
1751             md_print_warn(cr, fp,
1752                           "WARNING: Using the slow %s kernels. This should\n"
1753                           "not happen during routine usage on supported platforms.\n\n",
1754                           lookup_nbnxn_kernel_name(*kernel_type));
1755         }
1756     }
1757 }
1758
1759 static void pick_nbnxn_resources(FILE                *fp,
1760                                  const t_commrec     *cr,
1761                                  const gmx_hw_info_t *hwinfo,
1762                                  gmx_bool             bDoNonbonded,
1763                                  gmx_bool            *bUseGPU,
1764                                  gmx_bool            *bEmulateGPU,
1765                                  const gmx_gpu_opt_t *gpu_opt)
1766 {
1767     gmx_bool bEmulateGPUEnvVarSet;
1768     char     gpu_err_str[STRLEN];
1769
1770     *bUseGPU = FALSE;
1771
1772     bEmulateGPUEnvVarSet = (getenv("GMX_EMULATE_GPU") != NULL);
1773
1774     /* Run GPU emulation mode if GMX_EMULATE_GPU is defined. Because
1775      * GPUs (currently) only handle non-bonded calculations, we will
1776      * automatically switch to emulation if non-bonded calculations are
1777      * turned off via GMX_NO_NONBONDED - this is the simple and elegant
1778      * way to turn off GPU initialization, data movement, and cleanup.
1779      *
1780      * GPU emulation can be useful to assess the performance one can expect by
1781      * adding GPU(s) to the machine. The conditional below allows this even
1782      * if mdrun is compiled without GPU acceleration support.
1783      * Note that you should freezing the system as otherwise it will explode.
1784      */
1785     *bEmulateGPU = (bEmulateGPUEnvVarSet ||
1786                     (!bDoNonbonded && gpu_opt->n_dev_use > 0));
1787
1788     /* Enable GPU mode when GPUs are available or no GPU emulation is requested.
1789      */
1790     if (gpu_opt->n_dev_use > 0 && !(*bEmulateGPU))
1791     {
1792         /* Each PP node will use the intra-node id-th device from the
1793          * list of detected/selected GPUs. */
1794         if (!init_gpu(fp, cr->rank_pp_intranode, gpu_err_str,
1795                       &hwinfo->gpu_info, gpu_opt))
1796         {
1797             /* At this point the init should never fail as we made sure that
1798              * we have all the GPUs we need. If it still does, we'll bail. */
1799             /* TODO the decorating of gpu_err_str is nicer if it
1800                happens inside init_gpu. Out here, the decorating with
1801                the MPI rank makes sense. */
1802             gmx_fatal(FARGS, "On rank %d failed to initialize GPU #%d: %s",
1803                       cr->nodeid,
1804                       get_cuda_gpu_device_id(&hwinfo->gpu_info, gpu_opt,
1805                                              cr->rank_pp_intranode),
1806                       gpu_err_str);
1807         }
1808
1809         /* Here we actually turn on hardware GPU acceleration */
1810         *bUseGPU = TRUE;
1811     }
1812 }
1813
1814 gmx_bool uses_simple_tables(int                 cutoff_scheme,
1815                             nonbonded_verlet_t *nbv,
1816                             int                 group)
1817 {
1818     gmx_bool bUsesSimpleTables = TRUE;
1819     int      grp_index;
1820
1821     switch (cutoff_scheme)
1822     {
1823         case ecutsGROUP:
1824             bUsesSimpleTables = TRUE;
1825             break;
1826         case ecutsVERLET:
1827             assert(NULL != nbv && NULL != nbv->grp);
1828             grp_index         = (group < 0) ? 0 : (nbv->ngrp - 1);
1829             bUsesSimpleTables = nbnxn_kernel_pairlist_simple(nbv->grp[grp_index].kernel_type);
1830             break;
1831         default:
1832             gmx_incons("unimplemented");
1833     }
1834     return bUsesSimpleTables;
1835 }
1836
1837 static void init_ewald_f_table(interaction_const_t *ic,
1838                                real                 rtab)
1839 {
1840     real maxr;
1841
1842     /* Get the Ewald table spacing based on Coulomb and/or LJ
1843      * Ewald coefficients and rtol.
1844      */
1845     ic->tabq_scale = ewald_spline3_table_scale(ic);
1846
1847     if (ic->cutoff_scheme == ecutsVERLET)
1848     {
1849         maxr = ic->rcoulomb;
1850     }
1851     else
1852     {
1853         maxr = std::max(ic->rcoulomb, rtab);
1854     }
1855     ic->tabq_size  = static_cast<int>(maxr*ic->tabq_scale) + 2;
1856
1857     sfree_aligned(ic->tabq_coul_FDV0);
1858     sfree_aligned(ic->tabq_coul_F);
1859     sfree_aligned(ic->tabq_coul_V);
1860
1861     sfree_aligned(ic->tabq_vdw_FDV0);
1862     sfree_aligned(ic->tabq_vdw_F);
1863     sfree_aligned(ic->tabq_vdw_V);
1864
1865     if (ic->eeltype == eelEWALD || EEL_PME(ic->eeltype))
1866     {
1867         /* Create the original table data in FDV0 */
1868         snew_aligned(ic->tabq_coul_FDV0, ic->tabq_size*4, 32);
1869         snew_aligned(ic->tabq_coul_F, ic->tabq_size, 32);
1870         snew_aligned(ic->tabq_coul_V, ic->tabq_size, 32);
1871         table_spline3_fill_ewald_lr(ic->tabq_coul_F, ic->tabq_coul_V, ic->tabq_coul_FDV0,
1872                                     ic->tabq_size, 1/ic->tabq_scale, ic->ewaldcoeff_q, v_q_ewald_lr);
1873     }
1874
1875     if (EVDW_PME(ic->vdwtype))
1876     {
1877         snew_aligned(ic->tabq_vdw_FDV0, ic->tabq_size*4, 32);
1878         snew_aligned(ic->tabq_vdw_F, ic->tabq_size, 32);
1879         snew_aligned(ic->tabq_vdw_V, ic->tabq_size, 32);
1880         table_spline3_fill_ewald_lr(ic->tabq_vdw_F, ic->tabq_vdw_V, ic->tabq_vdw_FDV0,
1881                                     ic->tabq_size, 1/ic->tabq_scale, ic->ewaldcoeff_lj, v_lj_ewald_lr);
1882     }
1883 }
1884
1885 void init_interaction_const_tables(FILE                *fp,
1886                                    interaction_const_t *ic,
1887                                    real                 rtab)
1888 {
1889     if (ic->eeltype == eelEWALD || EEL_PME(ic->eeltype) || EVDW_PME(ic->vdwtype))
1890     {
1891         init_ewald_f_table(ic, rtab);
1892
1893         if (fp != NULL)
1894         {
1895             fprintf(fp, "Initialized non-bonded Ewald correction tables, spacing: %.2e size: %d\n\n",
1896                     1/ic->tabq_scale, ic->tabq_size);
1897         }
1898     }
1899 }
1900
1901 static void clear_force_switch_constants(shift_consts_t *sc)
1902 {
1903     sc->c2   = 0;
1904     sc->c3   = 0;
1905     sc->cpot = 0;
1906 }
1907
1908 static void force_switch_constants(real p,
1909                                    real rsw, real rc,
1910                                    shift_consts_t *sc)
1911 {
1912     /* Here we determine the coefficient for shifting the force to zero
1913      * between distance rsw and the cut-off rc.
1914      * For a potential of r^-p, we have force p*r^-(p+1).
1915      * But to save flops we absorb p in the coefficient.
1916      * Thus we get:
1917      * force/p   = r^-(p+1) + c2*r^2 + c3*r^3
1918      * potential = r^-p + c2/3*r^3 + c3/4*r^4 + cpot
1919      */
1920     sc->c2   =  ((p + 1)*rsw - (p + 4)*rc)/(pow(rc, p + 2)*pow(rc - rsw, 2));
1921     sc->c3   = -((p + 1)*rsw - (p + 3)*rc)/(pow(rc, p + 2)*pow(rc - rsw, 3));
1922     sc->cpot = -pow(rc, -p) + p*sc->c2/3*pow(rc - rsw, 3) + p*sc->c3/4*pow(rc - rsw, 4);
1923 }
1924
1925 static void potential_switch_constants(real rsw, real rc,
1926                                        switch_consts_t *sc)
1927 {
1928     /* The switch function is 1 at rsw and 0 at rc.
1929      * The derivative and second derivate are zero at both ends.
1930      * rsw        = max(r - r_switch, 0)
1931      * sw         = 1 + c3*rsw^3 + c4*rsw^4 + c5*rsw^5
1932      * dsw        = 3*c3*rsw^2 + 4*c4*rsw^3 + 5*c5*rsw^4
1933      * force      = force*dsw - potential*sw
1934      * potential *= sw
1935      */
1936     sc->c3 = -10*pow(rc - rsw, -3);
1937     sc->c4 =  15*pow(rc - rsw, -4);
1938     sc->c5 =  -6*pow(rc - rsw, -5);
1939 }
1940
1941 /*! \brief Construct interaction constants
1942  *
1943  * This data is used (particularly) by search and force code for
1944  * short-range interactions. Many of these are constant for the whole
1945  * simulation; some are constant only after PME tuning completes.
1946  */
1947 static void
1948 init_interaction_const(FILE                       *fp,
1949                        interaction_const_t       **interaction_const,
1950                        const t_forcerec           *fr)
1951 {
1952     interaction_const_t *ic;
1953     const real           minusSix          = -6.0;
1954     const real           minusTwelve       = -12.0;
1955
1956     snew(ic, 1);
1957
1958     ic->cutoff_scheme   = fr->cutoff_scheme;
1959
1960     /* Just allocate something so we can free it */
1961     snew_aligned(ic->tabq_coul_FDV0, 16, 32);
1962     snew_aligned(ic->tabq_coul_F, 16, 32);
1963     snew_aligned(ic->tabq_coul_V, 16, 32);
1964
1965     ic->rlist           = fr->rlist;
1966     ic->rlistlong       = fr->rlistlong;
1967
1968     /* Lennard-Jones */
1969     ic->vdwtype         = fr->vdwtype;
1970     ic->vdw_modifier    = fr->vdw_modifier;
1971     ic->rvdw            = fr->rvdw;
1972     ic->rvdw_switch     = fr->rvdw_switch;
1973     ic->ewaldcoeff_lj   = fr->ewaldcoeff_lj;
1974     ic->ljpme_comb_rule = fr->ljpme_combination_rule;
1975     ic->sh_lj_ewald     = 0;
1976     clear_force_switch_constants(&ic->dispersion_shift);
1977     clear_force_switch_constants(&ic->repulsion_shift);
1978
1979     switch (ic->vdw_modifier)
1980     {
1981         case eintmodPOTSHIFT:
1982             /* Only shift the potential, don't touch the force */
1983             ic->dispersion_shift.cpot = -pow(ic->rvdw, minusSix);
1984             ic->repulsion_shift.cpot  = -pow(ic->rvdw, minusTwelve);
1985             if (EVDW_PME(ic->vdwtype))
1986             {
1987                 real crc2;
1988
1989                 crc2            = sqr(ic->ewaldcoeff_lj*ic->rvdw);
1990                 ic->sh_lj_ewald = (exp(-crc2)*(1 + crc2 + 0.5*crc2*crc2) - 1)*pow(ic->rvdw, minusSix);
1991             }
1992             break;
1993         case eintmodFORCESWITCH:
1994             /* Switch the force, switch and shift the potential */
1995             force_switch_constants(6.0, ic->rvdw_switch, ic->rvdw,
1996                                    &ic->dispersion_shift);
1997             force_switch_constants(12.0, ic->rvdw_switch, ic->rvdw,
1998                                    &ic->repulsion_shift);
1999             break;
2000         case eintmodPOTSWITCH:
2001             /* Switch the potential and force */
2002             potential_switch_constants(ic->rvdw_switch, ic->rvdw,
2003                                        &ic->vdw_switch);
2004             break;
2005         case eintmodNONE:
2006         case eintmodEXACTCUTOFF:
2007             /* Nothing to do here */
2008             break;
2009         default:
2010             gmx_incons("unimplemented potential modifier");
2011     }
2012
2013     ic->sh_invrc6 = -ic->dispersion_shift.cpot;
2014
2015     /* Electrostatics */
2016     ic->eeltype          = fr->eeltype;
2017     ic->coulomb_modifier = fr->coulomb_modifier;
2018     ic->rcoulomb         = fr->rcoulomb;
2019     ic->epsilon_r        = fr->epsilon_r;
2020     ic->epsfac           = fr->epsfac;
2021     ic->ewaldcoeff_q     = fr->ewaldcoeff_q;
2022
2023     if (fr->coulomb_modifier == eintmodPOTSHIFT)
2024     {
2025         ic->sh_ewald = gmx_erfc(ic->ewaldcoeff_q*ic->rcoulomb);
2026     }
2027     else
2028     {
2029         ic->sh_ewald = 0;
2030     }
2031
2032     /* Reaction-field */
2033     if (EEL_RF(ic->eeltype))
2034     {
2035         ic->epsilon_rf = fr->epsilon_rf;
2036         ic->k_rf       = fr->k_rf;
2037         ic->c_rf       = fr->c_rf;
2038     }
2039     else
2040     {
2041         /* For plain cut-off we might use the reaction-field kernels */
2042         ic->epsilon_rf = ic->epsilon_r;
2043         ic->k_rf       = 0;
2044         if (fr->coulomb_modifier == eintmodPOTSHIFT)
2045         {
2046             ic->c_rf   = 1/ic->rcoulomb;
2047         }
2048         else
2049         {
2050             ic->c_rf   = 0;
2051         }
2052     }
2053
2054     if (fp != NULL)
2055     {
2056         real dispersion_shift;
2057
2058         dispersion_shift = ic->dispersion_shift.cpot;
2059         if (EVDW_PME(ic->vdwtype))
2060         {
2061             dispersion_shift -= ic->sh_lj_ewald;
2062         }
2063         fprintf(fp, "Potential shift: LJ r^-12: %.3e r^-6: %.3e",
2064                 ic->repulsion_shift.cpot, dispersion_shift);
2065
2066         if (ic->eeltype == eelCUT)
2067         {
2068             fprintf(fp, ", Coulomb %.e", -ic->c_rf);
2069         }
2070         else if (EEL_PME(ic->eeltype))
2071         {
2072             fprintf(fp, ", Ewald %.3e", -ic->sh_ewald);
2073         }
2074         fprintf(fp, "\n");
2075     }
2076
2077     *interaction_const = ic;
2078 }
2079
2080 /*! \brief Manage initialization within the NBNXN module of
2081  * run-time constants.
2082  */
2083 static void
2084 initialize_gpu_constants(const t_commrec gmx_unused      *cr,
2085                          interaction_const_t             *interaction_const,
2086                          const struct nonbonded_verlet_t *nbv)
2087 {
2088     if (nbv != NULL && nbv->bUseGPU)
2089     {
2090         nbnxn_gpu_init_const(nbv->gpu_nbv, interaction_const, nbv->grp);
2091
2092         /* With tMPI + GPUs some ranks may be sharing GPU(s) and therefore
2093          * also sharing texture references. To keep the code simple, we don't
2094          * treat texture references as shared resources, but this means that
2095          * the coulomb_tab and nbfp texture refs will get updated by multiple threads.
2096          * Hence, to ensure that the non-bonded kernels don't start before all
2097          * texture binding operations are finished, we need to wait for all ranks
2098          * to arrive here before continuing.
2099          *
2100          * Note that we could omit this barrier if GPUs are not shared (or
2101          * texture objects are used), but as this is initialization code, there
2102          * is no point in complicating things.
2103          */
2104 #ifdef GMX_THREAD_MPI
2105         if (PAR(cr))
2106         {
2107             gmx_barrier(cr);
2108         }
2109 #endif  /* GMX_THREAD_MPI */
2110     }
2111
2112 }
2113
2114 static void init_nb_verlet(FILE                *fp,
2115                            nonbonded_verlet_t **nb_verlet,
2116                            gmx_bool             bFEP_NonBonded,
2117                            const t_inputrec    *ir,
2118                            const t_forcerec    *fr,
2119                            const t_commrec     *cr,
2120                            const char          *nbpu_opt)
2121 {
2122     nonbonded_verlet_t *nbv;
2123     int                 i;
2124     char               *env;
2125     gmx_bool            bEmulateGPU, bHybridGPURun = FALSE;
2126
2127     nbnxn_alloc_t      *nb_alloc;
2128     nbnxn_free_t       *nb_free;
2129
2130     snew(nbv, 1);
2131
2132     pick_nbnxn_resources(fp, cr, fr->hwinfo,
2133                          fr->bNonbonded,
2134                          &nbv->bUseGPU,
2135                          &bEmulateGPU,
2136                          fr->gpu_opt);
2137
2138     nbv->nbs = NULL;
2139
2140     nbv->ngrp = (DOMAINDECOMP(cr) ? 2 : 1);
2141     for (i = 0; i < nbv->ngrp; i++)
2142     {
2143         nbv->grp[i].nbl_lists.nnbl = 0;
2144         nbv->grp[i].nbat           = NULL;
2145         nbv->grp[i].kernel_type    = nbnxnkNotSet;
2146
2147         if (i == 0) /* local */
2148         {
2149             pick_nbnxn_kernel(fp, cr, fr->use_simd_kernels,
2150                               nbv->bUseGPU, bEmulateGPU, ir,
2151                               &nbv->grp[i].kernel_type,
2152                               &nbv->grp[i].ewald_excl,
2153                               fr->bNonbonded);
2154         }
2155         else /* non-local */
2156         {
2157             if (nbpu_opt != NULL && strcmp(nbpu_opt, "gpu_cpu") == 0)
2158             {
2159                 /* Use GPU for local, select a CPU kernel for non-local */
2160                 pick_nbnxn_kernel(fp, cr, fr->use_simd_kernels,
2161                                   FALSE, FALSE, ir,
2162                                   &nbv->grp[i].kernel_type,
2163                                   &nbv->grp[i].ewald_excl,
2164                                   fr->bNonbonded);
2165
2166                 bHybridGPURun = TRUE;
2167             }
2168             else
2169             {
2170                 /* Use the same kernel for local and non-local interactions */
2171                 nbv->grp[i].kernel_type = nbv->grp[0].kernel_type;
2172                 nbv->grp[i].ewald_excl  = nbv->grp[0].ewald_excl;
2173             }
2174         }
2175     }
2176
2177     if (nbv->bUseGPU)
2178     {
2179         nbnxn_gpu_compile_kernels(cr->rank_pp_intranode, cr->nodeid, &fr->hwinfo->gpu_info, fr->gpu_opt, fr->ic);
2180
2181         /* init the NxN GPU data; the last argument tells whether we'll have
2182          * both local and non-local NB calculation on GPU */
2183         nbnxn_gpu_init(fp, &nbv->gpu_nbv,
2184                        &fr->hwinfo->gpu_info, fr->gpu_opt,
2185                        cr->rank_pp_intranode,
2186                        (nbv->ngrp > 1) && !bHybridGPURun);
2187
2188         if ((env = getenv("GMX_NB_MIN_CI")) != NULL)
2189         {
2190             char *end;
2191
2192             nbv->min_ci_balanced = strtol(env, &end, 10);
2193             if (!end || (*end != 0) || nbv->min_ci_balanced <= 0)
2194             {
2195                 gmx_fatal(FARGS, "Invalid value passed in GMX_NB_MIN_CI=%s, positive integer required", env);
2196             }
2197
2198             if (debug)
2199             {
2200                 fprintf(debug, "Neighbor-list balancing parameter: %d (passed as env. var.)\n",
2201                         nbv->min_ci_balanced);
2202             }
2203         }
2204         else
2205         {
2206             nbv->min_ci_balanced = nbnxn_gpu_min_ci_balanced(nbv->gpu_nbv);
2207             if (debug)
2208             {
2209                 fprintf(debug, "Neighbor-list balancing parameter: %d (auto-adjusted to the number of GPU multi-processors)\n",
2210                         nbv->min_ci_balanced);
2211             }
2212         }
2213     }
2214     else
2215     {
2216         nbv->min_ci_balanced = 0;
2217     }
2218
2219     *nb_verlet = nbv;
2220
2221     nbnxn_init_search(&nbv->nbs,
2222                       DOMAINDECOMP(cr) ? &cr->dd->nc : NULL,
2223                       DOMAINDECOMP(cr) ? domdec_zones(cr->dd) : NULL,
2224                       bFEP_NonBonded,
2225                       gmx_omp_nthreads_get(emntPairsearch));
2226
2227     for (i = 0; i < nbv->ngrp; i++)
2228     {
2229         gpu_set_host_malloc_and_free(nbv->grp[0].kernel_type == nbnxnk8x8x8_GPU,
2230                                      &nb_alloc, &nb_free);
2231
2232         nbnxn_init_pairlist_set(&nbv->grp[i].nbl_lists,
2233                                 nbnxn_kernel_pairlist_simple(nbv->grp[i].kernel_type),
2234                                 /* 8x8x8 "non-simple" lists are ATM always combined */
2235                                 !nbnxn_kernel_pairlist_simple(nbv->grp[i].kernel_type),
2236                                 nb_alloc, nb_free);
2237
2238         if (i == 0 ||
2239             nbv->grp[0].kernel_type != nbv->grp[i].kernel_type)
2240         {
2241             gmx_bool bSimpleList;
2242             int      enbnxninitcombrule;
2243
2244             bSimpleList = nbnxn_kernel_pairlist_simple(nbv->grp[i].kernel_type);
2245
2246             if (bSimpleList && (fr->vdwtype == evdwCUT && (fr->vdw_modifier == eintmodNONE || fr->vdw_modifier == eintmodPOTSHIFT)))
2247             {
2248                 /* Plain LJ cut-off: we can optimize with combination rules */
2249                 enbnxninitcombrule = enbnxninitcombruleDETECT;
2250             }
2251             else if (fr->vdwtype == evdwPME)
2252             {
2253                 /* LJ-PME: we need to use a combination rule for the grid */
2254                 if (fr->ljpme_combination_rule == eljpmeGEOM)
2255                 {
2256                     enbnxninitcombrule = enbnxninitcombruleGEOM;
2257                 }
2258                 else
2259                 {
2260                     enbnxninitcombrule = enbnxninitcombruleLB;
2261                 }
2262             }
2263             else
2264             {
2265                 /* We use a full combination matrix: no rule required */
2266                 enbnxninitcombrule = enbnxninitcombruleNONE;
2267             }
2268
2269
2270             snew(nbv->grp[i].nbat, 1);
2271             nbnxn_atomdata_init(fp,
2272                                 nbv->grp[i].nbat,
2273                                 nbv->grp[i].kernel_type,
2274                                 enbnxninitcombrule,
2275                                 fr->ntype, fr->nbfp,
2276                                 ir->opts.ngener,
2277                                 bSimpleList ? gmx_omp_nthreads_get(emntNonbonded) : 1,
2278                                 nb_alloc, nb_free);
2279         }
2280         else
2281         {
2282             nbv->grp[i].nbat = nbv->grp[0].nbat;
2283         }
2284     }
2285 }
2286
2287 gmx_bool usingGpu(nonbonded_verlet_t *nbv)
2288 {
2289     return nbv != NULL && nbv->bUseGPU;
2290 }
2291
2292 void init_forcerec(FILE              *fp,
2293                    const output_env_t oenv,
2294                    t_forcerec        *fr,
2295                    t_fcdata          *fcd,
2296                    const t_inputrec  *ir,
2297                    const gmx_mtop_t  *mtop,
2298                    const t_commrec   *cr,
2299                    matrix             box,
2300                    const char        *tabfn,
2301                    const char        *tabafn,
2302                    const char        *tabpfn,
2303                    const char        *tabbfn,
2304                    const char        *nbpu_opt,
2305                    gmx_bool           bNoSolvOpt,
2306                    real               print_force)
2307 {
2308     int            i, m, negp_pp, negptable, egi, egj;
2309     real           rtab;
2310     char          *env;
2311     double         dbl;
2312     const t_block *cgs;
2313     gmx_bool       bGenericKernelOnly;
2314     gmx_bool       bMakeTables, bMakeSeparate14Table, bSomeNormalNbListsAreInUse;
2315     gmx_bool       bFEP_NonBonded;
2316     int           *nm_ind, egp_flags;
2317
2318     if (fr->hwinfo == NULL)
2319     {
2320         /* Detect hardware, gather information.
2321          * In mdrun, hwinfo has already been set before calling init_forcerec.
2322          * Here we ignore GPUs, as tools will not use them anyhow.
2323          */
2324         fr->hwinfo = gmx_detect_hardware(fp, cr, FALSE);
2325     }
2326
2327     /* By default we turn SIMD kernels on, but it might be turned off further down... */
2328     fr->use_simd_kernels = TRUE;
2329
2330     fr->bDomDec = DOMAINDECOMP(cr);
2331
2332     if (check_box(ir->ePBC, box))
2333     {
2334         gmx_fatal(FARGS, check_box(ir->ePBC, box));
2335     }
2336
2337     /* Test particle insertion ? */
2338     if (EI_TPI(ir->eI))
2339     {
2340         /* Set to the size of the molecule to be inserted (the last one) */
2341         /* Because of old style topologies, we have to use the last cg
2342          * instead of the last molecule type.
2343          */
2344         cgs       = &mtop->moltype[mtop->molblock[mtop->nmolblock-1].type].cgs;
2345         fr->n_tpi = cgs->index[cgs->nr] - cgs->index[cgs->nr-1];
2346         if (fr->n_tpi != mtop->mols.index[mtop->mols.nr] - mtop->mols.index[mtop->mols.nr-1])
2347         {
2348             gmx_fatal(FARGS, "The molecule to insert can not consist of multiple charge groups.\nMake it a single charge group.");
2349         }
2350     }
2351     else
2352     {
2353         fr->n_tpi = 0;
2354     }
2355
2356     /* Copy AdResS parameters */
2357     if (ir->bAdress)
2358     {
2359         fr->adress_type           = ir->adress->type;
2360         fr->adress_const_wf       = ir->adress->const_wf;
2361         fr->adress_ex_width       = ir->adress->ex_width;
2362         fr->adress_hy_width       = ir->adress->hy_width;
2363         fr->adress_icor           = ir->adress->icor;
2364         fr->adress_site           = ir->adress->site;
2365         fr->adress_ex_forcecap    = ir->adress->ex_forcecap;
2366         fr->adress_do_hybridpairs = ir->adress->do_hybridpairs;
2367
2368
2369         snew(fr->adress_group_explicit, ir->adress->n_energy_grps);
2370         for (i = 0; i < ir->adress->n_energy_grps; i++)
2371         {
2372             fr->adress_group_explicit[i] = ir->adress->group_explicit[i];
2373         }
2374
2375         fr->n_adress_tf_grps = ir->adress->n_tf_grps;
2376         snew(fr->adress_tf_table_index, fr->n_adress_tf_grps);
2377         for (i = 0; i < fr->n_adress_tf_grps; i++)
2378         {
2379             fr->adress_tf_table_index[i] = ir->adress->tf_table_index[i];
2380         }
2381         copy_rvec(ir->adress->refs, fr->adress_refs);
2382     }
2383     else
2384     {
2385         fr->adress_type           = eAdressOff;
2386         fr->adress_do_hybridpairs = FALSE;
2387     }
2388
2389     /* Copy the user determined parameters */
2390     fr->userint1  = ir->userint1;
2391     fr->userint2  = ir->userint2;
2392     fr->userint3  = ir->userint3;
2393     fr->userint4  = ir->userint4;
2394     fr->userreal1 = ir->userreal1;
2395     fr->userreal2 = ir->userreal2;
2396     fr->userreal3 = ir->userreal3;
2397     fr->userreal4 = ir->userreal4;
2398
2399     /* Shell stuff */
2400     fr->fc_stepsize = ir->fc_stepsize;
2401
2402     /* Free energy */
2403     fr->efep        = ir->efep;
2404     fr->sc_alphavdw = ir->fepvals->sc_alpha;
2405     if (ir->fepvals->bScCoul)
2406     {
2407         fr->sc_alphacoul  = ir->fepvals->sc_alpha;
2408         fr->sc_sigma6_min = pow(ir->fepvals->sc_sigma_min, 6);
2409     }
2410     else
2411     {
2412         fr->sc_alphacoul  = 0;
2413         fr->sc_sigma6_min = 0; /* only needed when bScCoul is on */
2414     }
2415     fr->sc_power      = ir->fepvals->sc_power;
2416     fr->sc_r_power    = ir->fepvals->sc_r_power;
2417     fr->sc_sigma6_def = pow(ir->fepvals->sc_sigma, 6);
2418
2419     env = getenv("GMX_SCSIGMA_MIN");
2420     if (env != NULL)
2421     {
2422         dbl = 0;
2423         sscanf(env, "%20lf", &dbl);
2424         fr->sc_sigma6_min = pow(dbl, 6);
2425         if (fp)
2426         {
2427             fprintf(fp, "Setting the minimum soft core sigma to %g nm\n", dbl);
2428         }
2429     }
2430
2431     fr->bNonbonded = TRUE;
2432     if (getenv("GMX_NO_NONBONDED") != NULL)
2433     {
2434         /* turn off non-bonded calculations */
2435         fr->bNonbonded = FALSE;
2436         md_print_warn(cr, fp,
2437                       "Found environment variable GMX_NO_NONBONDED.\n"
2438                       "Disabling nonbonded calculations.\n");
2439     }
2440
2441     bGenericKernelOnly = FALSE;
2442
2443     /* We now check in the NS code whether a particular combination of interactions
2444      * can be used with water optimization, and disable it if that is not the case.
2445      */
2446
2447     if (getenv("GMX_NB_GENERIC") != NULL)
2448     {
2449         if (fp != NULL)
2450         {
2451             fprintf(fp,
2452                     "Found environment variable GMX_NB_GENERIC.\n"
2453                     "Disabling all interaction-specific nonbonded kernels, will only\n"
2454                     "use the slow generic ones in src/gmxlib/nonbonded/nb_generic.c\n\n");
2455         }
2456         bGenericKernelOnly = TRUE;
2457     }
2458
2459     if (bGenericKernelOnly == TRUE)
2460     {
2461         bNoSolvOpt         = TRUE;
2462     }
2463
2464     if ( (getenv("GMX_DISABLE_SIMD_KERNELS") != NULL) || (getenv("GMX_NOOPTIMIZEDKERNELS") != NULL) )
2465     {
2466         fr->use_simd_kernels = FALSE;
2467         if (fp != NULL)
2468         {
2469             fprintf(fp,
2470                     "\nFound environment variable GMX_DISABLE_SIMD_KERNELS.\n"
2471                     "Disabling the usage of any SIMD-specific non-bonded & bonded kernel routines\n"
2472                     "(e.g. SSE2/SSE4.1/AVX).\n\n");
2473         }
2474     }
2475
2476     fr->bBHAM = (mtop->ffparams.functype[0] == F_BHAM);
2477
2478     /* Check if we can/should do all-vs-all kernels */
2479     fr->bAllvsAll       = can_use_allvsall(ir, FALSE, NULL, NULL);
2480     fr->AllvsAll_work   = NULL;
2481     fr->AllvsAll_workgb = NULL;
2482
2483     /* All-vs-all kernels have not been implemented in 4.6 and later.
2484      * See Redmine #1249. */
2485     if (fr->bAllvsAll)
2486     {
2487         fr->bAllvsAll            = FALSE;
2488         if (fp != NULL)
2489         {
2490             fprintf(fp,
2491                     "\nYour simulation settings would have triggered the efficient all-vs-all\n"
2492                     "kernels in GROMACS 4.5, but these have not been implemented in GROMACS\n"
2493                     "4.6 and 5.x. If performance is important, please use GROMACS 4.5.7\n"
2494                     "or try cutoff-scheme = Verlet.\n\n");
2495         }
2496     }
2497
2498     /* Neighbour searching stuff */
2499     fr->cutoff_scheme = ir->cutoff_scheme;
2500     fr->bGrid         = (ir->ns_type == ensGRID);
2501     fr->ePBC          = ir->ePBC;
2502
2503     if (fr->cutoff_scheme == ecutsGROUP)
2504     {
2505         const char *note = "NOTE: This file uses the deprecated 'group' cutoff_scheme. This will be\n"
2506             "removed in a future release when 'verlet' supports all interaction forms.\n";
2507
2508         if (MASTER(cr))
2509         {
2510             fprintf(stderr, "\n%s\n", note);
2511         }
2512         if (fp != NULL)
2513         {
2514             fprintf(fp, "\n%s\n", note);
2515         }
2516     }
2517
2518     /* Determine if we will do PBC for distances in bonded interactions */
2519     if (fr->ePBC == epbcNONE)
2520     {
2521         fr->bMolPBC = FALSE;
2522     }
2523     else
2524     {
2525         if (!DOMAINDECOMP(cr))
2526         {
2527             /* The group cut-off scheme and SHAKE assume charge groups
2528              * are whole, but not using molpbc is faster in most cases.
2529              */
2530             if (fr->cutoff_scheme == ecutsGROUP ||
2531                 (ir->eConstrAlg == econtSHAKE &&
2532                  (gmx_mtop_ftype_count(mtop, F_CONSTR) > 0 ||
2533                   gmx_mtop_ftype_count(mtop, F_CONSTRNC) > 0)))
2534             {
2535                 fr->bMolPBC = ir->bPeriodicMols;
2536             }
2537             else
2538             {
2539                 fr->bMolPBC = TRUE;
2540                 if (getenv("GMX_USE_GRAPH") != NULL)
2541                 {
2542                     fr->bMolPBC = FALSE;
2543                     if (fp)
2544                     {
2545                         fprintf(fp, "\nGMX_MOLPBC is set, using the graph for bonded interactions\n\n");
2546                     }
2547                 }
2548             }
2549         }
2550         else
2551         {
2552             fr->bMolPBC = dd_bonded_molpbc(cr->dd, fr->ePBC);
2553         }
2554     }
2555     fr->bGB = (ir->implicit_solvent == eisGBSA);
2556
2557     fr->rc_scaling = ir->refcoord_scaling;
2558     copy_rvec(ir->posres_com, fr->posres_com);
2559     copy_rvec(ir->posres_comB, fr->posres_comB);
2560     fr->rlist                    = cutoff_inf(ir->rlist);
2561     fr->rlistlong                = cutoff_inf(ir->rlistlong);
2562     fr->eeltype                  = ir->coulombtype;
2563     fr->vdwtype                  = ir->vdwtype;
2564     fr->ljpme_combination_rule   = ir->ljpme_combination_rule;
2565
2566     fr->coulomb_modifier = ir->coulomb_modifier;
2567     fr->vdw_modifier     = ir->vdw_modifier;
2568
2569     /* Electrostatics: Translate from interaction-setting-in-mdp-file to kernel interaction format */
2570     switch (fr->eeltype)
2571     {
2572         case eelCUT:
2573             fr->nbkernel_elec_interaction = (fr->bGB) ? GMX_NBKERNEL_ELEC_GENERALIZEDBORN : GMX_NBKERNEL_ELEC_COULOMB;
2574             break;
2575
2576         case eelRF:
2577         case eelGRF:
2578         case eelRF_NEC:
2579             fr->nbkernel_elec_interaction = GMX_NBKERNEL_ELEC_REACTIONFIELD;
2580             break;
2581
2582         case eelRF_ZERO:
2583             fr->nbkernel_elec_interaction = GMX_NBKERNEL_ELEC_REACTIONFIELD;
2584             fr->coulomb_modifier          = eintmodEXACTCUTOFF;
2585             break;
2586
2587         case eelSWITCH:
2588         case eelSHIFT:
2589         case eelUSER:
2590         case eelENCADSHIFT:
2591         case eelPMESWITCH:
2592         case eelPMEUSER:
2593         case eelPMEUSERSWITCH:
2594             fr->nbkernel_elec_interaction = GMX_NBKERNEL_ELEC_CUBICSPLINETABLE;
2595             break;
2596
2597         case eelPME:
2598         case eelEWALD:
2599             fr->nbkernel_elec_interaction = GMX_NBKERNEL_ELEC_EWALD;
2600             break;
2601
2602         default:
2603             gmx_fatal(FARGS, "Unsupported electrostatic interaction: %s", eel_names[fr->eeltype]);
2604             break;
2605     }
2606
2607     /* Vdw: Translate from mdp settings to kernel format */
2608     switch (fr->vdwtype)
2609     {
2610         case evdwCUT:
2611             if (fr->bBHAM)
2612             {
2613                 fr->nbkernel_vdw_interaction = GMX_NBKERNEL_VDW_BUCKINGHAM;
2614             }
2615             else
2616             {
2617                 fr->nbkernel_vdw_interaction = GMX_NBKERNEL_VDW_LENNARDJONES;
2618             }
2619             break;
2620         case evdwPME:
2621             fr->nbkernel_vdw_interaction = GMX_NBKERNEL_VDW_LJEWALD;
2622             break;
2623
2624         case evdwSWITCH:
2625         case evdwSHIFT:
2626         case evdwUSER:
2627         case evdwENCADSHIFT:
2628             fr->nbkernel_vdw_interaction = GMX_NBKERNEL_VDW_CUBICSPLINETABLE;
2629             break;
2630
2631         default:
2632             gmx_fatal(FARGS, "Unsupported vdw interaction: %s", evdw_names[fr->vdwtype]);
2633             break;
2634     }
2635
2636     /* These start out identical to ir, but might be altered if we e.g. tabulate the interaction in the kernel */
2637     fr->nbkernel_elec_modifier    = fr->coulomb_modifier;
2638     fr->nbkernel_vdw_modifier     = fr->vdw_modifier;
2639
2640     fr->rvdw             = cutoff_inf(ir->rvdw);
2641     fr->rvdw_switch      = ir->rvdw_switch;
2642     fr->rcoulomb         = cutoff_inf(ir->rcoulomb);
2643     fr->rcoulomb_switch  = ir->rcoulomb_switch;
2644
2645     fr->bTwinRange = fr->rlistlong > fr->rlist;
2646     fr->bEwald     = (EEL_PME(fr->eeltype) || fr->eeltype == eelEWALD);
2647
2648     fr->reppow     = mtop->ffparams.reppow;
2649
2650     if (ir->cutoff_scheme == ecutsGROUP)
2651     {
2652         fr->bvdwtab    = ((fr->vdwtype != evdwCUT || !gmx_within_tol(fr->reppow, 12.0, 10*GMX_DOUBLE_EPS))
2653                           && !EVDW_PME(fr->vdwtype));
2654         /* We have special kernels for standard Ewald and PME, but the pme-switch ones are tabulated above */
2655         fr->bcoultab   = !(fr->eeltype == eelCUT ||
2656                            fr->eeltype == eelEWALD ||
2657                            fr->eeltype == eelPME ||
2658                            fr->eeltype == eelRF ||
2659                            fr->eeltype == eelRF_ZERO);
2660
2661         /* If the user absolutely wants different switch/shift settings for coul/vdw, it is likely
2662          * going to be faster to tabulate the interaction than calling the generic kernel.
2663          * However, if generic kernels have been requested we keep things analytically.
2664          */
2665         if (fr->nbkernel_elec_modifier == eintmodPOTSWITCH &&
2666             fr->nbkernel_vdw_modifier == eintmodPOTSWITCH &&
2667             bGenericKernelOnly == FALSE)
2668         {
2669             if ((fr->rcoulomb_switch != fr->rvdw_switch) || (fr->rcoulomb != fr->rvdw))
2670             {
2671                 fr->bcoultab = TRUE;
2672                 /* Once we tabulate electrostatics, we can use the switch function for LJ,
2673                  * which would otherwise need two tables.
2674                  */
2675             }
2676         }
2677         else if ((fr->nbkernel_elec_modifier == eintmodPOTSHIFT && fr->nbkernel_vdw_modifier == eintmodPOTSHIFT) ||
2678                  ((fr->nbkernel_elec_interaction == GMX_NBKERNEL_ELEC_REACTIONFIELD &&
2679                    fr->nbkernel_elec_modifier == eintmodEXACTCUTOFF &&
2680                    (fr->nbkernel_vdw_modifier == eintmodPOTSWITCH || fr->nbkernel_vdw_modifier == eintmodPOTSHIFT))))
2681         {
2682             if ((fr->rcoulomb != fr->rvdw) && (bGenericKernelOnly == FALSE))
2683             {
2684                 fr->bcoultab = TRUE;
2685             }
2686         }
2687
2688         if (fr->nbkernel_elec_modifier == eintmodFORCESWITCH)
2689         {
2690             fr->bcoultab = TRUE;
2691         }
2692         if (fr->nbkernel_vdw_modifier == eintmodFORCESWITCH)
2693         {
2694             fr->bvdwtab = TRUE;
2695         }
2696
2697         if (getenv("GMX_REQUIRE_TABLES"))
2698         {
2699             fr->bvdwtab  = TRUE;
2700             fr->bcoultab = TRUE;
2701         }
2702
2703         if (fp)
2704         {
2705             fprintf(fp, "Table routines are used for coulomb: %s\n", bool_names[fr->bcoultab]);
2706             fprintf(fp, "Table routines are used for vdw:     %s\n", bool_names[fr->bvdwtab ]);
2707         }
2708
2709         if (fr->bvdwtab == TRUE)
2710         {
2711             fr->nbkernel_vdw_interaction = GMX_NBKERNEL_VDW_CUBICSPLINETABLE;
2712             fr->nbkernel_vdw_modifier    = eintmodNONE;
2713         }
2714         if (fr->bcoultab == TRUE)
2715         {
2716             fr->nbkernel_elec_interaction = GMX_NBKERNEL_ELEC_CUBICSPLINETABLE;
2717             fr->nbkernel_elec_modifier    = eintmodNONE;
2718         }
2719     }
2720
2721     if (ir->cutoff_scheme == ecutsVERLET)
2722     {
2723         if (!gmx_within_tol(fr->reppow, 12.0, 10*GMX_DOUBLE_EPS))
2724         {
2725             gmx_fatal(FARGS, "Cut-off scheme %S only supports LJ repulsion power 12", ecutscheme_names[ir->cutoff_scheme]);
2726         }
2727         fr->bvdwtab  = FALSE;
2728         fr->bcoultab = FALSE;
2729     }
2730
2731     /* Tables are used for direct ewald sum */
2732     if (fr->bEwald)
2733     {
2734         if (EEL_PME(ir->coulombtype))
2735         {
2736             if (fp)
2737             {
2738                 fprintf(fp, "Will do PME sum in reciprocal space for electrostatic interactions.\n");
2739             }
2740             if (ir->coulombtype == eelP3M_AD)
2741             {
2742                 please_cite(fp, "Hockney1988");
2743                 please_cite(fp, "Ballenegger2012");
2744             }
2745             else
2746             {
2747                 please_cite(fp, "Essmann95a");
2748             }
2749
2750             if (ir->ewald_geometry == eewg3DC)
2751             {
2752                 if (fp)
2753                 {
2754                     fprintf(fp, "Using the Ewald3DC correction for systems with a slab geometry.\n");
2755                 }
2756                 please_cite(fp, "In-Chul99a");
2757             }
2758         }
2759         fr->ewaldcoeff_q = calc_ewaldcoeff_q(ir->rcoulomb, ir->ewald_rtol);
2760         init_ewald_tab(&(fr->ewald_table), ir, fp);
2761         if (fp)
2762         {
2763             fprintf(fp, "Using a Gaussian width (1/beta) of %g nm for Ewald\n",
2764                     1/fr->ewaldcoeff_q);
2765         }
2766     }
2767
2768     if (EVDW_PME(ir->vdwtype))
2769     {
2770         if (fp)
2771         {
2772             fprintf(fp, "Will do PME sum in reciprocal space for LJ dispersion interactions.\n");
2773         }
2774         please_cite(fp, "Essmann95a");
2775         fr->ewaldcoeff_lj = calc_ewaldcoeff_lj(ir->rvdw, ir->ewald_rtol_lj);
2776         if (fp)
2777         {
2778             fprintf(fp, "Using a Gaussian width (1/beta) of %g nm for LJ Ewald\n",
2779                     1/fr->ewaldcoeff_lj);
2780         }
2781     }
2782
2783     /* Electrostatics */
2784     fr->epsilon_r       = ir->epsilon_r;
2785     fr->epsilon_rf      = ir->epsilon_rf;
2786     fr->fudgeQQ         = mtop->ffparams.fudgeQQ;
2787
2788     /* Parameters for generalized RF */
2789     fr->zsquare = 0.0;
2790     fr->temp    = 0.0;
2791
2792     if (fr->eeltype == eelGRF)
2793     {
2794         init_generalized_rf(fp, mtop, ir, fr);
2795     }
2796
2797     fr->bF_NoVirSum = (EEL_FULL(fr->eeltype) || EVDW_PME(fr->vdwtype) ||
2798                        gmx_mtop_ftype_count(mtop, F_POSRES) > 0 ||
2799                        gmx_mtop_ftype_count(mtop, F_FBPOSRES) > 0 ||
2800                        IR_ELEC_FIELD(*ir) ||
2801                        (fr->adress_icor != eAdressICOff)
2802                        );
2803
2804     if (fr->cutoff_scheme == ecutsGROUP &&
2805         ncg_mtop(mtop) > fr->cg_nalloc && !DOMAINDECOMP(cr))
2806     {
2807         /* Count the total number of charge groups */
2808         fr->cg_nalloc = ncg_mtop(mtop);
2809         srenew(fr->cg_cm, fr->cg_nalloc);
2810     }
2811     if (fr->shift_vec == NULL)
2812     {
2813         snew(fr->shift_vec, SHIFTS);
2814     }
2815
2816     if (fr->fshift == NULL)
2817     {
2818         snew(fr->fshift, SHIFTS);
2819     }
2820
2821     if (fr->nbfp == NULL)
2822     {
2823         fr->ntype = mtop->ffparams.atnr;
2824         fr->nbfp  = mk_nbfp(&mtop->ffparams, fr->bBHAM);
2825         if (EVDW_PME(fr->vdwtype))
2826         {
2827             fr->ljpme_c6grid  = make_ljpme_c6grid(&mtop->ffparams, fr);
2828         }
2829     }
2830
2831     /* Copy the energy group exclusions */
2832     fr->egp_flags = ir->opts.egp_flags;
2833
2834     /* Van der Waals stuff */
2835     if ((fr->vdwtype != evdwCUT) && (fr->vdwtype != evdwUSER) && !fr->bBHAM)
2836     {
2837         if (fr->rvdw_switch >= fr->rvdw)
2838         {
2839             gmx_fatal(FARGS, "rvdw_switch (%f) must be < rvdw (%f)",
2840                       fr->rvdw_switch, fr->rvdw);
2841         }
2842         if (fp)
2843         {
2844             fprintf(fp, "Using %s Lennard-Jones, switch between %g and %g nm\n",
2845                     (fr->eeltype == eelSWITCH) ? "switched" : "shifted",
2846                     fr->rvdw_switch, fr->rvdw);
2847         }
2848     }
2849
2850     if (fr->bBHAM && EVDW_PME(fr->vdwtype))
2851     {
2852         gmx_fatal(FARGS, "LJ PME not supported with Buckingham");
2853     }
2854
2855     if (fr->bBHAM && (fr->vdwtype == evdwSHIFT || fr->vdwtype == evdwSWITCH))
2856     {
2857         gmx_fatal(FARGS, "Switch/shift interaction not supported with Buckingham");
2858     }
2859
2860     if (fr->bBHAM && fr->cutoff_scheme == ecutsVERLET)
2861     {
2862         gmx_fatal(FARGS, "Verlet cutoff-scheme is not supported with Buckingham");
2863     }
2864
2865     if (fp)
2866     {
2867         fprintf(fp, "Cut-off's:   NS: %g   Coulomb: %g   %s: %g\n",
2868                 fr->rlist, fr->rcoulomb, fr->bBHAM ? "BHAM" : "LJ", fr->rvdw);
2869     }
2870
2871     fr->eDispCorr = ir->eDispCorr;
2872     if (ir->eDispCorr != edispcNO)
2873     {
2874         set_avcsixtwelve(fp, fr, mtop);
2875     }
2876
2877     if (fr->bBHAM)
2878     {
2879         set_bham_b_max(fp, fr, mtop);
2880     }
2881
2882     fr->gb_epsilon_solvent = ir->gb_epsilon_solvent;
2883
2884     /* Copy the GBSA data (radius, volume and surftens for each
2885      * atomtype) from the topology atomtype section to forcerec.
2886      */
2887     snew(fr->atype_radius, fr->ntype);
2888     snew(fr->atype_vol, fr->ntype);
2889     snew(fr->atype_surftens, fr->ntype);
2890     snew(fr->atype_gb_radius, fr->ntype);
2891     snew(fr->atype_S_hct, fr->ntype);
2892
2893     if (mtop->atomtypes.nr > 0)
2894     {
2895         for (i = 0; i < fr->ntype; i++)
2896         {
2897             fr->atype_radius[i] = mtop->atomtypes.radius[i];
2898         }
2899         for (i = 0; i < fr->ntype; i++)
2900         {
2901             fr->atype_vol[i] = mtop->atomtypes.vol[i];
2902         }
2903         for (i = 0; i < fr->ntype; i++)
2904         {
2905             fr->atype_surftens[i] = mtop->atomtypes.surftens[i];
2906         }
2907         for (i = 0; i < fr->ntype; i++)
2908         {
2909             fr->atype_gb_radius[i] = mtop->atomtypes.gb_radius[i];
2910         }
2911         for (i = 0; i < fr->ntype; i++)
2912         {
2913             fr->atype_S_hct[i] = mtop->atomtypes.S_hct[i];
2914         }
2915     }
2916
2917     /* Generate the GB table if needed */
2918     if (fr->bGB)
2919     {
2920 #ifdef GMX_DOUBLE
2921         fr->gbtabscale = 2000;
2922 #else
2923         fr->gbtabscale = 500;
2924 #endif
2925
2926         fr->gbtabr = 100;
2927         fr->gbtab  = make_gb_table(oenv, fr);
2928
2929         init_gb(&fr->born, fr, ir, mtop, ir->gb_algorithm);
2930
2931         /* Copy local gb data (for dd, this is done in dd_partition_system) */
2932         if (!DOMAINDECOMP(cr))
2933         {
2934             make_local_gb(cr, fr->born, ir->gb_algorithm);
2935         }
2936     }
2937
2938     /* Set the charge scaling */
2939     if (fr->epsilon_r != 0)
2940     {
2941         fr->epsfac = ONE_4PI_EPS0/fr->epsilon_r;
2942     }
2943     else
2944     {
2945         /* eps = 0 is infinite dieletric: no coulomb interactions */
2946         fr->epsfac = 0;
2947     }
2948
2949     /* Reaction field constants */
2950     if (EEL_RF(fr->eeltype))
2951     {
2952         calc_rffac(fp, fr->eeltype, fr->epsilon_r, fr->epsilon_rf,
2953                    fr->rcoulomb, fr->temp, fr->zsquare, box,
2954                    &fr->kappa, &fr->k_rf, &fr->c_rf);
2955     }
2956
2957     /*This now calculates sum for q and c6*/
2958     set_chargesum(fp, fr, mtop);
2959
2960     /* if we are using LR electrostatics, and they are tabulated,
2961      * the tables will contain modified coulomb interactions.
2962      * Since we want to use the non-shifted ones for 1-4
2963      * coulombic interactions, we must have an extra set of tables.
2964      */
2965
2966     /* Construct tables.
2967      * A little unnecessary to make both vdw and coul tables sometimes,
2968      * but what the heck... */
2969
2970     bMakeTables = fr->bcoultab || fr->bvdwtab || fr->bEwald ||
2971         (ir->eDispCorr != edispcNO && ir_vdw_switched(ir));
2972
2973     bMakeSeparate14Table = ((!bMakeTables || fr->eeltype != eelCUT || fr->vdwtype != evdwCUT ||
2974                              fr->coulomb_modifier != eintmodNONE ||
2975                              fr->vdw_modifier != eintmodNONE ||
2976                              fr->bBHAM || fr->bEwald) &&
2977                             (gmx_mtop_ftype_count(mtop, F_LJ14) > 0 ||
2978                              gmx_mtop_ftype_count(mtop, F_LJC14_Q) > 0 ||
2979                              gmx_mtop_ftype_count(mtop, F_LJC_PAIRS_NB) > 0));
2980
2981     negp_pp   = ir->opts.ngener - ir->nwall;
2982     negptable = 0;
2983     if (!bMakeTables)
2984     {
2985         bSomeNormalNbListsAreInUse = TRUE;
2986         fr->nnblists               = 1;
2987     }
2988     else
2989     {
2990         bSomeNormalNbListsAreInUse = (ir->eDispCorr != edispcNO);
2991         for (egi = 0; egi < negp_pp; egi++)
2992         {
2993             for (egj = egi; egj < negp_pp; egj++)
2994             {
2995                 egp_flags = ir->opts.egp_flags[GID(egi, egj, ir->opts.ngener)];
2996                 if (!(egp_flags & EGP_EXCL))
2997                 {
2998                     if (egp_flags & EGP_TABLE)
2999                     {
3000                         negptable++;
3001                     }
3002                     else
3003                     {
3004                         bSomeNormalNbListsAreInUse = TRUE;
3005                     }
3006                 }
3007             }
3008         }
3009         if (bSomeNormalNbListsAreInUse)
3010         {
3011             fr->nnblists = negptable + 1;
3012         }
3013         else
3014         {
3015             fr->nnblists = negptable;
3016         }
3017         if (fr->nnblists > 1)
3018         {
3019             snew(fr->gid2nblists, ir->opts.ngener*ir->opts.ngener);
3020         }
3021     }
3022
3023     if (ir->adress)
3024     {
3025         fr->nnblists *= 2;
3026     }
3027
3028     snew(fr->nblists, fr->nnblists);
3029
3030     /* This code automatically gives table length tabext without cut-off's,
3031      * in that case grompp should already have checked that we do not need
3032      * normal tables and we only generate tables for 1-4 interactions.
3033      */
3034     rtab = ir->rlistlong + ir->tabext;
3035
3036     if (bMakeTables)
3037     {
3038         /* make tables for ordinary interactions */
3039         if (bSomeNormalNbListsAreInUse)
3040         {
3041             make_nbf_tables(fp, oenv, fr, rtab, cr, tabfn, NULL, NULL, &fr->nblists[0]);
3042             if (ir->adress)
3043             {
3044                 make_nbf_tables(fp, oenv, fr, rtab, cr, tabfn, NULL, NULL, &fr->nblists[fr->nnblists/2]);
3045             }
3046             if (!bMakeSeparate14Table)
3047             {
3048                 fr->tab14 = fr->nblists[0].table_elec_vdw;
3049             }
3050             m = 1;
3051         }
3052         else
3053         {
3054             m = 0;
3055         }
3056         if (negptable > 0)
3057         {
3058             /* Read the special tables for certain energy group pairs */
3059             nm_ind = mtop->groups.grps[egcENER].nm_ind;
3060             for (egi = 0; egi < negp_pp; egi++)
3061             {
3062                 for (egj = egi; egj < negp_pp; egj++)
3063                 {
3064                     egp_flags = ir->opts.egp_flags[GID(egi, egj, ir->opts.ngener)];
3065                     if ((egp_flags & EGP_TABLE) && !(egp_flags & EGP_EXCL))
3066                     {
3067                         if (fr->nnblists > 1)
3068                         {
3069                             fr->gid2nblists[GID(egi, egj, ir->opts.ngener)] = m;
3070                         }
3071                         /* Read the table file with the two energy groups names appended */
3072                         make_nbf_tables(fp, oenv, fr, rtab, cr, tabfn,
3073                                         *mtop->groups.grpname[nm_ind[egi]],
3074                                         *mtop->groups.grpname[nm_ind[egj]],
3075                                         &fr->nblists[m]);
3076                         if (ir->adress)
3077                         {
3078                             make_nbf_tables(fp, oenv, fr, rtab, cr, tabfn,
3079                                             *mtop->groups.grpname[nm_ind[egi]],
3080                                             *mtop->groups.grpname[nm_ind[egj]],
3081                                             &fr->nblists[fr->nnblists/2+m]);
3082                         }
3083                         m++;
3084                     }
3085                     else if (fr->nnblists > 1)
3086                     {
3087                         fr->gid2nblists[GID(egi, egj, ir->opts.ngener)] = 0;
3088                     }
3089                 }
3090             }
3091         }
3092     }
3093     else if ((fr->eDispCorr != edispcNO) &&
3094              ((fr->vdw_modifier == eintmodPOTSWITCH) ||
3095               (fr->vdw_modifier == eintmodFORCESWITCH) ||
3096               (fr->vdw_modifier == eintmodPOTSHIFT)))
3097     {
3098         /* Tables might not be used for the potential modifier interactions per se, but
3099          * we still need them to evaluate switch/shift dispersion corrections in this case.
3100          */
3101         make_nbf_tables(fp, oenv, fr, rtab, cr, tabfn, NULL, NULL, &fr->nblists[0]);
3102     }
3103
3104     if (bMakeSeparate14Table)
3105     {
3106         /* generate extra tables with plain Coulomb for 1-4 interactions only */
3107         fr->tab14 = make_tables(fp, oenv, fr, MASTER(cr), tabpfn, rtab,
3108                                 GMX_MAKETABLES_14ONLY);
3109     }
3110
3111     /* Read AdResS Thermo Force table if needed */
3112     if (fr->adress_icor == eAdressICThermoForce)
3113     {
3114         /* old todo replace */
3115
3116         if (ir->adress->n_tf_grps > 0)
3117         {
3118             make_adress_tf_tables(fp, oenv, fr, ir, tabfn, mtop, box);
3119
3120         }
3121         else
3122         {
3123             /* load the default table */
3124             snew(fr->atf_tabs, 1);
3125             fr->atf_tabs[DEFAULT_TF_TABLE] = make_atf_table(fp, oenv, fr, tabafn, box);
3126         }
3127     }
3128
3129     /* Wall stuff */
3130     fr->nwall = ir->nwall;
3131     if (ir->nwall && ir->wall_type == ewtTABLE)
3132     {
3133         make_wall_tables(fp, oenv, ir, tabfn, &mtop->groups, fr);
3134     }
3135
3136     if (fcd && tabbfn)
3137     {
3138         fcd->bondtab  = make_bonded_tables(fp,
3139                                            F_TABBONDS, F_TABBONDSNC,
3140                                            mtop, tabbfn, "b");
3141         fcd->angletab = make_bonded_tables(fp,
3142                                            F_TABANGLES, -1,
3143                                            mtop, tabbfn, "a");
3144         fcd->dihtab   = make_bonded_tables(fp,
3145                                            F_TABDIHS, -1,
3146                                            mtop, tabbfn, "d");
3147     }
3148     else
3149     {
3150         if (debug)
3151         {
3152             fprintf(debug, "No fcdata or table file name passed, can not read table, can not do bonded interactions\n");
3153         }
3154     }
3155
3156     /* QM/MM initialization if requested
3157      */
3158     if (ir->bQMMM)
3159     {
3160         fprintf(stderr, "QM/MM calculation requested.\n");
3161     }
3162
3163     fr->bQMMM      = ir->bQMMM;
3164     fr->qr         = mk_QMMMrec();
3165
3166     /* Set all the static charge group info */
3167     fr->cginfo_mb = init_cginfo_mb(fp, mtop, fr, bNoSolvOpt,
3168                                    &bFEP_NonBonded,
3169                                    &fr->bExcl_IntraCGAll_InterCGNone);
3170     if (DOMAINDECOMP(cr))
3171     {
3172         fr->cginfo = NULL;
3173     }
3174     else
3175     {
3176         fr->cginfo = cginfo_expand(mtop->nmolblock, fr->cginfo_mb);
3177     }
3178
3179     if (!DOMAINDECOMP(cr))
3180     {
3181         forcerec_set_ranges(fr, ncg_mtop(mtop), ncg_mtop(mtop),
3182                             mtop->natoms, mtop->natoms, mtop->natoms);
3183     }
3184
3185     fr->print_force = print_force;
3186
3187
3188     /* coarse load balancing vars */
3189     fr->t_fnbf    = 0.;
3190     fr->t_wait    = 0.;
3191     fr->timesteps = 0;
3192
3193     /* Initialize neighbor search */
3194     init_ns(fp, cr, &fr->ns, fr, mtop);
3195
3196     if (cr->duty & DUTY_PP)
3197     {
3198         gmx_nonbonded_setup(fr, bGenericKernelOnly);
3199         /*
3200            if (ir->bAdress)
3201             {
3202                 gmx_setup_adress_kernels(fp,bGenericKernelOnly);
3203             }
3204          */
3205     }
3206
3207     /* Initialize the thread working data for bonded interactions */
3208     init_bonded_threading(fp, fr, mtop->groups.grps[egcENER].nr);
3209
3210     snew(fr->excl_load, fr->nthreads+1);
3211
3212     /* fr->ic is used both by verlet and group kernels (to some extent) now */
3213     init_interaction_const(fp, &fr->ic, fr);
3214
3215     if (fr->cutoff_scheme == ecutsVERLET)
3216     {
3217         if (ir->rcoulomb != ir->rvdw)
3218         {
3219             gmx_fatal(FARGS, "With Verlet lists rcoulomb and rvdw should be identical");
3220         }
3221
3222         init_nb_verlet(fp, &fr->nbv, bFEP_NonBonded, ir, fr, cr, nbpu_opt);
3223     }
3224
3225     init_interaction_const_tables(fp, fr->ic, rtab);
3226
3227     initialize_gpu_constants(cr, fr->ic, fr->nbv);
3228
3229     if (ir->eDispCorr != edispcNO)
3230     {
3231         calc_enervirdiff(fp, ir->eDispCorr, fr);
3232     }
3233 }
3234
3235 #define pr_real(fp, r) fprintf(fp, "%s: %e\n",#r, r)
3236 #define pr_int(fp, i)  fprintf((fp), "%s: %d\n",#i, i)
3237 #define pr_bool(fp, b) fprintf((fp), "%s: %s\n",#b, bool_names[b])
3238
3239 void pr_forcerec(FILE *fp, t_forcerec *fr)
3240 {
3241     int i;
3242
3243     pr_real(fp, fr->rlist);
3244     pr_real(fp, fr->rcoulomb);
3245     pr_real(fp, fr->fudgeQQ);
3246     pr_bool(fp, fr->bGrid);
3247     pr_bool(fp, fr->bTwinRange);
3248     /*pr_int(fp,fr->cg0);
3249        pr_int(fp,fr->hcg);*/
3250     for (i = 0; i < fr->nnblists; i++)
3251     {
3252         pr_int(fp, fr->nblists[i].table_elec_vdw.n);
3253     }
3254     pr_real(fp, fr->rcoulomb_switch);
3255     pr_real(fp, fr->rcoulomb);
3256
3257     fflush(fp);
3258 }
3259
3260 void forcerec_set_excl_load(t_forcerec           *fr,
3261                             const gmx_localtop_t *top)
3262 {
3263     const int *ind, *a;
3264     int        t, i, j, ntot, n, ntarget;
3265
3266     ind = top->excls.index;
3267     a   = top->excls.a;
3268
3269     ntot = 0;
3270     for (i = 0; i < top->excls.nr; i++)
3271     {
3272         for (j = ind[i]; j < ind[i+1]; j++)
3273         {
3274             if (a[j] > i)
3275             {
3276                 ntot++;
3277             }
3278         }
3279     }
3280
3281     fr->excl_load[0] = 0;
3282     n                = 0;
3283     i                = 0;
3284     for (t = 1; t <= fr->nthreads; t++)
3285     {
3286         ntarget = (ntot*t)/fr->nthreads;
3287         while (i < top->excls.nr && n < ntarget)
3288         {
3289             for (j = ind[i]; j < ind[i+1]; j++)
3290             {
3291                 if (a[j] > i)
3292                 {
3293                     n++;
3294                 }
3295             }
3296             i++;
3297         }
3298         fr->excl_load[t] = i;
3299     }
3300 }
3301
3302 /* Frees GPU memory and destroys the GPU context.
3303  *
3304  * Note that this function needs to be called even if GPUs are not used
3305  * in this run because the PME ranks have no knowledge of whether GPUs
3306  * are used or not, but all ranks need to enter the barrier below.
3307  */
3308 void free_gpu_resources(const t_forcerec     *fr,
3309                         const t_commrec      *cr,
3310                         const gmx_gpu_info_t *gpu_info,
3311                         const gmx_gpu_opt_t  *gpu_opt)
3312 {
3313     gmx_bool bIsPPrankUsingGPU;
3314     char     gpu_err_str[STRLEN];
3315
3316     bIsPPrankUsingGPU = (cr->duty & DUTY_PP) && fr && fr->nbv && fr->nbv->bUseGPU;
3317
3318     if (bIsPPrankUsingGPU)
3319     {
3320         /* free nbnxn data in GPU memory */
3321         nbnxn_gpu_free(fr->nbv->gpu_nbv);
3322
3323         /* With tMPI we need to wait for all ranks to finish deallocation before
3324          * destroying the context in free_gpu() as some ranks may be sharing
3325          * GPU and context.
3326          * Note: as only PP ranks need to free GPU resources, so it is safe to
3327          * not call the barrier on PME ranks.
3328          */
3329 #ifdef GMX_THREAD_MPI
3330         if (PAR(cr))
3331         {
3332             gmx_barrier(cr);
3333         }
3334 #endif  /* GMX_THREAD_MPI */
3335
3336         /* uninitialize GPU (by destroying the context) */
3337         if (!free_cuda_gpu(cr->rank_pp_intranode, gpu_err_str, gpu_info, gpu_opt))
3338         {
3339             gmx_warning("On rank %d failed to free GPU #%d: %s",
3340                         cr->nodeid, get_current_cuda_gpu_device_id(), gpu_err_str);
3341         }
3342     }
3343 }