Make use of the DeviceStreamManager
[alexxy/gromacs.git] / src / gromacs / mdrun / md.cpp
1 /*
2  * This file is part of the GROMACS molecular simulation package.
3  *
4  * Copyright (c) 1991-2000, University of Groningen, The Netherlands.
5  * Copyright (c) 2001-2004, The GROMACS development team.
6  * Copyright (c) 2011-2019,2020, by the GROMACS development team, led by
7  * Mark Abraham, David van der Spoel, Berk Hess, and Erik Lindahl,
8  * and including many others, as listed in the AUTHORS file in the
9  * top-level source directory and at http://www.gromacs.org.
10  *
11  * GROMACS is free software; you can redistribute it and/or
12  * modify it under the terms of the GNU Lesser General Public License
13  * as published by the Free Software Foundation; either version 2.1
14  * of the License, or (at your option) any later version.
15  *
16  * GROMACS is distributed in the hope that it will be useful,
17  * but WITHOUT ANY WARRANTY; without even the implied warranty of
18  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
19  * Lesser General Public License for more details.
20  *
21  * You should have received a copy of the GNU Lesser General Public
22  * License along with GROMACS; if not, see
23  * http://www.gnu.org/licenses, or write to the Free Software Foundation,
24  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA.
25  *
26  * If you want to redistribute modifications to GROMACS, please
27  * consider that scientific software is very special. Version
28  * control is crucial - bugs must be traceable. We will be happy to
29  * consider code for inclusion in the official distribution, but
30  * derived work must not be called official GROMACS. Details are found
31  * in the README & COPYING files - if they are missing, get the
32  * official version at http://www.gromacs.org.
33  *
34  * To help us fund GROMACS development, we humbly ask that you cite
35  * the research papers on the package. Check out http://www.gromacs.org.
36  */
37 /*! \internal \file
38  *
39  * \brief Implements the integrator for normal molecular dynamics simulations
40  *
41  * \author David van der Spoel <david.vanderspoel@icm.uu.se>
42  * \ingroup module_mdrun
43  */
44 #include "gmxpre.h"
45
46 #include <cinttypes>
47 #include <cmath>
48 #include <cstdio>
49 #include <cstdlib>
50
51 #include <algorithm>
52 #include <memory>
53
54 #include "gromacs/awh/awh.h"
55 #include "gromacs/commandline/filenm.h"
56 #include "gromacs/domdec/collect.h"
57 #include "gromacs/domdec/dlbtiming.h"
58 #include "gromacs/domdec/domdec.h"
59 #include "gromacs/domdec/domdec_network.h"
60 #include "gromacs/domdec/domdec_struct.h"
61 #include "gromacs/domdec/gpuhaloexchange.h"
62 #include "gromacs/domdec/mdsetup.h"
63 #include "gromacs/domdec/partition.h"
64 #include "gromacs/essentialdynamics/edsam.h"
65 #include "gromacs/ewald/pme_load_balancing.h"
66 #include "gromacs/ewald/pme_pp.h"
67 #include "gromacs/fileio/trxio.h"
68 #include "gromacs/gmxlib/network.h"
69 #include "gromacs/gmxlib/nrnb.h"
70 #include "gromacs/gpu_utils/device_stream_manager.h"
71 #include "gromacs/gpu_utils/gpu_utils.h"
72 #include "gromacs/imd/imd.h"
73 #include "gromacs/listed_forces/manage_threading.h"
74 #include "gromacs/math/functions.h"
75 #include "gromacs/math/utilities.h"
76 #include "gromacs/math/vec.h"
77 #include "gromacs/math/vectypes.h"
78 #include "gromacs/mdlib/checkpointhandler.h"
79 #include "gromacs/mdlib/compute_io.h"
80 #include "gromacs/mdlib/constr.h"
81 #include "gromacs/mdlib/ebin.h"
82 #include "gromacs/mdlib/enerdata_utils.h"
83 #include "gromacs/mdlib/energyoutput.h"
84 #include "gromacs/mdlib/expanded.h"
85 #include "gromacs/mdlib/force.h"
86 #include "gromacs/mdlib/force_flags.h"
87 #include "gromacs/mdlib/forcerec.h"
88 #include "gromacs/mdlib/md_support.h"
89 #include "gromacs/mdlib/mdatoms.h"
90 #include "gromacs/mdlib/mdoutf.h"
91 #include "gromacs/mdlib/membed.h"
92 #include "gromacs/mdlib/resethandler.h"
93 #include "gromacs/mdlib/sighandler.h"
94 #include "gromacs/mdlib/simulationsignal.h"
95 #include "gromacs/mdlib/stat.h"
96 #include "gromacs/mdlib/stophandler.h"
97 #include "gromacs/mdlib/tgroup.h"
98 #include "gromacs/mdlib/trajectory_writing.h"
99 #include "gromacs/mdlib/update.h"
100 #include "gromacs/mdlib/update_constrain_gpu.h"
101 #include "gromacs/mdlib/vcm.h"
102 #include "gromacs/mdlib/vsite.h"
103 #include "gromacs/mdrunutility/handlerestart.h"
104 #include "gromacs/mdrunutility/multisim.h"
105 #include "gromacs/mdrunutility/printtime.h"
106 #include "gromacs/mdtypes/awh_history.h"
107 #include "gromacs/mdtypes/awh_params.h"
108 #include "gromacs/mdtypes/commrec.h"
109 #include "gromacs/mdtypes/df_history.h"
110 #include "gromacs/mdtypes/energyhistory.h"
111 #include "gromacs/mdtypes/fcdata.h"
112 #include "gromacs/mdtypes/forcerec.h"
113 #include "gromacs/mdtypes/group.h"
114 #include "gromacs/mdtypes/inputrec.h"
115 #include "gromacs/mdtypes/interaction_const.h"
116 #include "gromacs/mdtypes/md_enums.h"
117 #include "gromacs/mdtypes/mdatom.h"
118 #include "gromacs/mdtypes/mdrunoptions.h"
119 #include "gromacs/mdtypes/observableshistory.h"
120 #include "gromacs/mdtypes/pullhistory.h"
121 #include "gromacs/mdtypes/simulation_workload.h"
122 #include "gromacs/mdtypes/state.h"
123 #include "gromacs/mdtypes/state_propagator_data_gpu.h"
124 #include "gromacs/modularsimulator/energyelement.h"
125 #include "gromacs/nbnxm/gpu_data_mgmt.h"
126 #include "gromacs/nbnxm/nbnxm.h"
127 #include "gromacs/pbcutil/pbc.h"
128 #include "gromacs/pulling/output.h"
129 #include "gromacs/pulling/pull.h"
130 #include "gromacs/swap/swapcoords.h"
131 #include "gromacs/timing/wallcycle.h"
132 #include "gromacs/timing/walltime_accounting.h"
133 #include "gromacs/topology/atoms.h"
134 #include "gromacs/topology/idef.h"
135 #include "gromacs/topology/mtop_util.h"
136 #include "gromacs/topology/topology.h"
137 #include "gromacs/trajectory/trajectoryframe.h"
138 #include "gromacs/utility/basedefinitions.h"
139 #include "gromacs/utility/cstringutil.h"
140 #include "gromacs/utility/fatalerror.h"
141 #include "gromacs/utility/logger.h"
142 #include "gromacs/utility/real.h"
143 #include "gromacs/utility/smalloc.h"
144
145 #include "legacysimulator.h"
146 #include "replicaexchange.h"
147 #include "shellfc.h"
148
149 #if GMX_FAHCORE
150 #    include "corewrap.h"
151 #endif
152
153 using gmx::SimulationSignaller;
154
155 void gmx::LegacySimulator::do_md()
156 {
157     // TODO Historically, the EM and MD "integrators" used different
158     // names for the t_inputrec *parameter, but these must have the
159     // same name, now that it's a member of a struct. We use this ir
160     // alias to avoid a large ripple of nearly useless changes.
161     // t_inputrec is being replaced by IMdpOptionsProvider, so this
162     // will go away eventually.
163     t_inputrec*  ir = inputrec;
164     int64_t      step, step_rel;
165     double       t, t0 = ir->init_t, lam0[efptNR];
166     gmx_bool     bGStatEveryStep, bGStat, bCalcVir, bCalcEnerStep, bCalcEner;
167     gmx_bool     bNS, bNStList, bStopCM, bFirstStep, bInitStep, bLastStep = FALSE;
168     gmx_bool     bDoDHDL = FALSE, bDoFEP = FALSE, bDoExpanded = FALSE;
169     gmx_bool     do_ene, do_log, do_verbose;
170     gmx_bool     bMasterState;
171     unsigned int force_flags;
172     tensor force_vir = { { 0 } }, shake_vir = { { 0 } }, total_vir = { { 0 } }, tmp_vir = { { 0 } },
173            pres = { { 0 } };
174     int                         i, m;
175     rvec                        mu_tot;
176     matrix                      pressureCouplingMu, M;
177     gmx_repl_ex_t               repl_ex = nullptr;
178     PaddedHostVector<gmx::RVec> f{};
179     gmx_global_stat_t           gstat;
180     gmx_shellfc_t*              shellfc;
181     gmx_bool                    bSumEkinhOld, bDoReplEx, bExchanged, bNeedRepartition;
182     gmx_bool                    bTemp, bPres, bTrotter;
183     real                        dvdl_constr;
184     std::vector<RVec>           cbuf;
185     matrix                      lastbox;
186     int                         lamnew = 0;
187     /* for FEP */
188     int       nstfep = 0;
189     double    cycles;
190     real      saved_conserved_quantity = 0;
191     real      last_ekin                = 0;
192     t_extmass MassQ;
193     char      sbuf[STEPSTRSIZE], sbuf2[STEPSTRSIZE];
194
195     /* PME load balancing data for GPU kernels */
196     gmx_bool bPMETune         = FALSE;
197     gmx_bool bPMETunePrinting = FALSE;
198
199     bool bInteractiveMDstep = false;
200
201     /* Domain decomposition could incorrectly miss a bonded
202        interaction, but checking for that requires a global
203        communication stage, which does not otherwise happen in DD
204        code. So we do that alongside the first global energy reduction
205        after a new DD is made. These variables handle whether the
206        check happens, and the result it returns. */
207     bool shouldCheckNumberOfBondedInteractions = false;
208     int  totalNumberOfBondedInteractions       = -1;
209
210     SimulationSignals signals;
211     // Most global communnication stages don't propagate mdrun
212     // signals, and will use this object to achieve that.
213     SimulationSignaller nullSignaller(nullptr, nullptr, nullptr, false, false);
214
215     if (!mdrunOptions.writeConfout)
216     {
217         // This is on by default, and the main known use case for
218         // turning it off is for convenience in benchmarking, which is
219         // something that should not show up in the general user
220         // interface.
221         GMX_LOG(mdlog.info)
222                 .asParagraph()
223                 .appendText(
224                         "The -noconfout functionality is deprecated, and may be removed in a "
225                         "future version.");
226     }
227
228     /* md-vv uses averaged full step velocities for T-control
229        md-vv-avek uses averaged half step velocities for T-control (but full step ekin for P control)
230        md uses averaged half step kinetic energies to determine temperature unless defined otherwise by GMX_EKIN_AVE_VEL; */
231     bTrotter = (EI_VV(ir->eI)
232                 && (inputrecNptTrotter(ir) || inputrecNphTrotter(ir) || inputrecNvtTrotter(ir)));
233
234     const bool bRerunMD = false;
235
236     int nstglobalcomm = computeGlobalCommunicationPeriod(mdlog, ir, cr);
237     bGStatEveryStep   = (nstglobalcomm == 1);
238
239     SimulationGroups* groups = &top_global->groups;
240
241     std::unique_ptr<EssentialDynamics> ed = nullptr;
242     if (opt2bSet("-ei", nfile, fnm))
243     {
244         /* Initialize essential dynamics sampling */
245         ed = init_edsam(mdlog, opt2fn_null("-ei", nfile, fnm), opt2fn("-eo", nfile, fnm), top_global,
246                         ir, cr, constr, state_global, observablesHistory, oenv, startingBehavior);
247     }
248     else if (observablesHistory->edsamHistory)
249     {
250         gmx_fatal(FARGS,
251                   "The checkpoint is from a run with essential dynamics sampling, "
252                   "but the current run did not specify the -ei option. "
253                   "Either specify the -ei option to mdrun, or do not use this checkpoint file.");
254     }
255
256     initialize_lambdas(fplog, *ir, MASTER(cr), &state_global->fep_state, state_global->lambda, lam0);
257     Update     upd(ir, deform);
258     const bool doSimulatedAnnealing = initSimulatedAnnealing(ir, &upd);
259     const bool useReplicaExchange   = (replExParams.exchangeInterval > 0);
260
261     bool simulationsShareState = false;
262     int  nstSignalComm         = nstglobalcomm;
263     {
264         // TODO This implementation of ensemble orientation restraints is nasty because
265         // a user can't just do multi-sim with single-sim orientation restraints.
266         bool usingEnsembleRestraints =
267                 (fcd->disres.nsystems > 1) || ((ms != nullptr) && (fcd->orires.nr != 0));
268         bool awhUsesMultiSim = (ir->bDoAwh && ir->awhParams->shareBiasMultisim && (ms != nullptr));
269
270         // Replica exchange, ensemble restraints and AWH need all
271         // simulations to remain synchronized, so they need
272         // checkpoints and stop conditions to act on the same step, so
273         // the propagation of such signals must take place between
274         // simulations, not just within simulations.
275         // TODO: Make algorithm initializers set these flags.
276         simulationsShareState = useReplicaExchange || usingEnsembleRestraints || awhUsesMultiSim;
277
278         if (simulationsShareState)
279         {
280             // Inter-simulation signal communication does not need to happen
281             // often, so we use a minimum of 200 steps to reduce overhead.
282             const int c_minimumInterSimulationSignallingInterval = 200;
283             nstSignalComm = ((c_minimumInterSimulationSignallingInterval + nstglobalcomm - 1) / nstglobalcomm)
284                             * nstglobalcomm;
285         }
286     }
287
288     if (startingBehavior != StartingBehavior::RestartWithAppending)
289     {
290         pleaseCiteCouplingAlgorithms(fplog, *ir);
291     }
292     gmx_mdoutf* outf =
293             init_mdoutf(fplog, nfile, fnm, mdrunOptions, cr, outputProvider, mdModulesNotifier, ir,
294                         top_global, oenv, wcycle, startingBehavior, simulationsShareState, ms);
295     gmx::EnergyOutput energyOutput(mdoutf_get_fp_ene(outf), top_global, ir, pull_work,
296                                    mdoutf_get_fp_dhdl(outf), false, startingBehavior, mdModulesNotifier);
297
298     gstat = global_stat_init(ir);
299
300     /* Check for polarizable models and flexible constraints */
301     shellfc = init_shell_flexcon(fplog, top_global, constr ? constr->numFlexibleConstraints() : 0,
302                                  ir->nstcalcenergy, DOMAINDECOMP(cr));
303
304     {
305         double io = compute_io(ir, top_global->natoms, *groups, energyOutput.numEnergyTerms(), 1);
306         if ((io > 2000) && MASTER(cr))
307         {
308             fprintf(stderr, "\nWARNING: This run will generate roughly %.0f Mb of data\n\n", io);
309         }
310     }
311
312     // Local state only becomes valid now.
313     std::unique_ptr<t_state> stateInstance;
314     t_state*                 state;
315
316
317     gmx_localtop_t top(top_global->ffparams);
318
319     auto mdatoms = mdAtoms->mdatoms();
320
321     std::unique_ptr<UpdateConstrainGpu> integrator;
322
323     if (DOMAINDECOMP(cr))
324     {
325         stateInstance = std::make_unique<t_state>();
326         state         = stateInstance.get();
327         dd_init_local_state(cr->dd, state_global, state);
328
329         /* Distribute the charge groups over the nodes from the master node */
330         dd_partition_system(fplog, mdlog, ir->init_step, cr, TRUE, 1, state_global, *top_global, ir,
331                             imdSession, pull_work, state, &f, mdAtoms, &top, fr, vsite, constr,
332                             nrnb, nullptr, FALSE);
333         shouldCheckNumberOfBondedInteractions = true;
334         upd.setNumAtoms(state->natoms);
335     }
336     else
337     {
338         state_change_natoms(state_global, state_global->natoms);
339         f.resizeWithPadding(state_global->natoms);
340         /* Copy the pointer to the global state */
341         state = state_global;
342
343         /* Generate and initialize new topology */
344         mdAlgorithmsSetupAtomData(cr, ir, *top_global, &top, fr, mdAtoms, constr, vsite, shellfc);
345
346         upd.setNumAtoms(state->natoms);
347     }
348
349     const auto& simulationWork     = runScheduleWork->simulationWork;
350     const bool  useGpuForPme       = simulationWork.useGpuPme;
351     const bool  useGpuForNonbonded = simulationWork.useGpuNonbonded;
352     const bool  useGpuForBufferOps = simulationWork.useGpuBufferOps;
353     const bool  useGpuForUpdate    = simulationWork.useGpuUpdate;
354
355     StatePropagatorDataGpu* stateGpu = fr->stateGpu;
356
357     // TODO: the assertions below should be handled by UpdateConstraintsBuilder.
358     if (useGpuForUpdate)
359     {
360         GMX_RELEASE_ASSERT(!DOMAINDECOMP(cr) || ddUsesUpdateGroups(*cr->dd) || constr == nullptr
361                                    || constr->numConstraintsTotal() == 0,
362                            "Constraints in domain decomposition are only supported with update "
363                            "groups if using GPU update.\n");
364         GMX_RELEASE_ASSERT(ir->eConstrAlg != econtSHAKE || constr == nullptr
365                                    || constr->numConstraintsTotal() == 0,
366                            "SHAKE is not supported with GPU update.");
367         GMX_RELEASE_ASSERT(useGpuForPme || (useGpuForNonbonded && simulationWork.useGpuBufferOps),
368                            "Either PME or short-ranged non-bonded interaction tasks must run on "
369                            "the GPU to use GPU update.\n");
370         GMX_RELEASE_ASSERT(ir->eI == eiMD,
371                            "Only the md integrator is supported with the GPU update.\n");
372         GMX_RELEASE_ASSERT(
373                 ir->etc != etcNOSEHOOVER,
374                 "Nose-Hoover temperature coupling is not supported with the GPU update.\n");
375         GMX_RELEASE_ASSERT(ir->epc == epcNO || ir->epc == epcPARRINELLORAHMAN || ir->epc == epcBERENDSEN,
376                            "Only Parrinello-Rahman and Berendsen pressure coupling are supported "
377                            "with the GPU update.\n");
378         GMX_RELEASE_ASSERT(!mdatoms->haveVsites,
379                            "Virtual sites are not supported with the GPU update.\n");
380         GMX_RELEASE_ASSERT(ed == nullptr,
381                            "Essential dynamics is not supported with the GPU update.\n");
382         GMX_RELEASE_ASSERT(!ir->bPull || !pull_have_constraint(ir->pull),
383                            "Constraints pulling is not supported with the GPU update.\n");
384         GMX_RELEASE_ASSERT(fcd->orires.nr == 0,
385                            "Orientation restraints are not supported with the GPU update.\n");
386         GMX_RELEASE_ASSERT(
387                 ir->efep == efepNO
388                         || (!haveFreeEnergyType(*ir, efptBONDED) && !haveFreeEnergyType(*ir, efptMASS)),
389                 "Free energy perturbation of masses and constraints are not supported with the GPU "
390                 "update.");
391
392         if (constr != nullptr && constr->numConstraintsTotal() > 0)
393         {
394             GMX_LOG(mdlog.info)
395                     .asParagraph()
396                     .appendText("Updating coordinates and applying constraints on the GPU.");
397         }
398         else
399         {
400             GMX_LOG(mdlog.info).asParagraph().appendText("Updating coordinates on the GPU.");
401         }
402         GMX_RELEASE_ASSERT(fr->deviceStreamManager != nullptr,
403                            "Device stream manager should be initialized in order to use GPU "
404                            "update-constraints.");
405         GMX_RELEASE_ASSERT(
406                 fr->deviceStreamManager->streamIsValid(gmx::DeviceStreamType::UpdateAndConstraints),
407                 "Update stream should be initialized in order to use GPU "
408                 "update-constraints.");
409         integrator = std::make_unique<UpdateConstrainGpu>(
410                 *ir, *top_global, fr->deviceStreamManager->context(),
411                 fr->deviceStreamManager->stream(gmx::DeviceStreamType::UpdateAndConstraints),
412                 stateGpu->xUpdatedOnDevice());
413
414         integrator->setPbc(PbcType::Xyz, state->box);
415     }
416
417     if (useGpuForPme || (useGpuForNonbonded && useGpuForBufferOps) || useGpuForUpdate)
418     {
419         changePinningPolicy(&state->x, PinningPolicy::PinnedIfSupported);
420     }
421     if ((useGpuForNonbonded && useGpuForBufferOps) || useGpuForUpdate)
422     {
423         changePinningPolicy(&f, PinningPolicy::PinnedIfSupported);
424     }
425     if (useGpuForUpdate)
426     {
427         changePinningPolicy(&state->v, PinningPolicy::PinnedIfSupported);
428     }
429
430     // NOTE: The global state is no longer used at this point.
431     // But state_global is still used as temporary storage space for writing
432     // the global state to file and potentially for replica exchange.
433     // (Global topology should persist.)
434
435     update_mdatoms(mdatoms, state->lambda[efptMASS]);
436
437     if (ir->bExpanded)
438     {
439         /* Check nstexpanded here, because the grompp check was broken */
440         if (ir->expandedvals->nstexpanded % ir->nstcalcenergy != 0)
441         {
442             gmx_fatal(FARGS,
443                       "With expanded ensemble, nstexpanded should be a multiple of nstcalcenergy");
444         }
445         init_expanded_ensemble(startingBehavior != StartingBehavior::NewSimulation, ir, state->dfhist);
446     }
447
448     if (MASTER(cr))
449     {
450         EnergyElement::initializeEnergyHistory(startingBehavior, observablesHistory, &energyOutput);
451     }
452
453     preparePrevStepPullCom(ir, pull_work, mdatoms, state, state_global, cr,
454                            startingBehavior != StartingBehavior::NewSimulation);
455
456     // TODO: Remove this by converting AWH into a ForceProvider
457     auto awh = prepareAwhModule(fplog, *ir, state_global, cr, ms,
458                                 startingBehavior != StartingBehavior::NewSimulation,
459                                 shellfc != nullptr, opt2fn("-awh", nfile, fnm), pull_work);
460
461     if (useReplicaExchange && MASTER(cr))
462     {
463         repl_ex = init_replica_exchange(fplog, ms, top_global->natoms, ir, replExParams);
464     }
465     /* PME tuning is only supported in the Verlet scheme, with PME for
466      * Coulomb. It is not supported with only LJ PME. */
467     bPMETune = (mdrunOptions.tunePme && EEL_PME(fr->ic->eeltype) && !mdrunOptions.reproducible
468                 && ir->cutoff_scheme != ecutsGROUP);
469
470     pme_load_balancing_t* pme_loadbal = nullptr;
471     if (bPMETune)
472     {
473         pme_loadbal_init(&pme_loadbal, cr, mdlog, *ir, state->box, *fr->ic, *fr->nbv, fr->pmedata,
474                          fr->nbv->useGpu());
475     }
476
477     if (!ir->bContinuation)
478     {
479         if (state->flags & (1U << estV))
480         {
481             auto v = makeArrayRef(state->v);
482             /* Set the velocities of vsites, shells and frozen atoms to zero */
483             for (i = 0; i < mdatoms->homenr; i++)
484             {
485                 if (mdatoms->ptype[i] == eptVSite || mdatoms->ptype[i] == eptShell)
486                 {
487                     clear_rvec(v[i]);
488                 }
489                 else if (mdatoms->cFREEZE)
490                 {
491                     for (m = 0; m < DIM; m++)
492                     {
493                         if (ir->opts.nFreeze[mdatoms->cFREEZE[i]][m])
494                         {
495                             v[i][m] = 0;
496                         }
497                     }
498                 }
499             }
500         }
501
502         if (constr)
503         {
504             /* Constrain the initial coordinates and velocities */
505             do_constrain_first(fplog, constr, ir, mdatoms, state->natoms, state->x.arrayRefWithPadding(),
506                                state->v.arrayRefWithPadding(), state->box, state->lambda[efptBONDED]);
507         }
508         if (vsite)
509         {
510             /* Construct the virtual sites for the initial configuration */
511             construct_vsites(vsite, state->x.rvec_array(), ir->delta_t, nullptr, top.idef.iparams,
512                              top.idef.il, fr->pbcType, fr->bMolPBC, cr, state->box);
513         }
514     }
515
516     if (ir->efep != efepNO)
517     {
518         /* Set free energy calculation frequency as the greatest common
519          * denominator of nstdhdl and repl_ex_nst. */
520         nstfep = ir->fepvals->nstdhdl;
521         if (ir->bExpanded)
522         {
523             nstfep = gmx_greatest_common_divisor(ir->expandedvals->nstexpanded, nstfep);
524         }
525         if (useReplicaExchange)
526         {
527             nstfep = gmx_greatest_common_divisor(replExParams.exchangeInterval, nstfep);
528         }
529     }
530
531     /* Be REALLY careful about what flags you set here. You CANNOT assume
532      * this is the first step, since we might be restarting from a checkpoint,
533      * and in that case we should not do any modifications to the state.
534      */
535     bStopCM = (ir->comm_mode != ecmNO && !ir->bContinuation);
536
537     // When restarting from a checkpoint, it can be appropriate to
538     // initialize ekind from quantities in the checkpoint. Otherwise,
539     // compute_globals must initialize ekind before the simulation
540     // starts/restarts. However, only the master rank knows what was
541     // found in the checkpoint file, so we have to communicate in
542     // order to coordinate the restart.
543     //
544     // TODO Consider removing this communication if/when checkpoint
545     // reading directly follows .tpr reading, because all ranks can
546     // agree on hasReadEkinState at that time.
547     bool hasReadEkinState = MASTER(cr) ? state_global->ekinstate.hasReadEkinState : false;
548     if (PAR(cr))
549     {
550         gmx_bcast(sizeof(hasReadEkinState), &hasReadEkinState, cr);
551     }
552     if (hasReadEkinState)
553     {
554         restore_ekinstate_from_state(cr, ekind, &state_global->ekinstate);
555     }
556
557     unsigned int cglo_flags =
558             (CGLO_TEMPERATURE | CGLO_GSTAT | (EI_VV(ir->eI) ? CGLO_PRESSURE : 0)
559              | (EI_VV(ir->eI) ? CGLO_CONSTRAINT : 0) | (hasReadEkinState ? CGLO_READEKIN : 0));
560
561     bSumEkinhOld = FALSE;
562
563     t_vcm vcm(top_global->groups, *ir);
564     reportComRemovalInfo(fplog, vcm);
565
566     /* To minimize communication, compute_globals computes the COM velocity
567      * and the kinetic energy for the velocities without COM motion removed.
568      * Thus to get the kinetic energy without the COM contribution, we need
569      * to call compute_globals twice.
570      */
571     for (int cgloIteration = 0; cgloIteration < (bStopCM ? 2 : 1); cgloIteration++)
572     {
573         unsigned int cglo_flags_iteration = cglo_flags;
574         if (bStopCM && cgloIteration == 0)
575         {
576             cglo_flags_iteration |= CGLO_STOPCM;
577             cglo_flags_iteration &= ~CGLO_TEMPERATURE;
578         }
579         compute_globals(gstat, cr, ir, fr, ekind, makeConstArrayRef(state->x),
580                         makeConstArrayRef(state->v), state->box, state->lambda[efptVDW], mdatoms,
581                         nrnb, &vcm, nullptr, enerd, force_vir, shake_vir, total_vir, pres, constr,
582                         &nullSignaller, state->box, &totalNumberOfBondedInteractions, &bSumEkinhOld,
583                         cglo_flags_iteration
584                                 | (shouldCheckNumberOfBondedInteractions ? CGLO_CHECK_NUMBER_OF_BONDED_INTERACTIONS
585                                                                          : 0));
586         if (cglo_flags_iteration & CGLO_STOPCM)
587         {
588             /* At initialization, do not pass x with acceleration-correction mode
589              * to avoid (incorrect) correction of the initial coordinates.
590              */
591             auto x = (vcm.mode == ecmLINEAR_ACCELERATION_CORRECTION) ? ArrayRef<RVec>()
592                                                                      : makeArrayRef(state->x);
593             process_and_stopcm_grp(fplog, &vcm, *mdatoms, x, makeArrayRef(state->v));
594             inc_nrnb(nrnb, eNR_STOPCM, mdatoms->homenr);
595         }
596     }
597     checkNumberOfBondedInteractions(mdlog, cr, totalNumberOfBondedInteractions, top_global, &top,
598                                     makeConstArrayRef(state->x), state->box,
599                                     &shouldCheckNumberOfBondedInteractions);
600     if (ir->eI == eiVVAK)
601     {
602         /* a second call to get the half step temperature initialized as well */
603         /* we do the same call as above, but turn the pressure off -- internally to
604            compute_globals, this is recognized as a velocity verlet half-step
605            kinetic energy calculation.  This minimized excess variables, but
606            perhaps loses some logic?*/
607
608         compute_globals(gstat, cr, ir, fr, ekind, makeConstArrayRef(state->x),
609                         makeConstArrayRef(state->v), state->box, state->lambda[efptVDW], mdatoms,
610                         nrnb, &vcm, nullptr, enerd, force_vir, shake_vir, total_vir, pres, constr,
611                         &nullSignaller, state->box, nullptr, &bSumEkinhOld, cglo_flags & ~CGLO_PRESSURE);
612     }
613
614     /* Calculate the initial half step temperature, and save the ekinh_old */
615     if (startingBehavior == StartingBehavior::NewSimulation)
616     {
617         for (i = 0; (i < ir->opts.ngtc); i++)
618         {
619             copy_mat(ekind->tcstat[i].ekinh, ekind->tcstat[i].ekinh_old);
620         }
621     }
622
623     /* need to make an initiation call to get the Trotter variables set, as well as other constants
624        for non-trotter temperature control */
625     auto trotter_seq = init_npt_vars(ir, state, &MassQ, bTrotter);
626
627     if (MASTER(cr))
628     {
629         if (!ir->bContinuation)
630         {
631             if (constr && ir->eConstrAlg == econtLINCS)
632             {
633                 fprintf(fplog, "RMS relative constraint deviation after constraining: %.2e\n",
634                         constr->rmsd());
635             }
636             if (EI_STATE_VELOCITY(ir->eI))
637             {
638                 real temp = enerd->term[F_TEMP];
639                 if (ir->eI != eiVV)
640                 {
641                     /* Result of Ekin averaged over velocities of -half
642                      * and +half step, while we only have -half step here.
643                      */
644                     temp *= 2;
645                 }
646                 fprintf(fplog, "Initial temperature: %g K\n", temp);
647             }
648         }
649
650         char tbuf[20];
651         fprintf(stderr, "starting mdrun '%s'\n", *(top_global->name));
652         if (ir->nsteps >= 0)
653         {
654             sprintf(tbuf, "%8.1f", (ir->init_step + ir->nsteps) * ir->delta_t);
655         }
656         else
657         {
658             sprintf(tbuf, "%s", "infinite");
659         }
660         if (ir->init_step > 0)
661         {
662             fprintf(stderr, "%s steps, %s ps (continuing from step %s, %8.1f ps).\n",
663                     gmx_step_str(ir->init_step + ir->nsteps, sbuf), tbuf,
664                     gmx_step_str(ir->init_step, sbuf2), ir->init_step * ir->delta_t);
665         }
666         else
667         {
668             fprintf(stderr, "%s steps, %s ps.\n", gmx_step_str(ir->nsteps, sbuf), tbuf);
669         }
670         fprintf(fplog, "\n");
671     }
672
673     walltime_accounting_start_time(walltime_accounting);
674     wallcycle_start(wcycle, ewcRUN);
675     print_start(fplog, cr, walltime_accounting, "mdrun");
676
677 #if GMX_FAHCORE
678     /* safest point to do file checkpointing is here.  More general point would be immediately before integrator call */
679     int chkpt_ret = fcCheckPointParallel(cr->nodeid, NULL, 0);
680     if (chkpt_ret == 0)
681     {
682         gmx_fatal(3, __FILE__, __LINE__, "Checkpoint error on step %d\n", 0);
683     }
684 #endif
685
686     /***********************************************************
687      *
688      *             Loop over MD steps
689      *
690      ************************************************************/
691
692     bFirstStep = TRUE;
693     /* Skip the first Nose-Hoover integration when we get the state from tpx */
694     bInitStep        = startingBehavior == StartingBehavior::NewSimulation || EI_VV(ir->eI);
695     bSumEkinhOld     = FALSE;
696     bExchanged       = FALSE;
697     bNeedRepartition = FALSE;
698
699     auto stopHandler = stopHandlerBuilder->getStopHandlerMD(
700             compat::not_null<SimulationSignal*>(&signals[eglsSTOPCOND]), simulationsShareState,
701             MASTER(cr), ir->nstlist, mdrunOptions.reproducible, nstSignalComm,
702             mdrunOptions.maximumHoursToRun, ir->nstlist == 0, fplog, step, bNS, walltime_accounting);
703
704     auto checkpointHandler = std::make_unique<CheckpointHandler>(
705             compat::make_not_null<SimulationSignal*>(&signals[eglsCHKPT]), simulationsShareState,
706             ir->nstlist == 0, MASTER(cr), mdrunOptions.writeConfout,
707             mdrunOptions.checkpointOptions.period);
708
709     const bool resetCountersIsLocal = true;
710     auto       resetHandler         = std::make_unique<ResetHandler>(
711             compat::make_not_null<SimulationSignal*>(&signals[eglsRESETCOUNTERS]),
712             !resetCountersIsLocal, ir->nsteps, MASTER(cr), mdrunOptions.timingOptions.resetHalfway,
713             mdrunOptions.maximumHoursToRun, mdlog, wcycle, walltime_accounting);
714
715     const DDBalanceRegionHandler ddBalanceRegionHandler(cr);
716
717     step     = ir->init_step;
718     step_rel = 0;
719
720     // TODO extract this to new multi-simulation module
721     if (MASTER(cr) && isMultiSim(ms) && !useReplicaExchange)
722     {
723         if (!multisim_int_all_are_equal(ms, ir->nsteps))
724         {
725             GMX_LOG(mdlog.warning)
726                     .appendText(
727                             "Note: The number of steps is not consistent across multi "
728                             "simulations,\n"
729                             "but we are proceeding anyway!");
730         }
731         if (!multisim_int_all_are_equal(ms, ir->init_step))
732         {
733             if (simulationsShareState)
734             {
735                 if (MASTER(cr))
736                 {
737                     gmx_fatal(FARGS,
738                               "The initial step is not consistent across multi simulations which "
739                               "share the state");
740                 }
741                 gmx_barrier(cr);
742             }
743             else
744             {
745                 GMX_LOG(mdlog.warning)
746                         .appendText(
747                                 "Note: The initial step is not consistent across multi "
748                                 "simulations,\n"
749                                 "but we are proceeding anyway!");
750             }
751         }
752     }
753
754     /* and stop now if we should */
755     bLastStep = (bLastStep || (ir->nsteps >= 0 && step_rel > ir->nsteps));
756     while (!bLastStep)
757     {
758
759         /* Determine if this is a neighbor search step */
760         bNStList = (ir->nstlist > 0 && step % ir->nstlist == 0);
761
762         if (bPMETune && bNStList)
763         {
764             // This has to be here because PME load balancing is called so early.
765             // TODO: Move to after all booleans are defined.
766             if (useGpuForUpdate && !bFirstStep)
767             {
768                 stateGpu->copyCoordinatesFromGpu(state->x, AtomLocality::Local);
769                 stateGpu->waitCoordinatesReadyOnHost(AtomLocality::Local);
770             }
771             /* PME grid + cut-off optimization with GPUs or PME nodes */
772             pme_loadbal_do(pme_loadbal, cr, (mdrunOptions.verbose && MASTER(cr)) ? stderr : nullptr,
773                            fplog, mdlog, *ir, fr, state->box, state->x, wcycle, step, step_rel,
774                            &bPMETunePrinting, simulationWork.useGpuPmePpCommunication);
775         }
776
777         wallcycle_start(wcycle, ewcSTEP);
778
779         bLastStep = (step_rel == ir->nsteps);
780         t         = t0 + step * ir->delta_t;
781
782         // TODO Refactor this, so that nstfep does not need a default value of zero
783         if (ir->efep != efepNO || ir->bSimTemp)
784         {
785             /* find and set the current lambdas */
786             setCurrentLambdasLocal(step, ir->fepvals, lam0, state->lambda, state->fep_state);
787
788             bDoDHDL     = do_per_step(step, ir->fepvals->nstdhdl);
789             bDoFEP      = ((ir->efep != efepNO) && do_per_step(step, nstfep));
790             bDoExpanded = (do_per_step(step, ir->expandedvals->nstexpanded) && (ir->bExpanded)
791                            && (step > 0) && (startingBehavior == StartingBehavior::NewSimulation));
792         }
793
794         bDoReplEx = (useReplicaExchange && (step > 0) && !bLastStep
795                      && do_per_step(step, replExParams.exchangeInterval));
796
797         if (doSimulatedAnnealing)
798         {
799             update_annealing_target_temp(ir, t, &upd);
800         }
801
802         /* Stop Center of Mass motion */
803         bStopCM = (ir->comm_mode != ecmNO && do_per_step(step, ir->nstcomm));
804
805         /* Determine whether or not to do Neighbour Searching */
806         bNS = (bFirstStep || bNStList || bExchanged || bNeedRepartition);
807
808         /* Note that the stopHandler will cause termination at nstglobalcomm
809          * steps. Since this concides with nstcalcenergy, nsttcouple and/or
810          * nstpcouple steps, we have computed the half-step kinetic energy
811          * of the previous step and can always output energies at the last step.
812          */
813         bLastStep = bLastStep || stopHandler->stoppingAfterCurrentStep(bNS);
814
815         /* do_log triggers energy and virial calculation. Because this leads
816          * to different code paths, forces can be different. Thus for exact
817          * continuation we should avoid extra log output.
818          * Note that the || bLastStep can result in non-exact continuation
819          * beyond the last step. But we don't consider that to be an issue.
820          */
821         do_log     = (do_per_step(step, ir->nstlog)
822                   || (bFirstStep && startingBehavior == StartingBehavior::NewSimulation) || bLastStep);
823         do_verbose = mdrunOptions.verbose
824                      && (step % mdrunOptions.verboseStepPrintInterval == 0 || bFirstStep || bLastStep);
825
826         if (useGpuForUpdate && !bFirstStep && bNS)
827         {
828             // Copy velocities from the GPU on search steps to keep a copy on host (device buffers are reinitialized).
829             stateGpu->copyVelocitiesFromGpu(state->v, AtomLocality::Local);
830             stateGpu->waitVelocitiesReadyOnHost(AtomLocality::Local);
831             // Copy coordinate from the GPU when needed at the search step.
832             // NOTE: The cases when coordinates needed on CPU for force evaluation are handled in sim_utils.
833             // NOTE: If the coordinates are to be written into output file they are also copied separately before the output.
834             stateGpu->copyCoordinatesFromGpu(state->x, AtomLocality::Local);
835             stateGpu->waitCoordinatesReadyOnHost(AtomLocality::Local);
836         }
837
838         if (bNS && !(bFirstStep && ir->bContinuation))
839         {
840             bMasterState = FALSE;
841             /* Correct the new box if it is too skewed */
842             if (inputrecDynamicBox(ir))
843             {
844                 if (correct_box(fplog, step, state->box))
845                 {
846                     bMasterState = TRUE;
847                     // If update is offloaded, it should be informed about the box size change
848                     if (useGpuForUpdate)
849                     {
850                         integrator->setPbc(PbcType::Xyz, state->box);
851                     }
852                 }
853             }
854             if (DOMAINDECOMP(cr) && bMasterState)
855             {
856                 dd_collect_state(cr->dd, state, state_global);
857             }
858
859             if (DOMAINDECOMP(cr))
860             {
861                 /* Repartition the domain decomposition */
862                 dd_partition_system(fplog, mdlog, step, cr, bMasterState, nstglobalcomm, state_global,
863                                     *top_global, ir, imdSession, pull_work, state, &f, mdAtoms, &top,
864                                     fr, vsite, constr, nrnb, wcycle, do_verbose && !bPMETunePrinting);
865                 shouldCheckNumberOfBondedInteractions = true;
866                 upd.setNumAtoms(state->natoms);
867
868                 // Allocate or re-size GPU halo exchange object, if necessary
869                 if (havePPDomainDecomposition(cr) && simulationWork.useGpuHaloExchange
870                     && useGpuForNonbonded && is1D(*cr->dd))
871                 {
872                     GMX_RELEASE_ASSERT(fr->deviceStreamManager != nullptr,
873                                        "GPU device manager has to be initialized to use GPU "
874                                        "version of halo exchange.");
875                     // TODO remove need to pass local stream into GPU halo exchange - Redmine #3093
876                     constructGpuHaloExchange(mdlog, *cr, *fr->deviceStreamManager);
877                 }
878             }
879         }
880
881         if (MASTER(cr) && do_log)
882         {
883             energyOutput.printHeader(fplog, step, t); /* can we improve the information printed here? */
884         }
885
886         if (ir->efep != efepNO)
887         {
888             update_mdatoms(mdatoms, state->lambda[efptMASS]);
889         }
890
891         if (bExchanged)
892         {
893
894             /* We need the kinetic energy at minus the half step for determining
895              * the full step kinetic energy and possibly for T-coupling.*/
896             /* This may not be quite working correctly yet . . . . */
897             compute_globals(gstat, cr, ir, fr, ekind, makeConstArrayRef(state->x),
898                             makeConstArrayRef(state->v), state->box, state->lambda[efptVDW], mdatoms,
899                             nrnb, &vcm, wcycle, enerd, nullptr, nullptr, nullptr, nullptr, constr,
900                             &nullSignaller, state->box, &totalNumberOfBondedInteractions, &bSumEkinhOld,
901                             CGLO_GSTAT | CGLO_TEMPERATURE | CGLO_CHECK_NUMBER_OF_BONDED_INTERACTIONS);
902             checkNumberOfBondedInteractions(mdlog, cr, totalNumberOfBondedInteractions, top_global,
903                                             &top, makeConstArrayRef(state->x), state->box,
904                                             &shouldCheckNumberOfBondedInteractions);
905         }
906         clear_mat(force_vir);
907
908         checkpointHandler->decideIfCheckpointingThisStep(bNS, bFirstStep, bLastStep);
909
910         /* Determine the energy and pressure:
911          * at nstcalcenergy steps and at energy output steps (set below).
912          */
913         if (EI_VV(ir->eI) && (!bInitStep))
914         {
915             bCalcEnerStep = do_per_step(step, ir->nstcalcenergy);
916             bCalcVir      = bCalcEnerStep
917                        || (ir->epc != epcNO
918                            && (do_per_step(step, ir->nstpcouple) || do_per_step(step - 1, ir->nstpcouple)));
919         }
920         else
921         {
922             bCalcEnerStep = do_per_step(step, ir->nstcalcenergy);
923             bCalcVir = bCalcEnerStep || (ir->epc != epcNO && do_per_step(step, ir->nstpcouple));
924         }
925         bCalcEner = bCalcEnerStep;
926
927         do_ene = (do_per_step(step, ir->nstenergy) || bLastStep);
928
929         if (do_ene || do_log || bDoReplEx)
930         {
931             bCalcVir  = TRUE;
932             bCalcEner = TRUE;
933         }
934
935         /* Do we need global communication ? */
936         bGStat = (bCalcVir || bCalcEner || bStopCM || do_per_step(step, nstglobalcomm)
937                   || (EI_VV(ir->eI) && inputrecNvtTrotter(ir) && do_per_step(step - 1, nstglobalcomm)));
938
939         force_flags = (GMX_FORCE_STATECHANGED | ((inputrecDynamicBox(ir)) ? GMX_FORCE_DYNAMICBOX : 0)
940                        | GMX_FORCE_ALLFORCES | (bCalcVir ? GMX_FORCE_VIRIAL : 0)
941                        | (bCalcEner ? GMX_FORCE_ENERGY : 0) | (bDoFEP ? GMX_FORCE_DHDL : 0));
942
943         if (shellfc)
944         {
945             /* Now is the time to relax the shells */
946             relax_shell_flexcon(fplog, cr, ms, mdrunOptions.verbose, enforcedRotation, step, ir,
947                                 imdSession, pull_work, bNS, force_flags, &top, constr, enerd, fcd,
948                                 state->natoms, state->x.arrayRefWithPadding(),
949                                 state->v.arrayRefWithPadding(), state->box, state->lambda, &state->hist,
950                                 f.arrayRefWithPadding(), force_vir, mdatoms, nrnb, wcycle, shellfc,
951                                 fr, runScheduleWork, t, mu_tot, vsite, ddBalanceRegionHandler);
952         }
953         else
954         {
955             /* The AWH history need to be saved _before_ doing force calculations where the AWH bias
956                is updated (or the AWH update will be performed twice for one step when continuing).
957                It would be best to call this update function from do_md_trajectory_writing but that
958                would occur after do_force. One would have to divide the update_awh function into one
959                function applying the AWH force and one doing the AWH bias update. The update AWH
960                bias function could then be called after do_md_trajectory_writing (then containing
961                update_awh_history). The checkpointing will in the future probably moved to the start
962                of the md loop which will rid of this issue. */
963             if (awh && checkpointHandler->isCheckpointingStep() && MASTER(cr))
964             {
965                 awh->updateHistory(state_global->awhHistory.get());
966             }
967
968             /* The coordinates (x) are shifted (to get whole molecules)
969              * in do_force.
970              * This is parallellized as well, and does communication too.
971              * Check comments in sim_util.c
972              */
973             do_force(fplog, cr, ms, ir, awh.get(), enforcedRotation, imdSession, pull_work, step,
974                      nrnb, wcycle, &top, state->box, state->x.arrayRefWithPadding(), &state->hist,
975                      f.arrayRefWithPadding(), force_vir, mdatoms, enerd, fcd, state->lambda, fr,
976                      runScheduleWork, vsite, mu_tot, t, ed ? ed->getLegacyED() : nullptr,
977                      (bNS ? GMX_FORCE_NS : 0) | force_flags, ddBalanceRegionHandler);
978         }
979
980         // VV integrators do not need the following velocity half step
981         // if it is the first step after starting from a checkpoint.
982         // That is, the half step is needed on all other steps, and
983         // also the first step when starting from a .tpr file.
984         if (EI_VV(ir->eI) && (!bFirstStep || startingBehavior == StartingBehavior::NewSimulation))
985         /*  ############### START FIRST UPDATE HALF-STEP FOR VV METHODS############### */
986         {
987             rvec* vbuf = nullptr;
988
989             wallcycle_start(wcycle, ewcUPDATE);
990             if (ir->eI == eiVV && bInitStep)
991             {
992                 /* if using velocity verlet with full time step Ekin,
993                  * take the first half step only to compute the
994                  * virial for the first step. From there,
995                  * revert back to the initial coordinates
996                  * so that the input is actually the initial step.
997                  */
998                 snew(vbuf, state->natoms);
999                 copy_rvecn(state->v.rvec_array(), vbuf, 0,
1000                            state->natoms); /* should make this better for parallelizing? */
1001             }
1002             else
1003             {
1004                 /* this is for NHC in the Ekin(t+dt/2) version of vv */
1005                 trotter_update(ir, step, ekind, enerd, state, total_vir, mdatoms, &MassQ,
1006                                trotter_seq, ettTSEQ1);
1007             }
1008
1009             update_coords(step, ir, mdatoms, state, f.arrayRefWithPadding(), fcd, ekind, M, &upd,
1010                           etrtVELOCITY1, cr, constr);
1011
1012             wallcycle_stop(wcycle, ewcUPDATE);
1013             constrain_velocities(step, nullptr, state, shake_vir, constr, bCalcVir, do_log, do_ene);
1014             wallcycle_start(wcycle, ewcUPDATE);
1015             /* if VV, compute the pressure and constraints */
1016             /* For VV2, we strictly only need this if using pressure
1017              * control, but we really would like to have accurate pressures
1018              * printed out.
1019              * Think about ways around this in the future?
1020              * For now, keep this choice in comments.
1021              */
1022             /*bPres = (ir->eI==eiVV || inputrecNptTrotter(ir)); */
1023             /*bTemp = ((ir->eI==eiVV &&(!bInitStep)) || (ir->eI==eiVVAK && inputrecNptTrotter(ir)));*/
1024             bPres = TRUE;
1025             bTemp = ((ir->eI == eiVV && (!bInitStep)) || (ir->eI == eiVVAK));
1026             if (bCalcEner && ir->eI == eiVVAK)
1027             {
1028                 bSumEkinhOld = TRUE;
1029             }
1030             /* for vv, the first half of the integration actually corresponds to the previous step.
1031                So we need information from the last step in the first half of the integration */
1032             if (bGStat || do_per_step(step - 1, nstglobalcomm))
1033             {
1034                 wallcycle_stop(wcycle, ewcUPDATE);
1035                 compute_globals(
1036                         gstat, cr, ir, fr, ekind, makeConstArrayRef(state->x),
1037                         makeConstArrayRef(state->v), state->box, state->lambda[efptVDW], mdatoms,
1038                         nrnb, &vcm, wcycle, enerd, force_vir, shake_vir, total_vir, pres, constr,
1039                         &nullSignaller, state->box, &totalNumberOfBondedInteractions, &bSumEkinhOld,
1040                         (bGStat ? CGLO_GSTAT : 0) | (bCalcEner ? CGLO_ENERGY : 0)
1041                                 | (bTemp ? CGLO_TEMPERATURE : 0) | (bPres ? CGLO_PRESSURE : 0)
1042                                 | (bPres ? CGLO_CONSTRAINT : 0) | (bStopCM ? CGLO_STOPCM : 0)
1043                                 | (shouldCheckNumberOfBondedInteractions ? CGLO_CHECK_NUMBER_OF_BONDED_INTERACTIONS
1044                                                                          : 0)
1045                                 | CGLO_SCALEEKIN);
1046                 /* explanation of above:
1047                    a) We compute Ekin at the full time step
1048                    if 1) we are using the AveVel Ekin, and it's not the
1049                    initial step, or 2) if we are using AveEkin, but need the full
1050                    time step kinetic energy for the pressure (always true now, since we want accurate statistics).
1051                    b) If we are using EkinAveEkin for the kinetic energy for the temperature control, we still feed in
1052                    EkinAveVel because it's needed for the pressure */
1053                 checkNumberOfBondedInteractions(mdlog, cr, totalNumberOfBondedInteractions,
1054                                                 top_global, &top, makeConstArrayRef(state->x),
1055                                                 state->box, &shouldCheckNumberOfBondedInteractions);
1056                 if (bStopCM)
1057                 {
1058                     process_and_stopcm_grp(fplog, &vcm, *mdatoms, makeArrayRef(state->x),
1059                                            makeArrayRef(state->v));
1060                     inc_nrnb(nrnb, eNR_STOPCM, mdatoms->homenr);
1061                 }
1062                 wallcycle_start(wcycle, ewcUPDATE);
1063             }
1064             /* temperature scaling and pressure scaling to produce the extended variables at t+dt */
1065             if (!bInitStep)
1066             {
1067                 if (bTrotter)
1068                 {
1069                     m_add(force_vir, shake_vir,
1070                           total_vir); /* we need the un-dispersion corrected total vir here */
1071                     trotter_update(ir, step, ekind, enerd, state, total_vir, mdatoms, &MassQ,
1072                                    trotter_seq, ettTSEQ2);
1073
1074                     /* TODO This is only needed when we're about to write
1075                      * a checkpoint, because we use it after the restart
1076                      * (in a kludge?). But what should we be doing if
1077                      * the startingBehavior is NewSimulation or bInitStep are true? */
1078                     if (inputrecNptTrotter(ir) || inputrecNphTrotter(ir))
1079                     {
1080                         copy_mat(shake_vir, state->svir_prev);
1081                         copy_mat(force_vir, state->fvir_prev);
1082                     }
1083                     if (inputrecNvtTrotter(ir) && ir->eI == eiVV)
1084                     {
1085                         /* update temperature and kinetic energy now that step is over - this is the v(t+dt) point */
1086                         enerd->term[F_TEMP] =
1087                                 sum_ekin(&(ir->opts), ekind, nullptr, (ir->eI == eiVV), FALSE);
1088                         enerd->term[F_EKIN] = trace(ekind->ekin);
1089                     }
1090                 }
1091                 else if (bExchanged)
1092                 {
1093                     wallcycle_stop(wcycle, ewcUPDATE);
1094                     /* We need the kinetic energy at minus the half step for determining
1095                      * the full step kinetic energy and possibly for T-coupling.*/
1096                     /* This may not be quite working correctly yet . . . . */
1097                     compute_globals(gstat, cr, ir, fr, ekind, makeConstArrayRef(state->x),
1098                                     makeConstArrayRef(state->v), state->box, state->lambda[efptVDW],
1099                                     mdatoms, nrnb, &vcm, wcycle, enerd, nullptr, nullptr, nullptr,
1100                                     nullptr, constr, &nullSignaller, state->box, nullptr,
1101                                     &bSumEkinhOld, CGLO_GSTAT | CGLO_TEMPERATURE);
1102                     wallcycle_start(wcycle, ewcUPDATE);
1103                 }
1104             }
1105             /* if it's the initial step, we performed this first step just to get the constraint virial */
1106             if (ir->eI == eiVV && bInitStep)
1107             {
1108                 copy_rvecn(vbuf, state->v.rvec_array(), 0, state->natoms);
1109                 sfree(vbuf);
1110             }
1111             wallcycle_stop(wcycle, ewcUPDATE);
1112         }
1113
1114         /* compute the conserved quantity */
1115         if (EI_VV(ir->eI))
1116         {
1117             saved_conserved_quantity = NPT_energy(ir, state, &MassQ);
1118             if (ir->eI == eiVV)
1119             {
1120                 last_ekin = enerd->term[F_EKIN];
1121             }
1122             if ((ir->eDispCorr != edispcEnerPres) && (ir->eDispCorr != edispcAllEnerPres))
1123             {
1124                 saved_conserved_quantity -= enerd->term[F_DISPCORR];
1125             }
1126             /* sum up the foreign energy and dhdl terms for vv.  currently done every step so that dhdl is correct in the .edr */
1127             if (ir->efep != efepNO)
1128             {
1129                 sum_dhdl(enerd, state->lambda, *ir->fepvals);
1130             }
1131         }
1132
1133         /* ########  END FIRST UPDATE STEP  ############## */
1134         /* ########  If doing VV, we now have v(dt) ###### */
1135         if (bDoExpanded)
1136         {
1137             /* perform extended ensemble sampling in lambda - we don't
1138                actually move to the new state before outputting
1139                statistics, but if performing simulated tempering, we
1140                do update the velocities and the tau_t. */
1141
1142             lamnew = ExpandedEnsembleDynamics(fplog, ir, enerd, state, &MassQ, state->fep_state,
1143                                               state->dfhist, step, state->v.rvec_array(), mdatoms);
1144             /* history is maintained in state->dfhist, but state_global is what is sent to trajectory and log output */
1145             if (MASTER(cr))
1146             {
1147                 copy_df_history(state_global->dfhist, state->dfhist);
1148             }
1149         }
1150
1151         // Copy coordinate from the GPU for the output/checkpointing if the update is offloaded and
1152         // coordinates have not already been copied for i) search or ii) CPU force tasks.
1153         if (useGpuForUpdate && !bNS && !runScheduleWork->domainWork.haveCpuLocalForceWork
1154             && (do_per_step(step, ir->nstxout) || do_per_step(step, ir->nstxout_compressed)
1155                 || checkpointHandler->isCheckpointingStep()))
1156         {
1157             stateGpu->copyCoordinatesFromGpu(state->x, AtomLocality::Local);
1158             stateGpu->waitCoordinatesReadyOnHost(AtomLocality::Local);
1159         }
1160         // Copy velocities if needed for the output/checkpointing.
1161         // NOTE: Copy on the search steps is done at the beginning of the step.
1162         if (useGpuForUpdate && !bNS
1163             && (do_per_step(step, ir->nstvout) || checkpointHandler->isCheckpointingStep()))
1164         {
1165             stateGpu->copyVelocitiesFromGpu(state->v, AtomLocality::Local);
1166             stateGpu->waitVelocitiesReadyOnHost(AtomLocality::Local);
1167         }
1168         // Copy forces for the output if the forces were reduced on the GPU (not the case on virial steps)
1169         // and update is offloaded hence forces are kept on the GPU for update and have not been
1170         // already transferred in do_force().
1171         // TODO: There should be an improved, explicit mechanism that ensures this copy is only executed
1172         //       when the forces are ready on the GPU -- the same synchronizer should be used as the one
1173         //       prior to GPU update.
1174         // TODO: When the output flags will be included in step workload, this copy can be combined with the
1175         //       copy call in do_force(...).
1176         // NOTE: The forces should not be copied here if the vsites are present, since they were modified
1177         //       on host after the D2H copy in do_force(...).
1178         if (runScheduleWork->stepWork.useGpuFBufferOps && (simulationWork.useGpuUpdate && !vsite)
1179             && do_per_step(step, ir->nstfout))
1180         {
1181             stateGpu->copyForcesFromGpu(ArrayRef<RVec>(f), AtomLocality::Local);
1182             stateGpu->waitForcesReadyOnHost(AtomLocality::Local);
1183         }
1184         /* Now we have the energies and forces corresponding to the
1185          * coordinates at time t. We must output all of this before
1186          * the update.
1187          */
1188         do_md_trajectory_writing(fplog, cr, nfile, fnm, step, step_rel, t, ir, state, state_global,
1189                                  observablesHistory, top_global, fr, outf, energyOutput, ekind, f,
1190                                  checkpointHandler->isCheckpointingStep(), bRerunMD, bLastStep,
1191                                  mdrunOptions.writeConfout, bSumEkinhOld);
1192         /* Check if IMD step and do IMD communication, if bIMD is TRUE. */
1193         bInteractiveMDstep = imdSession->run(step, bNS, state->box, state->x.rvec_array(), t);
1194
1195         /* kludge -- virial is lost with restart for MTTK NPT control. Must reload (saved earlier). */
1196         if (startingBehavior != StartingBehavior::NewSimulation
1197             && (inputrecNptTrotter(ir) || inputrecNphTrotter(ir)))
1198         {
1199             copy_mat(state->svir_prev, shake_vir);
1200             copy_mat(state->fvir_prev, force_vir);
1201         }
1202
1203         stopHandler->setSignal();
1204         resetHandler->setSignal(walltime_accounting);
1205
1206         if (bGStat || !PAR(cr))
1207         {
1208             /* In parallel we only have to check for checkpointing in steps
1209              * where we do global communication,
1210              *  otherwise the other nodes don't know.
1211              */
1212             checkpointHandler->setSignal(walltime_accounting);
1213         }
1214
1215         /* #########   START SECOND UPDATE STEP ################# */
1216
1217         /* at the start of step, randomize or scale the velocities ((if vv. Restriction of Andersen
1218            controlled in preprocessing */
1219
1220         if (ETC_ANDERSEN(ir->etc)) /* keep this outside of update_tcouple because of the extra info required to pass */
1221         {
1222             gmx_bool bIfRandomize;
1223             bIfRandomize = update_randomize_velocities(ir, step, cr, mdatoms, state->v, &upd, constr);
1224             /* if we have constraints, we have to remove the kinetic energy parallel to the bonds */
1225             if (constr && bIfRandomize)
1226             {
1227                 constrain_velocities(step, nullptr, state, tmp_vir, constr, bCalcVir, do_log, do_ene);
1228             }
1229         }
1230         /* Box is changed in update() when we do pressure coupling,
1231          * but we should still use the old box for energy corrections and when
1232          * writing it to the energy file, so it matches the trajectory files for
1233          * the same timestep above. Make a copy in a separate array.
1234          */
1235         copy_mat(state->box, lastbox);
1236
1237         dvdl_constr = 0;
1238
1239         wallcycle_start(wcycle, ewcUPDATE);
1240         /* UPDATE PRESSURE VARIABLES IN TROTTER FORMULATION WITH CONSTRAINTS */
1241         if (bTrotter)
1242         {
1243             trotter_update(ir, step, ekind, enerd, state, total_vir, mdatoms, &MassQ, trotter_seq, ettTSEQ3);
1244             /* We can only do Berendsen coupling after we have summed
1245              * the kinetic energy or virial. Since the happens
1246              * in global_state after update, we should only do it at
1247              * step % nstlist = 1 with bGStatEveryStep=FALSE.
1248              */
1249         }
1250         else
1251         {
1252             update_tcouple(step, ir, state, ekind, &MassQ, mdatoms);
1253             update_pcouple_before_coordinates(fplog, step, ir, state, pressureCouplingMu, M, bInitStep);
1254         }
1255
1256         if (EI_VV(ir->eI))
1257         {
1258             /* velocity half-step update */
1259             update_coords(step, ir, mdatoms, state, f.arrayRefWithPadding(), fcd, ekind, M, &upd,
1260                           etrtVELOCITY2, cr, constr);
1261         }
1262
1263         /* Above, initialize just copies ekinh into ekin,
1264          * it doesn't copy position (for VV),
1265          * and entire integrator for MD.
1266          */
1267
1268         if (ir->eI == eiVVAK)
1269         {
1270             cbuf.resize(state->x.size());
1271             std::copy(state->x.begin(), state->x.end(), cbuf.begin());
1272         }
1273
1274         /* With leap-frog type integrators we compute the kinetic energy
1275          * at a whole time step as the average of the half-time step kinetic
1276          * energies of two subsequent steps. Therefore we need to compute the
1277          * half step kinetic energy also if we need energies at the next step.
1278          */
1279         const bool needHalfStepKineticEnergy =
1280                 (!EI_VV(ir->eI) && (do_per_step(step + 1, nstglobalcomm) || step_rel + 1 == ir->nsteps));
1281
1282         // Parrinello-Rahman requires the pressure to be availible before the update to compute
1283         // the velocity scaling matrix. Hence, it runs one step after the nstpcouple step.
1284         const bool doParrinelloRahman = (ir->epc == epcPARRINELLORAHMAN
1285                                          && do_per_step(step + ir->nstpcouple - 1, ir->nstpcouple));
1286
1287         if (useGpuForUpdate)
1288         {
1289             if (bNS && (bFirstStep || DOMAINDECOMP(cr)))
1290             {
1291                 integrator->set(stateGpu->getCoordinates(), stateGpu->getVelocities(),
1292                                 stateGpu->getForces(), top.idef, *mdatoms, ekind->ngtc);
1293
1294                 // Copy data to the GPU after buffers might have being reinitialized
1295                 stateGpu->copyVelocitiesToGpu(state->v, AtomLocality::Local);
1296                 stateGpu->copyCoordinatesToGpu(state->x, AtomLocality::Local);
1297             }
1298
1299             // If the buffer ops were not offloaded this step, the forces are on the host and have to be copied
1300             if (!runScheduleWork->stepWork.useGpuFBufferOps)
1301             {
1302                 stateGpu->copyForcesToGpu(ArrayRef<RVec>(f), AtomLocality::Local);
1303             }
1304
1305             const bool doTemperatureScaling =
1306                     (ir->etc != etcNO && do_per_step(step + ir->nsttcouple - 1, ir->nsttcouple));
1307
1308             // This applies Leap-Frog, LINCS and SETTLE in succession
1309             integrator->integrate(stateGpu->getForcesReadyOnDeviceEvent(
1310                                           AtomLocality::Local, runScheduleWork->stepWork.useGpuFBufferOps),
1311                                   ir->delta_t, true, bCalcVir, shake_vir, doTemperatureScaling,
1312                                   ekind->tcstat, doParrinelloRahman, ir->nstpcouple * ir->delta_t, M);
1313
1314             // Copy velocities D2H after update if:
1315             // - Globals are computed this step (includes the energy output steps).
1316             // - Temperature is needed for the next step.
1317             if (bGStat || needHalfStepKineticEnergy)
1318             {
1319                 stateGpu->copyVelocitiesFromGpu(state->v, AtomLocality::Local);
1320                 stateGpu->waitVelocitiesReadyOnHost(AtomLocality::Local);
1321             }
1322         }
1323         else
1324         {
1325             update_coords(step, ir, mdatoms, state, f.arrayRefWithPadding(), fcd, ekind, M, &upd,
1326                           etrtPOSITION, cr, constr);
1327
1328             wallcycle_stop(wcycle, ewcUPDATE);
1329
1330             constrain_coordinates(step, &dvdl_constr, state, shake_vir, &upd, constr, bCalcVir,
1331                                   do_log, do_ene);
1332
1333             update_sd_second_half(step, &dvdl_constr, ir, mdatoms, state, cr, nrnb, wcycle, &upd,
1334                                   constr, do_log, do_ene);
1335             finish_update(ir, mdatoms, state, wcycle, &upd, constr);
1336         }
1337
1338         if (ir->bPull && ir->pull->bSetPbcRefToPrevStepCOM)
1339         {
1340             updatePrevStepPullCom(pull_work, state);
1341         }
1342
1343         if (ir->eI == eiVVAK)
1344         {
1345             /* erase F_EKIN and F_TEMP here? */
1346             /* just compute the kinetic energy at the half step to perform a trotter step */
1347             compute_globals(gstat, cr, ir, fr, ekind, makeConstArrayRef(state->x),
1348                             makeConstArrayRef(state->v), state->box, state->lambda[efptVDW],
1349                             mdatoms, nrnb, &vcm, wcycle, enerd, force_vir, shake_vir, total_vir,
1350                             pres, constr, &nullSignaller, lastbox, nullptr, &bSumEkinhOld,
1351                             (bGStat ? CGLO_GSTAT : 0) | CGLO_TEMPERATURE);
1352             wallcycle_start(wcycle, ewcUPDATE);
1353             trotter_update(ir, step, ekind, enerd, state, total_vir, mdatoms, &MassQ, trotter_seq, ettTSEQ4);
1354             /* now we know the scaling, we can compute the positions again */
1355             std::copy(cbuf.begin(), cbuf.end(), state->x.begin());
1356
1357             update_coords(step, ir, mdatoms, state, f.arrayRefWithPadding(), fcd, ekind, M, &upd,
1358                           etrtPOSITION, cr, constr);
1359             wallcycle_stop(wcycle, ewcUPDATE);
1360
1361             /* do we need an extra constraint here? just need to copy out of as_rvec_array(state->v.data()) to upd->xp? */
1362             /* are the small terms in the shake_vir here due
1363              * to numerical errors, or are they important
1364              * physically? I'm thinking they are just errors, but not completely sure.
1365              * For now, will call without actually constraining, constr=NULL*/
1366             finish_update(ir, mdatoms, state, wcycle, &upd, nullptr);
1367         }
1368         if (EI_VV(ir->eI))
1369         {
1370             /* this factor or 2 correction is necessary
1371                because half of the constraint force is removed
1372                in the vv step, so we have to double it.  See
1373                the Redmine issue #1255.  It is not yet clear
1374                if the factor of 2 is exact, or just a very
1375                good approximation, and this will be
1376                investigated.  The next step is to see if this
1377                can be done adding a dhdl contribution from the
1378                rattle step, but this is somewhat more
1379                complicated with the current code. Will be
1380                investigated, hopefully for 4.6.3. However,
1381                this current solution is much better than
1382                having it completely wrong.
1383              */
1384             enerd->term[F_DVDL_CONSTR] += 2 * dvdl_constr;
1385         }
1386         else
1387         {
1388             enerd->term[F_DVDL_CONSTR] += dvdl_constr;
1389         }
1390
1391         if (vsite != nullptr)
1392         {
1393             wallcycle_start(wcycle, ewcVSITECONSTR);
1394             construct_vsites(vsite, state->x.rvec_array(), ir->delta_t, state->v.rvec_array(),
1395                              top.idef.iparams, top.idef.il, fr->pbcType, fr->bMolPBC, cr, state->box);
1396             wallcycle_stop(wcycle, ewcVSITECONSTR);
1397         }
1398
1399         /* ############## IF NOT VV, Calculate globals HERE  ############ */
1400         /* With Leap-Frog we can skip compute_globals at
1401          * non-communication steps, but we need to calculate
1402          * the kinetic energy one step before communication.
1403          */
1404         {
1405             // Organize to do inter-simulation signalling on steps if
1406             // and when algorithms require it.
1407             const bool doInterSimSignal = (simulationsShareState && do_per_step(step, nstSignalComm));
1408
1409             if (bGStat || needHalfStepKineticEnergy || doInterSimSignal)
1410             {
1411                 // Copy coordinates when needed to stop the CM motion.
1412                 if (useGpuForUpdate && !EI_VV(ir->eI) && bStopCM)
1413                 {
1414                     stateGpu->copyCoordinatesFromGpu(state->x, AtomLocality::Local);
1415                     stateGpu->waitCoordinatesReadyOnHost(AtomLocality::Local);
1416                 }
1417                 // Since we're already communicating at this step, we
1418                 // can propagate intra-simulation signals. Note that
1419                 // check_nstglobalcomm has the responsibility for
1420                 // choosing the value of nstglobalcomm that is one way
1421                 // bGStat becomes true, so we can't get into a
1422                 // situation where e.g. checkpointing can't be
1423                 // signalled.
1424                 bool                doIntraSimSignal = true;
1425                 SimulationSignaller signaller(&signals, cr, ms, doInterSimSignal, doIntraSimSignal);
1426
1427                 compute_globals(
1428                         gstat, cr, ir, fr, ekind, makeConstArrayRef(state->x),
1429                         makeConstArrayRef(state->v), state->box, state->lambda[efptVDW], mdatoms,
1430                         nrnb, &vcm, wcycle, enerd, force_vir, shake_vir, total_vir, pres, constr,
1431                         &signaller, lastbox, &totalNumberOfBondedInteractions, &bSumEkinhOld,
1432                         (bGStat ? CGLO_GSTAT : 0) | (!EI_VV(ir->eI) && bCalcEner ? CGLO_ENERGY : 0)
1433                                 | (!EI_VV(ir->eI) && bStopCM ? CGLO_STOPCM : 0)
1434                                 | (!EI_VV(ir->eI) ? CGLO_TEMPERATURE : 0)
1435                                 | (!EI_VV(ir->eI) ? CGLO_PRESSURE : 0) | CGLO_CONSTRAINT
1436                                 | (shouldCheckNumberOfBondedInteractions ? CGLO_CHECK_NUMBER_OF_BONDED_INTERACTIONS
1437                                                                          : 0));
1438                 checkNumberOfBondedInteractions(mdlog, cr, totalNumberOfBondedInteractions,
1439                                                 top_global, &top, makeConstArrayRef(state->x),
1440                                                 state->box, &shouldCheckNumberOfBondedInteractions);
1441                 if (!EI_VV(ir->eI) && bStopCM)
1442                 {
1443                     process_and_stopcm_grp(fplog, &vcm, *mdatoms, makeArrayRef(state->x),
1444                                            makeArrayRef(state->v));
1445                     inc_nrnb(nrnb, eNR_STOPCM, mdatoms->homenr);
1446
1447                     // TODO: The special case of removing CM motion should be dealt more gracefully
1448                     if (useGpuForUpdate)
1449                     {
1450                         stateGpu->copyCoordinatesToGpu(state->x, AtomLocality::Local);
1451                         // Here we block until the H2D copy completes because event sync with the
1452                         // force kernels that use the coordinates on the next steps is not implemented
1453                         // (not because of a race on state->x being modified on the CPU while H2D is in progress).
1454                         stateGpu->waitCoordinatesCopiedToDevice(AtomLocality::Local);
1455                     }
1456                 }
1457             }
1458         }
1459
1460         /* #############  END CALC EKIN AND PRESSURE ################# */
1461
1462         /* Note: this is OK, but there are some numerical precision issues with using the convergence of
1463            the virial that should probably be addressed eventually. state->veta has better properies,
1464            but what we actually need entering the new cycle is the new shake_vir value. Ideally, we could
1465            generate the new shake_vir, but test the veta value for convergence.  This will take some thought. */
1466
1467         if (ir->efep != efepNO && !EI_VV(ir->eI))
1468         {
1469             /* Sum up the foreign energy and dhdl terms for md and sd.
1470                Currently done every step so that dhdl is correct in the .edr */
1471             sum_dhdl(enerd, state->lambda, *ir->fepvals);
1472         }
1473
1474         update_pcouple_after_coordinates(fplog, step, ir, mdatoms, pres, force_vir, shake_vir,
1475                                          pressureCouplingMu, state, nrnb, &upd, !useGpuForUpdate);
1476
1477         const bool doBerendsenPressureCoupling =
1478                 (inputrec->epc == epcBERENDSEN && do_per_step(step, inputrec->nstpcouple));
1479         if (useGpuForUpdate && (doBerendsenPressureCoupling || doParrinelloRahman))
1480         {
1481             integrator->scaleCoordinates(pressureCouplingMu);
1482             integrator->setPbc(PbcType::Xyz, state->box);
1483         }
1484
1485         /* ################# END UPDATE STEP 2 ################# */
1486         /* #### We now have r(t+dt) and v(t+dt/2)  ############# */
1487
1488         /* The coordinates (x) were unshifted in update */
1489         if (!bGStat)
1490         {
1491             /* We will not sum ekinh_old,
1492              * so signal that we still have to do it.
1493              */
1494             bSumEkinhOld = TRUE;
1495         }
1496
1497         if (bCalcEner)
1498         {
1499             /* #########  BEGIN PREPARING EDR OUTPUT  ###########  */
1500
1501             /* use the directly determined last velocity, not actually the averaged half steps */
1502             if (bTrotter && ir->eI == eiVV)
1503             {
1504                 enerd->term[F_EKIN] = last_ekin;
1505             }
1506             enerd->term[F_ETOT] = enerd->term[F_EPOT] + enerd->term[F_EKIN];
1507
1508             if (integratorHasConservedEnergyQuantity(ir))
1509             {
1510                 if (EI_VV(ir->eI))
1511                 {
1512                     enerd->term[F_ECONSERVED] = enerd->term[F_ETOT] + saved_conserved_quantity;
1513                 }
1514                 else
1515                 {
1516                     enerd->term[F_ECONSERVED] = enerd->term[F_ETOT] + NPT_energy(ir, state, &MassQ);
1517                 }
1518             }
1519             /* #########  END PREPARING EDR OUTPUT  ###########  */
1520         }
1521
1522         /* Output stuff */
1523         if (MASTER(cr))
1524         {
1525             if (fplog && do_log && bDoExpanded)
1526             {
1527                 /* only needed if doing expanded ensemble */
1528                 PrintFreeEnergyInfoToFile(fplog, ir->fepvals, ir->expandedvals,
1529                                           ir->bSimTemp ? ir->simtempvals : nullptr,
1530                                           state_global->dfhist, state->fep_state, ir->nstlog, step);
1531             }
1532             if (bCalcEner)
1533             {
1534                 energyOutput.addDataAtEnergyStep(bDoDHDL, bCalcEnerStep, t, mdatoms->tmass, enerd, state,
1535                                                  ir->fepvals, ir->expandedvals, lastbox, shake_vir,
1536                                                  force_vir, total_vir, pres, ekind, mu_tot, constr);
1537             }
1538             else
1539             {
1540                 energyOutput.recordNonEnergyStep();
1541             }
1542
1543             gmx_bool do_dr = do_per_step(step, ir->nstdisreout);
1544             gmx_bool do_or = do_per_step(step, ir->nstorireout);
1545
1546             if (doSimulatedAnnealing)
1547             {
1548                 energyOutput.printAnnealingTemperatures(do_log ? fplog : nullptr, groups, &(ir->opts));
1549             }
1550             if (do_log || do_ene || do_dr || do_or)
1551             {
1552                 energyOutput.printStepToEnergyFile(mdoutf_get_fp_ene(outf), do_ene, do_dr, do_or,
1553                                                    do_log ? fplog : nullptr, step, t, fcd, awh.get());
1554             }
1555
1556             if (ir->bPull)
1557             {
1558                 pull_print_output(pull_work, step, t);
1559             }
1560
1561             if (do_per_step(step, ir->nstlog))
1562             {
1563                 if (fflush(fplog) != 0)
1564                 {
1565                     gmx_fatal(FARGS, "Cannot flush logfile - maybe you are out of disk space?");
1566                 }
1567             }
1568         }
1569         if (bDoExpanded)
1570         {
1571             /* Have to do this part _after_ outputting the logfile and the edr file */
1572             /* Gets written into the state at the beginning of next loop*/
1573             state->fep_state = lamnew;
1574         }
1575         /* Print the remaining wall clock time for the run */
1576         if (isMasterSimMasterRank(ms, MASTER(cr)) && (do_verbose || gmx_got_usr_signal()) && !bPMETunePrinting)
1577         {
1578             if (shellfc)
1579             {
1580                 fprintf(stderr, "\n");
1581             }
1582             print_time(stderr, walltime_accounting, step, ir, cr);
1583         }
1584
1585         /* Ion/water position swapping.
1586          * Not done in last step since trajectory writing happens before this call
1587          * in the MD loop and exchanges would be lost anyway. */
1588         bNeedRepartition = FALSE;
1589         if ((ir->eSwapCoords != eswapNO) && (step > 0) && !bLastStep && do_per_step(step, ir->swap->nstswap))
1590         {
1591             bNeedRepartition =
1592                     do_swapcoords(cr, step, t, ir, swap, wcycle, as_rvec_array(state->x.data()),
1593                                   state->box, MASTER(cr) && mdrunOptions.verbose, bRerunMD);
1594
1595             if (bNeedRepartition && DOMAINDECOMP(cr))
1596             {
1597                 dd_collect_state(cr->dd, state, state_global);
1598             }
1599         }
1600
1601         /* Replica exchange */
1602         bExchanged = FALSE;
1603         if (bDoReplEx)
1604         {
1605             bExchanged = replica_exchange(fplog, cr, ms, repl_ex, state_global, enerd, state, step, t);
1606         }
1607
1608         if ((bExchanged || bNeedRepartition) && DOMAINDECOMP(cr))
1609         {
1610             dd_partition_system(fplog, mdlog, step, cr, TRUE, 1, state_global, *top_global, ir,
1611                                 imdSession, pull_work, state, &f, mdAtoms, &top, fr, vsite, constr,
1612                                 nrnb, wcycle, FALSE);
1613             shouldCheckNumberOfBondedInteractions = true;
1614             upd.setNumAtoms(state->natoms);
1615         }
1616
1617         bFirstStep = FALSE;
1618         bInitStep  = FALSE;
1619
1620         /* #######  SET VARIABLES FOR NEXT ITERATION IF THEY STILL NEED IT ###### */
1621         /* With all integrators, except VV, we need to retain the pressure
1622          * at the current step for coupling at the next step.
1623          */
1624         if ((state->flags & (1U << estPRES_PREV))
1625             && (bGStatEveryStep || (ir->nstpcouple > 0 && step % ir->nstpcouple == 0)))
1626         {
1627             /* Store the pressure in t_state for pressure coupling
1628              * at the next MD step.
1629              */
1630             copy_mat(pres, state->pres_prev);
1631         }
1632
1633         /* #######  END SET VARIABLES FOR NEXT ITERATION ###### */
1634
1635         if ((membed != nullptr) && (!bLastStep))
1636         {
1637             rescale_membed(step_rel, membed, as_rvec_array(state_global->x.data()));
1638         }
1639
1640         cycles = wallcycle_stop(wcycle, ewcSTEP);
1641         if (DOMAINDECOMP(cr) && wcycle)
1642         {
1643             dd_cycles_add(cr->dd, cycles, ddCyclStep);
1644         }
1645
1646         /* increase the MD step number */
1647         step++;
1648         step_rel++;
1649
1650         resetHandler->resetCounters(step, step_rel, mdlog, fplog, cr, fr->nbv.get(), nrnb,
1651                                     fr->pmedata, pme_loadbal, wcycle, walltime_accounting);
1652
1653         /* If bIMD is TRUE, the master updates the IMD energy record and sends positions to VMD client */
1654         imdSession->updateEnergyRecordAndSendPositionsAndEnergies(bInteractiveMDstep, step, bCalcEner);
1655     }
1656     /* End of main MD loop */
1657
1658     /* Closing TNG files can include compressing data. Therefore it is good to do that
1659      * before stopping the time measurements. */
1660     mdoutf_tng_close(outf);
1661
1662     /* Stop measuring walltime */
1663     walltime_accounting_end_time(walltime_accounting);
1664
1665     if (!thisRankHasDuty(cr, DUTY_PME))
1666     {
1667         /* Tell the PME only node to finish */
1668         gmx_pme_send_finish(cr);
1669     }
1670
1671     if (MASTER(cr))
1672     {
1673         if (ir->nstcalcenergy > 0)
1674         {
1675             energyOutput.printAnnealingTemperatures(fplog, groups, &(ir->opts));
1676             energyOutput.printAverages(fplog, groups);
1677         }
1678     }
1679     done_mdoutf(outf);
1680
1681     if (bPMETune)
1682     {
1683         pme_loadbal_done(pme_loadbal, fplog, mdlog, fr->nbv->useGpu());
1684     }
1685
1686     done_shellfc(fplog, shellfc, step_rel);
1687
1688     if (useReplicaExchange && MASTER(cr))
1689     {
1690         print_replica_exchange_statistics(fplog, repl_ex);
1691     }
1692
1693     walltime_accounting_set_nsteps_done(walltime_accounting, step_rel);
1694
1695     global_stat_destroy(gstat);
1696 }