Tests of restrained listed potentials.
[alexxy/gromacs.git] / src / gromacs / nbnxm / nbnxm_gpu.h
1 /*
2  * This file is part of the GROMACS molecular simulation package.
3  *
4  * Copyright (c) 2012,2013,2014,2015,2017,2018,2019, by the GROMACS development team, led by
5  * Mark Abraham, David van der Spoel, Berk Hess, and Erik Lindahl,
6  * and including many others, as listed in the AUTHORS file in the
7  * top-level source directory and at http://www.gromacs.org.
8  *
9  * GROMACS is free software; you can redistribute it and/or
10  * modify it under the terms of the GNU Lesser General Public License
11  * as published by the Free Software Foundation; either version 2.1
12  * of the License, or (at your option) any later version.
13  *
14  * GROMACS is distributed in the hope that it will be useful,
15  * but WITHOUT ANY WARRANTY; without even the implied warranty of
16  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
17  * Lesser General Public License for more details.
18  *
19  * You should have received a copy of the GNU Lesser General Public
20  * License along with GROMACS; if not, see
21  * http://www.gnu.org/licenses, or write to the Free Software Foundation,
22  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA.
23  *
24  * If you want to redistribute modifications to GROMACS, please
25  * consider that scientific software is very special. Version
26  * control is crucial - bugs must be traceable. We will be happy to
27  * consider code for inclusion in the official distribution, but
28  * derived work must not be called official GROMACS. Details are found
29  * in the README & COPYING files - if they are missing, get the
30  * official version at http://www.gromacs.org.
31  *
32  * To help us fund GROMACS development, we humbly ask that you cite
33  * the research papers on the package. Check out http://www.gromacs.org.
34  */
35 /*! \libinternal \file
36  *  \brief Declare interface for GPU execution for NBNXN module
37  *
38  *  \author Szilard Pall <pall.szilard@gmail.com>
39  *  \author Mark Abraham <mark.j.abraham@gmail.com>
40  *  \ingroup module_nbnxm
41  */
42
43 #ifndef GMX_NBNXM_NBNXM_GPU_H
44 #define GMX_NBNXM_NBNXM_GPU_H
45
46 #include "gromacs/gpu_utils/gpu_macros.h"
47 #include "gromacs/math/vectypes.h"
48 #include "gromacs/utility/basedefinitions.h"
49 #include "gromacs/utility/real.h"
50
51 #include "gpu_types.h"
52
53 struct nbnxn_atomdata_t;
54 enum class GpuTaskCompletion;
55
56 /*! \brief
57  * Launch asynchronously the xq buffer host to device copy.
58  *
59  * The nonlocal copy is skipped if there is no dependent work to do,
60  * neither non-local nonbonded interactions nor bonded GPU work.
61  *
62  * \param [in]    nb        GPU nonbonded data.
63  * \param [in]    nbdata    Host-side atom data structure.
64  * \param [in]    iloc      Interaction locality flag.
65  * \param [in]    haveOtherWork  True if there are other tasks that require the nbnxn coordinate input.
66  */
67 GPU_FUNC_QUALIFIER
68 void nbnxn_gpu_copy_xq_to_gpu(gmx_nbnxn_gpu_t gmx_unused               *nb,
69                               const struct nbnxn_atomdata_t gmx_unused *nbdata,
70                               int gmx_unused                            iloc,
71                               bool gmx_unused                           haveOtherWork) GPU_FUNC_TERM
72
73 /*! \brief
74  * Launch asynchronously the nonbonded force calculations.
75  *
76  *  Also launches the initial pruning of a fresh list after search.
77  *
78  *  The local and non-local interaction calculations are launched in two
79  *  separate streams. If there is no work (i.e. empty pair list), the
80  *  force kernel launch is omitted.
81  *
82  */
83 GPU_FUNC_QUALIFIER
84 void nbnxn_gpu_launch_kernel(gmx_nbnxn_gpu_t gmx_unused               *nb,
85                              int gmx_unused                            flags,
86                              int gmx_unused                            iloc) GPU_FUNC_TERM
87
88 /*! \brief
89  * Launch asynchronously the nonbonded prune-only kernel.
90  *
91  *  The local and non-local list pruning are launched in their separate streams.
92  *
93  *  Notes for future scheduling tuning:
94  *  Currently we schedule the dynamic pruning between two MD steps *after* both local and
95  *  nonlocal force D2H transfers completed. We could launch already after the cpyback
96  *  is launched, but we want to avoid prune kernels (especially in the non-local
97  *  high prio-stream) competing with nonbonded work.
98  *
99  *  However, this is not ideal as this schedule does not expose the available
100  *  concurrency. The dynamic pruning kernel:
101  *    - should be allowed to overlap with any task other than force compute, including
102  *      transfers (F D2H and the next step's x H2D as well as force clearing).
103  *    - we'd prefer to avoid competition with non-bonded force kernels belonging
104  *      to the same rank and ideally other ranks too.
105  *
106  *  In the most general case, the former would require scheduling pruning in a separate
107  *  stream and adding additional event sync points to ensure that force kernels read
108  *  consistent pair list data. This would lead to some overhead (due to extra
109  *  cudaStreamWaitEvent calls, 3-5 us/call) which we might be able to live with.
110  *  The gains from additional overlap might not be significant as long as
111  *  update+constraints anyway takes longer than pruning, but there will still
112  *  be use-cases where more overlap may help (e.g. multiple ranks per GPU,
113  *  no/hbonds only constraints).
114  *  The above second point is harder to address given that multiple ranks will often
115  *  share a GPU. Ranks that complete their nonbondeds sooner can schedule pruning earlier
116  *  and without a third priority level it is difficult to avoid some interference of
117  *  prune kernels with force tasks (in particular preemption of low-prio local force task).
118  *
119  * \param [inout] nb        GPU nonbonded data.
120  * \param [in]    iloc      Interaction locality flag.
121  * \param [in]    numParts  Number of parts the pair list is split into in the rolling kernel.
122  */
123 GPU_FUNC_QUALIFIER
124 void nbnxn_gpu_launch_kernel_pruneonly(gmx_nbnxn_gpu_t gmx_unused *nb,
125                                        int gmx_unused              iloc,
126                                        int gmx_unused              numParts) GPU_FUNC_TERM
127
128 /*! \brief
129  * Launch asynchronously the download of nonbonded forces from the GPU
130  * (and energies/shift forces if required).
131  * When haveOtherWork=true, the copy-back is done even when there was
132  * no non-bonded work.
133  */
134 GPU_FUNC_QUALIFIER
135 void nbnxn_gpu_launch_cpyback(gmx_nbnxn_gpu_t  gmx_unused              *nb,
136                               struct nbnxn_atomdata_t gmx_unused       *nbatom,
137                               int                    gmx_unused         flags,
138                               int                    gmx_unused         aloc,
139                               bool                   gmx_unused         haveOtherWork) GPU_FUNC_TERM
140
141 /*! \brief Attempts to complete nonbonded GPU task.
142  *
143  *  This function attempts to complete the nonbonded task (both GPU and CPU auxiliary work).
144  *  Success, i.e. that the tasks completed and results are ready to be consumed, is signaled
145  *  by the return value (always true if blocking wait mode requested).
146  *
147  *  The \p completionKind parameter controls whether the behavior is non-blocking
148  *  (achieved by passing GpuTaskCompletion::Check) or blocking wait until the results
149  *  are ready (when GpuTaskCompletion::Wait is passed).
150  *  As the "Check" mode the function will return immediately if the GPU stream
151  *  still contain tasks that have not completed, it allows more flexible overlapping
152  *  of work on the CPU with GPU execution.
153  *
154  *  Note that it is only safe to use the results, and to continue to the next MD
155  *  step when this function has returned true which indicates successful completion of
156  *  - All nonbonded GPU tasks: both compute and device transfer(s)
157  *  - auxiliary tasks: updating the internal module state (timing accumulation, list pruning states) and
158  *  - internal staging reduction of (\p fshift, \p e_el, \p e_lj).
159  *
160  *  TODO: improve the handling of outputs e.g. by ensuring that this function explcitly returns the
161  *  force buffer (instead of that being passed only to nbnxn_gpu_launch_cpyback()) and by returning
162  *  the energy and Fshift contributions for some external/centralized reduction.
163  *
164  * \param[in]  nb     The nonbonded data GPU structure
165  * \param[in]  flags  Force flags
166  * \param[in]  aloc   Atom locality identifier
167  * \param[in]  haveOtherWork  Tells whether there is other work than non-bonded work in the nbnxn stream(s)
168  * \param[out] e_lj   Pointer to the LJ energy output to accumulate into
169  * \param[out] e_el   Pointer to the electrostatics energy output to accumulate into
170  * \param[out] fshift Pointer to the shift force buffer to accumulate into
171  * \param[in]  completionKind Indicates whether nnbonded task completion should only be checked rather than waited for
172  * \returns              True if the nonbonded tasks associated with \p aloc locality have completed
173  */
174 GPU_FUNC_QUALIFIER
175 bool nbnxn_gpu_try_finish_task(gmx_nbnxn_gpu_t gmx_unused  *nb,
176                                int             gmx_unused   flags,
177                                int             gmx_unused   aloc,
178                                bool            gmx_unused   haveOtherWork,
179                                real            gmx_unused  *e_lj,
180                                real            gmx_unused  *e_el,
181                                rvec            gmx_unused  *fshift,
182                                GpuTaskCompletion gmx_unused completionKind) GPU_FUNC_TERM_WITH_RETURN(false)
183
184 /*! \brief  Completes the nonbonded GPU task blocking until GPU tasks and data
185  * transfers to finish.
186  *
187  * Also does timing accounting and reduction of the internal staging buffers.
188  * As this is called at the end of the step, it also resets the pair list and
189  * pruning flags.
190  *
191  * \param[in] nb The nonbonded data GPU structure
192  * \param[in] flags Force flags
193  * \param[in] aloc Atom locality identifier
194  * \param[in]  haveOtherWork  Tells whether there is other work than non-bonded work in the nbnxn stream(s)
195  * \param[out] e_lj Pointer to the LJ energy output to accumulate into
196  * \param[out] e_el Pointer to the electrostatics energy output to accumulate into
197  * \param[out] fshift Pointer to the shift force buffer to accumulate into
198  */
199 GPU_FUNC_QUALIFIER
200 void nbnxn_gpu_wait_finish_task(gmx_nbnxn_gpu_t gmx_unused *nb,
201                                 int             gmx_unused  flags,
202                                 int             gmx_unused  aloc,
203                                 bool            gmx_unused  haveOtherWork,
204                                 real            gmx_unused *e_lj,
205                                 real            gmx_unused *e_el,
206                                 rvec            gmx_unused *fshift) GPU_FUNC_TERM
207
208 /*! \brief Selects the Ewald kernel type, analytical or tabulated, single or twin cut-off. */
209 GPU_FUNC_QUALIFIER
210 int nbnxn_gpu_pick_ewald_kernel_type(bool gmx_unused bTwinCut) GPU_FUNC_TERM_WITH_RETURN(-1)
211
212 #endif