PME reduction for CUDA F buffer operations
[alexxy/gromacs.git] / src / gromacs / nbnxm / nbnxm_gpu.h
1 /*
2  * This file is part of the GROMACS molecular simulation package.
3  *
4  * Copyright (c) 2012,2013,2014,2015,2017,2018,2019, by the GROMACS development team, led by
5  * Mark Abraham, David van der Spoel, Berk Hess, and Erik Lindahl,
6  * and including many others, as listed in the AUTHORS file in the
7  * top-level source directory and at http://www.gromacs.org.
8  *
9  * GROMACS is free software; you can redistribute it and/or
10  * modify it under the terms of the GNU Lesser General Public License
11  * as published by the Free Software Foundation; either version 2.1
12  * of the License, or (at your option) any later version.
13  *
14  * GROMACS is distributed in the hope that it will be useful,
15  * but WITHOUT ANY WARRANTY; without even the implied warranty of
16  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
17  * Lesser General Public License for more details.
18  *
19  * You should have received a copy of the GNU Lesser General Public
20  * License along with GROMACS; if not, see
21  * http://www.gnu.org/licenses, or write to the Free Software Foundation,
22  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA.
23  *
24  * If you want to redistribute modifications to GROMACS, please
25  * consider that scientific software is very special. Version
26  * control is crucial - bugs must be traceable. We will be happy to
27  * consider code for inclusion in the official distribution, but
28  * derived work must not be called official GROMACS. Details are found
29  * in the README & COPYING files - if they are missing, get the
30  * official version at http://www.gromacs.org.
31  *
32  * To help us fund GROMACS development, we humbly ask that you cite
33  * the research papers on the package. Check out http://www.gromacs.org.
34  */
35 /*! \libinternal \file
36  *  \brief Declare interface for GPU execution for NBNXN module
37  *
38  *  \author Szilard Pall <pall.szilard@gmail.com>
39  *  \author Mark Abraham <mark.j.abraham@gmail.com>
40  *  \ingroup module_nbnxm
41  */
42
43 #ifndef GMX_NBNXM_NBNXM_GPU_H
44 #define GMX_NBNXM_NBNXM_GPU_H
45
46 #include "gromacs/gpu_utils/gpu_macros.h"
47 #include "gromacs/math/vectypes.h"
48 #include "gromacs/nbnxm/atomdata.h"
49 #include "gromacs/utility/basedefinitions.h"
50 #include "gromacs/utility/real.h"
51
52 #include "gpu_types.h"
53 #include "locality.h"
54
55 struct nbnxn_atomdata_t;
56 enum class GpuTaskCompletion;
57
58 namespace gmx
59 {
60 class GpuBonded;
61 }
62
63 namespace Nbnxm
64 {
65
66 class Grid;
67
68 /*! \brief
69  * Launch asynchronously the xq buffer host to device copy.
70  *
71  * The nonlocal copy is skipped if there is no dependent work to do,
72  * neither non-local nonbonded interactions nor bonded GPU work.
73  *
74  * \param [in]    nb        GPU nonbonded data.
75  * \param [in]    nbdata    Host-side atom data structure.
76  * \param [in]    aloc      Atom locality flag.
77  */
78 GPU_FUNC_QUALIFIER
79 void gpu_copy_xq_to_gpu(gmx_nbnxn_gpu_t gmx_unused               *nb,
80                         const struct nbnxn_atomdata_t gmx_unused *nbdata,
81                         AtomLocality gmx_unused                   aloc) GPU_FUNC_TERM;
82
83 /*! \brief
84  * Launch asynchronously the nonbonded force calculations.
85  *
86  *  Also launches the initial pruning of a fresh list after search.
87  *
88  *  The local and non-local interaction calculations are launched in two
89  *  separate streams. If there is no work (i.e. empty pair list), the
90  *  force kernel launch is omitted.
91  *
92  */
93 GPU_FUNC_QUALIFIER
94 void gpu_launch_kernel(gmx_nbnxn_gpu_t gmx_unused     *nb,
95                        int gmx_unused                  flags,
96                        InteractionLocality gmx_unused  iloc) GPU_FUNC_TERM;
97
98 /*! \brief
99  * Launch asynchronously the nonbonded prune-only kernel.
100  *
101  *  The local and non-local list pruning are launched in their separate streams.
102  *
103  *  Notes for future scheduling tuning:
104  *  Currently we schedule the dynamic pruning between two MD steps *after* both local and
105  *  nonlocal force D2H transfers completed. We could launch already after the cpyback
106  *  is launched, but we want to avoid prune kernels (especially in the non-local
107  *  high prio-stream) competing with nonbonded work.
108  *
109  *  However, this is not ideal as this schedule does not expose the available
110  *  concurrency. The dynamic pruning kernel:
111  *    - should be allowed to overlap with any task other than force compute, including
112  *      transfers (F D2H and the next step's x H2D as well as force clearing).
113  *    - we'd prefer to avoid competition with non-bonded force kernels belonging
114  *      to the same rank and ideally other ranks too.
115  *
116  *  In the most general case, the former would require scheduling pruning in a separate
117  *  stream and adding additional event sync points to ensure that force kernels read
118  *  consistent pair list data. This would lead to some overhead (due to extra
119  *  cudaStreamWaitEvent calls, 3-5 us/call) which we might be able to live with.
120  *  The gains from additional overlap might not be significant as long as
121  *  update+constraints anyway takes longer than pruning, but there will still
122  *  be use-cases where more overlap may help (e.g. multiple ranks per GPU,
123  *  no/hbonds only constraints).
124  *  The above second point is harder to address given that multiple ranks will often
125  *  share a GPU. Ranks that complete their nonbondeds sooner can schedule pruning earlier
126  *  and without a third priority level it is difficult to avoid some interference of
127  *  prune kernels with force tasks (in particular preemption of low-prio local force task).
128  *
129  * \param [inout] nb        GPU nonbonded data.
130  * \param [in]    iloc      Interaction locality flag.
131  * \param [in]    numParts  Number of parts the pair list is split into in the rolling kernel.
132  */
133 GPU_FUNC_QUALIFIER
134 void gpu_launch_kernel_pruneonly(gmx_nbnxn_gpu_t gmx_unused     *nb,
135                                  InteractionLocality gmx_unused  iloc,
136                                  int gmx_unused                  numParts) GPU_FUNC_TERM;
137
138 /*! \brief
139  * Launch asynchronously the download of short-range forces from the GPU
140  * (and energies/shift forces if required).
141  */
142 GPU_FUNC_QUALIFIER
143 void gpu_launch_cpyback(gmx_nbnxn_gpu_t  gmx_unused *nb,
144                         nbnxn_atomdata_t gmx_unused *nbatom,
145                         int              gmx_unused  flags,
146                         AtomLocality     gmx_unused  aloc,
147                         const bool       gmx_unused  copyBackNbForce) GPU_FUNC_TERM;
148
149 /*! \brief Attempts to complete nonbonded GPU task.
150  *
151  *  This function attempts to complete the nonbonded task (both GPU and CPU auxiliary work).
152  *  Success, i.e. that the tasks completed and results are ready to be consumed, is signaled
153  *  by the return value (always true if blocking wait mode requested).
154  *
155  *  The \p completionKind parameter controls whether the behavior is non-blocking
156  *  (achieved by passing GpuTaskCompletion::Check) or blocking wait until the results
157  *  are ready (when GpuTaskCompletion::Wait is passed).
158  *  As the "Check" mode the function will return immediately if the GPU stream
159  *  still contain tasks that have not completed, it allows more flexible overlapping
160  *  of work on the CPU with GPU execution.
161  *
162  *  Note that it is only safe to use the results, and to continue to the next MD
163  *  step when this function has returned true which indicates successful completion of
164  *  - All nonbonded GPU tasks: both compute and device transfer(s)
165  *  - auxiliary tasks: updating the internal module state (timing accumulation, list pruning states) and
166  *  - internal staging reduction of (\p fshift, \p e_el, \p e_lj).
167  *
168  *  TODO: improve the handling of outputs e.g. by ensuring that this function explcitly returns the
169  *  force buffer (instead of that being passed only to nbnxn_gpu_launch_cpyback()) and by returning
170  *  the energy and Fshift contributions for some external/centralized reduction.
171  *
172  * \param[in]  nb     The nonbonded data GPU structure
173  * \param[in]  flags  Force flags
174  * \param[in]  aloc   Atom locality identifier
175  * \param[out] e_lj   Pointer to the LJ energy output to accumulate into
176  * \param[out] e_el   Pointer to the electrostatics energy output to accumulate into
177  * \param[out] fshift Pointer to the shift force buffer to accumulate into
178  * \param[in]  completionKind Indicates whether nnbonded task completion should only be checked rather than waited for
179  * \returns              True if the nonbonded tasks associated with \p aloc locality have completed
180  */
181 GPU_FUNC_QUALIFIER
182 bool gpu_try_finish_task(gmx_nbnxn_gpu_t gmx_unused  *nb,
183                          int             gmx_unused   flags,
184                          AtomLocality    gmx_unused   aloc,
185                          real            gmx_unused  *e_lj,
186                          real            gmx_unused  *e_el,
187                          rvec            gmx_unused  *fshift,
188                          GpuTaskCompletion gmx_unused completionKind) GPU_FUNC_TERM_WITH_RETURN(false);
189
190 /*! \brief  Completes the nonbonded GPU task blocking until GPU tasks and data
191  * transfers to finish.
192  *
193  * Also does timing accounting and reduction of the internal staging buffers.
194  * As this is called at the end of the step, it also resets the pair list and
195  * pruning flags.
196  *
197  * \param[in] nb The nonbonded data GPU structure
198  * \param[in] flags Force flags
199  * \param[in] aloc Atom locality identifier
200  * \param[out] e_lj Pointer to the LJ energy output to accumulate into
201  * \param[out] e_el Pointer to the electrostatics energy output to accumulate into
202  * \param[out] fshift Pointer to the shift force buffer to accumulate into
203  */
204 GPU_FUNC_QUALIFIER
205 void gpu_wait_finish_task(gmx_nbnxn_gpu_t gmx_unused *nb,
206                           int             gmx_unused  flags,
207                           AtomLocality    gmx_unused  aloc,
208                           real            gmx_unused *e_lj,
209                           real            gmx_unused *e_el,
210                           rvec            gmx_unused *fshift) GPU_FUNC_TERM;
211
212 /*! \brief Selects the Ewald kernel type, analytical or tabulated, single or twin cut-off. */
213 GPU_FUNC_QUALIFIER
214 int gpu_pick_ewald_kernel_type(bool gmx_unused bTwinCut) GPU_FUNC_TERM_WITH_RETURN(-1);
215
216 /*! \brief Initialization for X buffer operations on GPU.
217  * Called on the NS step and performs (re-)allocations and memory copies. !*/
218 CUDA_FUNC_QUALIFIER
219 void nbnxn_gpu_init_x_to_nbat_x(const Nbnxm::GridSet gmx_unused &gridSet,
220                                 gmx_nbnxn_gpu_t    gmx_unused *gpu_nbv) CUDA_FUNC_TERM;
221
222 /*! \brief X buffer operations on GPU: performs conversion from rvec to nb format.
223  */
224 CUDA_FUNC_QUALIFIER
225 void nbnxn_gpu_x_to_nbat_x(const Nbnxm::Grid  gmx_unused &grid,
226                            bool               gmx_unused  setFillerCoords,
227                            gmx_nbnxn_gpu_t    gmx_unused *gpu_nbv,
228                            void               gmx_unused *xPmeDevicePtr,
229                            Nbnxm::AtomLocality gmx_unused locality,
230                            const rvec         gmx_unused *x,
231                            int                gmx_unused  gridId,
232                            int                gmx_unused  numColumnsMax) CUDA_FUNC_TERM;
233
234 /*! \brief Sync the nonlocal stream with dependent tasks in the local queue.
235  * \param[in] nb                   The nonbonded data GPU structure
236  * \param[in] interactionLocality  Local or NonLocal sync point
237  */
238 CUDA_FUNC_QUALIFIER
239 void nbnxnInsertNonlocalGpuDependency(const gmx_nbnxn_gpu_t gmx_unused    *nb,
240                                       const InteractionLocality gmx_unused interactionLocality) CUDA_FUNC_TERM;
241
242 /*! \brief Set up internal flags that indicate what type of short-range work there is.
243  *
244  * As nonbondeds and bondeds share input/output buffers and GPU queues,
245  * both are considered when checking for work in the current domain.
246  *
247  * This function is expected to be called every time the work-distribution
248  * can change (i.e. at search/domain decomposition steps).
249  *
250  * \param[inout]  nb         Pointer to the nonbonded GPU data structure
251  * \param[in]     gpuBonded  Pointer to the GPU bonded data structure
252  * \param[in]     iLocality  Interaction locality identifier
253  */
254 GPU_FUNC_QUALIFIER
255 void setupGpuShortRangeWork(gmx_nbnxn_gpu_t                  gmx_unused *nb,
256                             const gmx::GpuBonded             gmx_unused *gpuBonded,
257                             const Nbnxm::InteractionLocality gmx_unused  iLocality) GPU_FUNC_TERM;
258
259 /*! \brief Returns true if there is GPU short-range work for the given atom locality.
260  *
261  * Note that as, unlike nonbonded tasks, bonded tasks are not split into local/nonlocal,
262  * and therefore if there are GPU offloaded bonded interactions, this function will return
263  * true for both local and nonlocal atom range.
264  *
265  * \param[inout]  nb        Pointer to the nonbonded GPU data structure
266  * \param[in]     aLocality Atom locality identifier
267  */
268 GPU_FUNC_QUALIFIER
269 bool haveGpuShortRangeWork(const gmx_nbnxn_gpu_t     gmx_unused *nb,
270                            const Nbnxm::AtomLocality gmx_unused  aLocality) GPU_FUNC_TERM_WITH_RETURN(false);
271
272 /*! \brief Initialization for F buffer operations on GPU */
273 CUDA_FUNC_QUALIFIER
274 void nbnxn_gpu_init_add_nbat_f_to_f(const int               gmx_unused *cell,
275                                     gmx_nbnxn_gpu_t         gmx_unused *gpu_nbv,
276                                     int                     gmx_unused  natoms_total) CUDA_FUNC_TERM;
277
278 /*! \brief F buffer operations on GPU: adds nb format force to rvec format. */
279 CUDA_FUNC_QUALIFIER
280 void nbnxn_gpu_add_nbat_f_to_f(const AtomLocality           gmx_unused  atomLocality,
281                                gmx_nbnxn_gpu_t              gmx_unused *gpu_nbv,
282                                void                         gmx_unused *fPmeDevicePtr,
283                                GpuEventSynchronizer         gmx_unused *pmeForcesReady,
284                                int                          gmx_unused  atomStart,
285                                int                          gmx_unused  nAtoms,
286                                bool                         gmx_unused  useGpuFPmeReduction,
287                                bool                         gmx_unused  accumulateForce) CUDA_FUNC_TERM;
288
289 /*! \brief Copy force buffer from CPU to GPU */
290 CUDA_FUNC_QUALIFIER
291 void nbnxn_launch_copy_f_to_gpu(const AtomLocality      gmx_unused  atomLocality,
292                                 const Nbnxm::GridSet    gmx_unused &gridSet,
293                                 gmx_nbnxn_gpu_t         gmx_unused *nb,
294                                 rvec                    gmx_unused *f) CUDA_FUNC_TERM;
295
296 /*! \brief Copy force buffer from GPU to CPU */
297 CUDA_FUNC_QUALIFIER
298 void nbnxn_launch_copy_f_from_gpu(const AtomLocality      gmx_unused  atomLocality,
299                                   const Nbnxm::GridSet    gmx_unused &gridSet,
300                                   gmx_nbnxn_gpu_t         gmx_unused *nb,
301                                   rvec                    gmx_unused *f) CUDA_FUNC_TERM;
302
303 /*! \brief Wait for GPU stream to complete */
304 CUDA_FUNC_QUALIFIER
305 void nbnxn_wait_for_gpu_force_reduction(const AtomLocality      gmx_unused  atomLocality,
306                                         gmx_nbnxn_gpu_t         gmx_unused *nb) CUDA_FUNC_TERM;
307
308
309 }     // namespace Nbnxm
310
311 #endif