ea95f021d65a6d34bd9ca038dfe3f1c125c1cd56
[alexxy/gromacs.git] / src / gromacs / gpu_utils / devicebuffer.cuh
1 /*
2  * This file is part of the GROMACS molecular simulation package.
3  *
4  * Copyright (c) 2018,2019, by the GROMACS development team, led by
5  * Mark Abraham, David van der Spoel, Berk Hess, and Erik Lindahl,
6  * and including many others, as listed in the AUTHORS file in the
7  * top-level source directory and at http://www.gromacs.org.
8  *
9  * GROMACS is free software; you can redistribute it and/or
10  * modify it under the terms of the GNU Lesser General Public License
11  * as published by the Free Software Foundation; either version 2.1
12  * of the License, or (at your option) any later version.
13  *
14  * GROMACS is distributed in the hope that it will be useful,
15  * but WITHOUT ANY WARRANTY; without even the implied warranty of
16  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
17  * Lesser General Public License for more details.
18  *
19  * You should have received a copy of the GNU Lesser General Public
20  * License along with GROMACS; if not, see
21  * http://www.gnu.org/licenses, or write to the Free Software Foundation,
22  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA.
23  *
24  * If you want to redistribute modifications to GROMACS, please
25  * consider that scientific software is very special. Version
26  * control is crucial - bugs must be traceable. We will be happy to
27  * consider code for inclusion in the official distribution, but
28  * derived work must not be called official GROMACS. Details are found
29  * in the README & COPYING files - if they are missing, get the
30  * official version at http://www.gromacs.org.
31  *
32  * To help us fund GROMACS development, we humbly ask that you cite
33  * the research papers on the package. Check out http://www.gromacs.org.
34  */
35 #ifndef GMX_GPU_UTILS_DEVICEBUFFER_CUH
36 #define GMX_GPU_UTILS_DEVICEBUFFER_CUH
37
38 /*! \libinternal \file
39  *  \brief Implements the DeviceBuffer type and routines for CUDA.
40  *  Should only be included directly by the main DeviceBuffer file devicebuffer.h.
41  *  TODO: the intent is for DeviceBuffer to become a class.
42  *
43  *  \author Aleksei Iupinov <a.yupinov@gmail.com>
44  *
45  *  \inlibraryapi
46  */
47
48 #include "gromacs/gpu_utils/devicebuffer_datatype.h"
49 #include "gromacs/gpu_utils/gpu_utils.h" //only for GpuApiCallBehavior
50 #include "gromacs/gpu_utils/gputraits.cuh"
51 #include "gromacs/utility/gmxassert.h"
52
53 /*! \brief
54  * Allocates a device-side buffer.
55  * It is currently a caller's responsibility to call it only on not-yet allocated buffers.
56  *
57  * \tparam        ValueType            Raw value type of the \p buffer.
58  * \param[in,out] buffer               Pointer to the device-side buffer.
59  * \param[in]     numValues            Number of values to accomodate.
60  * \param[in]     context              The buffer's dummy context - not managed explicitly in CUDA RT.
61  */
62 template <typename ValueType>
63 void allocateDeviceBuffer(DeviceBuffer<ValueType> *buffer,
64                           size_t                   numValues,
65                           Context                  /* context */)
66 {
67     GMX_ASSERT(buffer, "needs a buffer pointer");
68     cudaError_t stat = cudaMalloc((void **)buffer, numValues * sizeof(ValueType));
69     GMX_RELEASE_ASSERT(stat == cudaSuccess, "cudaMalloc failure");
70 }
71
72 /*! \brief
73  * Frees a device-side buffer.
74  * This does not reset separately stored size/capacity integers,
75  * as this is planned to be a destructor of DeviceBuffer as a proper class,
76  * and no calls on \p buffer should be made afterwards.
77  *
78  * \param[in] buffer  Pointer to the buffer to free.
79  */
80 template <typename DeviceBuffer>
81 void freeDeviceBuffer(DeviceBuffer *buffer)
82 {
83     GMX_ASSERT(buffer, "needs a buffer pointer");
84     if (*buffer)
85     {
86         GMX_RELEASE_ASSERT(cudaFree(*buffer) == cudaSuccess, "cudaFree failed");
87     }
88 }
89
90 /*! \brief
91  * Performs the host-to-device data copy, synchronous or asynchronously on request.
92  *
93  * TODO: This is meant to gradually replace cu/ocl_copy_h2d.
94  *
95  * \tparam        ValueType            Raw value type of the \p buffer.
96  * \param[in,out] buffer               Pointer to the device-side buffer
97  * \param[in]     hostBuffer           Pointer to the raw host-side memory, also typed \p ValueType
98  * \param[in]     startingOffset       Offset (in values) at the device-side buffer to copy into.
99  * \param[in]     numValues            Number of values to copy.
100  * \param[in]     stream               GPU stream to perform asynchronous copy in.
101  * \param[in]     transferKind         Copy type: synchronous or asynchronous.
102  * \param[out]    timingEvent          A dummy pointer to the H2D copy timing event to be filled in.
103  *                                     Not used in CUDA implementation.
104  */
105 template <typename ValueType>
106 void copyToDeviceBuffer(DeviceBuffer<ValueType> *buffer,
107                         const ValueType         *hostBuffer,
108                         size_t                   startingOffset,
109                         size_t                   numValues,
110                         CommandStream            stream,
111                         GpuApiCallBehavior       transferKind,
112                         CommandEvent             */*timingEvent*/)
113 {
114     if (numValues == 0)
115     {
116         return; // such calls are actually made with empty domains
117     }
118     GMX_ASSERT(buffer, "needs a buffer pointer");
119     GMX_ASSERT(hostBuffer, "needs a host buffer pointer");
120     cudaError_t  stat;
121     const size_t bytes = numValues * sizeof(ValueType);
122
123     switch (transferKind)
124     {
125         case GpuApiCallBehavior::Async:
126             GMX_ASSERT(isHostMemoryPinned(hostBuffer), "Source host buffer was not pinned for CUDA");
127             stat = cudaMemcpyAsync(*((ValueType **)buffer) + startingOffset, hostBuffer, bytes, cudaMemcpyHostToDevice, stream);
128             GMX_RELEASE_ASSERT(stat == cudaSuccess, "Asynchronous H2D copy failed");
129             break;
130
131         case GpuApiCallBehavior::Sync:
132             stat = cudaMemcpy(*((ValueType **)buffer) + startingOffset, hostBuffer, bytes, cudaMemcpyHostToDevice);
133             GMX_RELEASE_ASSERT(stat == cudaSuccess, "Synchronous H2D copy failed");
134             break;
135
136         default:
137             throw;
138     }
139 }
140
141
142 /*! \brief
143  * Performs the device-to-host data copy, synchronous or asynchronously on request.
144  *
145  * TODO: This is meant to gradually replace cu/ocl_copy_d2h.
146  *
147  * \tparam        ValueType            Raw value type of the \p buffer.
148  * \param[in,out] hostBuffer           Pointer to the raw host-side memory, also typed \p ValueType
149  * \param[in]     buffer               Pointer to the device-side buffer
150  * \param[in]     startingOffset       Offset (in values) at the device-side buffer to copy from.
151  * \param[in]     numValues            Number of values to copy.
152  * \param[in]     stream               GPU stream to perform asynchronous copy in.
153  * \param[in]     transferKind         Copy type: synchronous or asynchronous.
154  * \param[out]    timingEvent          A dummy pointer to the H2D copy timing event to be filled in.
155  *                                     Not used in CUDA implementation.
156  */
157 template <typename ValueType>
158 void copyFromDeviceBuffer(ValueType                     *hostBuffer,
159                           DeviceBuffer<ValueType>       *buffer,
160                           size_t                         startingOffset,
161                           size_t                         numValues,
162                           CommandStream                  stream,
163                           GpuApiCallBehavior             transferKind,
164                           CommandEvent                   */*timingEvent*/)
165 {
166     GMX_ASSERT(buffer, "needs a buffer pointer");
167     GMX_ASSERT(hostBuffer, "needs a host buffer pointer");
168
169     cudaError_t  stat;
170     const size_t bytes = numValues * sizeof(ValueType);
171     switch (transferKind)
172     {
173         case GpuApiCallBehavior::Async:
174             GMX_ASSERT(isHostMemoryPinned(hostBuffer), "Destination host buffer was not pinned for CUDA");
175             stat = cudaMemcpyAsync(hostBuffer, *((ValueType **)buffer) + startingOffset, bytes, cudaMemcpyDeviceToHost, stream);
176             GMX_RELEASE_ASSERT(stat == cudaSuccess, "Asynchronous D2H copy failed");
177             break;
178
179         case GpuApiCallBehavior::Sync:
180             stat = cudaMemcpy(hostBuffer, *((ValueType **)buffer) + startingOffset, bytes, cudaMemcpyDeviceToHost);
181             GMX_RELEASE_ASSERT(stat == cudaSuccess, "Synchronous D2H copy failed");
182             break;
183
184         default:
185             throw;
186     }
187 }
188
189 /*! \brief
190  * Clears the device buffer asynchronously.
191  *
192  * \tparam        ValueType        Raw value type of the \p buffer.
193  * \param[in,out] buffer           Pointer to the device-side buffer
194  * \param[in]     startingOffset   Offset (in values) at the device-side buffer to start clearing at.
195  * \param[in]     numValues        Number of values to clear.
196  * \param[in]     stream           GPU stream.
197  */
198 template <typename ValueType>
199 void clearDeviceBufferAsync(DeviceBuffer<ValueType> *buffer,
200                             size_t                   startingOffset,
201                             size_t                   numValues,
202                             CommandStream            stream)
203 {
204     GMX_ASSERT(buffer, "needs a buffer pointer");
205     const size_t bytes   = numValues * sizeof(ValueType);
206     const char   pattern = 0;
207
208     cudaError_t  stat = cudaMemsetAsync(*((ValueType **)buffer) + startingOffset, pattern, bytes, stream);
209     GMX_RELEASE_ASSERT(stat == cudaSuccess, "Couldn't clear the device buffer");
210 }
211
212 #endif