Limit Zen nbnxm kernel choice to Zen 1
[alexxy/gromacs.git] / src / gromacs / hardware / detecthardware.cpp
1 /*
2  * This file is part of the GROMACS molecular simulation package.
3  *
4  * Copyright (c) 2012,2013,2014,2015,2016,2017,2018,2019, by the GROMACS development team, led by
5  * Mark Abraham, David van der Spoel, Berk Hess, and Erik Lindahl,
6  * and including many others, as listed in the AUTHORS file in the
7  * top-level source directory and at http://www.gromacs.org.
8  *
9  * GROMACS is free software; you can redistribute it and/or
10  * modify it under the terms of the GNU Lesser General Public License
11  * as published by the Free Software Foundation; either version 2.1
12  * of the License, or (at your option) any later version.
13  *
14  * GROMACS is distributed in the hope that it will be useful,
15  * but WITHOUT ANY WARRANTY; without even the implied warranty of
16  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
17  * Lesser General Public License for more details.
18  *
19  * You should have received a copy of the GNU Lesser General Public
20  * License along with GROMACS; if not, see
21  * http://www.gnu.org/licenses, or write to the Free Software Foundation,
22  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA.
23  *
24  * If you want to redistribute modifications to GROMACS, please
25  * consider that scientific software is very special. Version
26  * control is crucial - bugs must be traceable. We will be happy to
27  * consider code for inclusion in the official distribution, but
28  * derived work must not be called official GROMACS. Details are found
29  * in the README & COPYING files - if they are missing, get the
30  * official version at http://www.gromacs.org.
31  *
32  * To help us fund GROMACS development, we humbly ask that you cite
33  * the research papers on the package. Check out http://www.gromacs.org.
34  */
35 #include "gmxpre.h"
36
37 #include "detecthardware.h"
38
39 #include "config.h"
40
41 #include <cerrno>
42 #include <cstdlib>
43 #include <cstring>
44
45 #include <algorithm>
46 #include <array>
47 #include <chrono>
48 #include <memory>
49 #include <string>
50 #include <thread>
51 #include <vector>
52
53 #include "thread_mpi/threads.h"
54
55 #include "gromacs/compat/make_unique.h"
56 #include "gromacs/gpu_utils/gpu_utils.h"
57 #include "gromacs/hardware/cpuinfo.h"
58 #include "gromacs/hardware/hardwaretopology.h"
59 #include "gromacs/hardware/hw_info.h"
60 #include "gromacs/mdtypes/commrec.h"
61 #include "gromacs/simd/support.h"
62 #include "gromacs/utility/basedefinitions.h"
63 #include "gromacs/utility/basenetwork.h"
64 #include "gromacs/utility/baseversion.h"
65 #include "gromacs/utility/cstringutil.h"
66 #include "gromacs/utility/exceptions.h"
67 #include "gromacs/utility/fatalerror.h"
68 #include "gromacs/utility/gmxassert.h"
69 #include "gromacs/utility/logger.h"
70 #include "gromacs/utility/physicalnodecommunicator.h"
71 #include "gromacs/utility/programcontext.h"
72 #include "gromacs/utility/smalloc.h"
73 #include "gromacs/utility/stringutil.h"
74 #include "gromacs/utility/sysinfo.h"
75
76 #include "architecture.h"
77
78 #ifdef HAVE_UNISTD_H
79 #    include <unistd.h>       // sysconf()
80 #endif
81
82 namespace gmx
83 {
84
85 //! Convenience macro to help us avoid ifdefs each time we use sysconf
86 #if !defined(_SC_NPROCESSORS_ONLN) && defined(_SC_NPROC_ONLN)
87 #    define _SC_NPROCESSORS_ONLN _SC_NPROC_ONLN
88 #endif
89
90 //! Convenience macro to help us avoid ifdefs each time we use sysconf
91 #if !defined(_SC_NPROCESSORS_CONF) && defined(_SC_NPROC_CONF)
92 #    define _SC_NPROCESSORS_CONF _SC_NPROC_CONF
93 #endif
94
95 //! Constant used to help minimize preprocessed code
96 static const bool bGPUBinary     = GMX_GPU != GMX_GPU_NONE;
97
98 /*! \brief The hwinfo structure (common to all threads in this process).
99  *
100  * \todo This should become a shared_ptr owned by e.g. Mdrunner::runner()
101  * that is shared across any threads as needed (e.g. for thread-MPI). That
102  * offers about the same run time performance as we get here, and avoids a
103  * lot of custom code.
104  */
105 static std::unique_ptr<gmx_hw_info_t> hwinfo_g;
106 //! A reference counter for the hwinfo structure
107 static int                            n_hwinfo = 0;
108 //! A lock to protect the hwinfo structure
109 static tMPI_Thread_mutex_t            hw_info_lock = TMPI_THREAD_MUTEX_INITIALIZER;
110
111 //! Detect GPUs, if that makes sense to attempt.
112 static void gmx_detect_gpus(const gmx::MDLogger            &mdlog,
113                             const PhysicalNodeCommunicator &physicalNodeComm)
114 {
115     hwinfo_g->gpu_info.bDetectGPUs =
116         (bGPUBinary && getenv("GMX_DISABLE_GPU_DETECTION") == nullptr);
117     if (!hwinfo_g->gpu_info.bDetectGPUs)
118     {
119         return;
120     }
121
122     bool isMasterRankOfPhysicalNode = true;
123 #if GMX_LIB_MPI
124     isMasterRankOfPhysicalNode = (physicalNodeComm.rank_ == 0);
125 #else
126     // We choose to run the detection only once with thread-MPI and
127     // use reference counting on the results of the detection to
128     // enforce it. But we can assert that this is true.
129     GMX_RELEASE_ASSERT(n_hwinfo == 0, "Cannot run GPU detection on non-master thread-MPI ranks");
130     GMX_UNUSED_VALUE(physicalNodeComm);
131     isMasterRankOfPhysicalNode = true;
132 #endif
133
134     /* The OpenCL support requires us to run detection on all ranks.
135      * With CUDA we don't need to, and prefer to detect on one rank
136      * and send the information to the other ranks over MPI. */
137     bool allRanksMustDetectGpus = (GMX_GPU == GMX_GPU_OPENCL);
138     bool gpusCanBeDetected      = false;
139     if (isMasterRankOfPhysicalNode || allRanksMustDetectGpus)
140     {
141         std::string errorMessage;
142         gpusCanBeDetected = canDetectGpus(&errorMessage);
143         if (!gpusCanBeDetected)
144         {
145             GMX_LOG(mdlog.info).asParagraph().appendTextFormatted(
146                     "NOTE: Detection of GPUs failed. The API reported:\n"
147                     "      %s\n"
148                     "      GROMACS cannot run tasks on a GPU.",
149                     errorMessage.c_str());
150         }
151     }
152
153     if (gpusCanBeDetected)
154     {
155         findGpus(&hwinfo_g->gpu_info);
156         // No need to tell the user anything at this point, they get a
157         // hardware report later.
158     }
159
160 #if GMX_LIB_MPI
161     if (!allRanksMustDetectGpus)
162     {
163         /* Broadcast the GPU info to the other ranks within this node */
164         MPI_Bcast(&hwinfo_g->gpu_info.n_dev, 1, MPI_INT, 0, physicalNodeComm.comm_);
165
166         if (hwinfo_g->gpu_info.n_dev > 0)
167         {
168             int dev_size;
169
170             dev_size = hwinfo_g->gpu_info.n_dev*sizeof_gpu_dev_info();
171
172             if (!isMasterRankOfPhysicalNode)
173             {
174                 hwinfo_g->gpu_info.gpu_dev =
175                     (struct gmx_device_info_t *)malloc(dev_size);
176             }
177             MPI_Bcast(hwinfo_g->gpu_info.gpu_dev, dev_size, MPI_BYTE,
178                       0, physicalNodeComm.comm_);
179             MPI_Bcast(&hwinfo_g->gpu_info.n_dev_compatible, 1, MPI_INT,
180                       0, physicalNodeComm.comm_);
181         }
182     }
183 #endif
184 }
185
186 //! Reduce the locally collected \p hwinfo_g over MPI ranks
187 static void gmx_collect_hardware_mpi(const gmx::CpuInfo             &cpuInfo,
188                                      const PhysicalNodeCommunicator &physicalNodeComm)
189 {
190     const int  ncore        = hwinfo_g->hardwareTopology->numberOfCores();
191     /* Zen has family=23, for now we treat future AMD CPUs like Zen */
192     const bool cpuIsAmdZen1 = (cpuInfo.vendor() == CpuInfo::Vendor::Amd &&
193                                cpuInfo.family() == 23 &&
194                                (cpuInfo.model() == 1 || cpuInfo.model() == 17 ||
195                                 cpuInfo.model() == 8 || cpuInfo.model() == 24));
196
197 #if GMX_LIB_MPI
198     int       nhwthread, ngpu, i;
199     int       gpu_hash;
200
201     nhwthread = hwinfo_g->nthreads_hw_avail;
202     ngpu      = hwinfo_g->gpu_info.n_dev_compatible;
203     /* Create a unique hash of the GPU type(s) in this node */
204     gpu_hash  = 0;
205     /* Here it might be better to only loop over the compatible GPU, but we
206      * don't have that information available and it would also require
207      * removing the device ID from the device info string.
208      */
209     for (i = 0; i < hwinfo_g->gpu_info.n_dev; i++)
210     {
211         char stmp[STRLEN];
212
213         /* Since the device ID is incorporated in the hash, the order of
214          * the GPUs affects the hash. Also two identical GPUs won't give
215          * a gpu_hash of zero after XORing.
216          */
217         get_gpu_device_info_string(stmp, hwinfo_g->gpu_info, i);
218         gpu_hash ^= gmx_string_fullhash_func(stmp, gmx_string_hash_init);
219     }
220
221     constexpr int                          numElementsCounts =  4;
222     std::array<int, numElementsCounts>     countsReduced;
223     {
224         std::array<int, numElementsCounts> countsLocal = {{0}};
225         // Organize to sum values from only one rank within each node,
226         // so we get the sum over all nodes.
227         bool isMasterRankOfPhysicalNode = (physicalNodeComm.rank_ == 0);
228         if (isMasterRankOfPhysicalNode)
229         {
230             countsLocal[0] = 1;
231             countsLocal[1] = ncore;
232             countsLocal[2] = nhwthread;
233             countsLocal[3] = ngpu;
234         }
235
236         MPI_Allreduce(countsLocal.data(), countsReduced.data(), countsLocal.size(),
237                       MPI_INT, MPI_SUM, MPI_COMM_WORLD);
238     }
239
240     constexpr int                       numElementsMax = 11;
241     std::array<int, numElementsMax>     maxMinReduced;
242     {
243         std::array<int, numElementsMax> maxMinLocal;
244         /* Store + and - values for all ranks,
245          * so we can get max+min with one MPI call.
246          */
247         maxMinLocal[0]  = ncore;
248         maxMinLocal[1]  = nhwthread;
249         maxMinLocal[2]  = ngpu;
250         maxMinLocal[3]  = static_cast<int>(gmx::simdSuggested(cpuInfo));
251         maxMinLocal[4]  = gpu_hash;
252         maxMinLocal[5]  = -maxMinLocal[0];
253         maxMinLocal[6]  = -maxMinLocal[1];
254         maxMinLocal[7]  = -maxMinLocal[2];
255         maxMinLocal[8]  = -maxMinLocal[3];
256         maxMinLocal[9]  = -maxMinLocal[4];
257         maxMinLocal[10] = (cpuIsAmdZen1 ? 1 : 0);
258
259         MPI_Allreduce(maxMinLocal.data(), maxMinReduced.data(), maxMinLocal.size(),
260                       MPI_INT, MPI_MAX, MPI_COMM_WORLD);
261     }
262
263     hwinfo_g->nphysicalnode       = countsReduced[0];
264     hwinfo_g->ncore_tot           = countsReduced[1];
265     hwinfo_g->ncore_min           = -maxMinReduced[5];
266     hwinfo_g->ncore_max           = maxMinReduced[0];
267     hwinfo_g->nhwthread_tot       = countsReduced[2];
268     hwinfo_g->nhwthread_min       = -maxMinReduced[6];
269     hwinfo_g->nhwthread_max       = maxMinReduced[1];
270     hwinfo_g->ngpu_compatible_tot = countsReduced[3];
271     hwinfo_g->ngpu_compatible_min = -maxMinReduced[7];
272     hwinfo_g->ngpu_compatible_max = maxMinReduced[2];
273     hwinfo_g->simd_suggest_min    = -maxMinReduced[8];
274     hwinfo_g->simd_suggest_max    = maxMinReduced[3];
275     hwinfo_g->bIdenticalGPUs      = (maxMinReduced[4] == -maxMinReduced[9]);
276     hwinfo_g->haveAmdZen1Cpu      = (maxMinReduced[10] > 0);
277 #else
278     /* All ranks use the same pointer, protected by a mutex in the caller */
279     hwinfo_g->nphysicalnode       = 1;
280     hwinfo_g->ncore_tot           = ncore;
281     hwinfo_g->ncore_min           = ncore;
282     hwinfo_g->ncore_max           = ncore;
283     hwinfo_g->nhwthread_tot       = hwinfo_g->nthreads_hw_avail;
284     hwinfo_g->nhwthread_min       = hwinfo_g->nthreads_hw_avail;
285     hwinfo_g->nhwthread_max       = hwinfo_g->nthreads_hw_avail;
286     hwinfo_g->ngpu_compatible_tot = hwinfo_g->gpu_info.n_dev_compatible;
287     hwinfo_g->ngpu_compatible_min = hwinfo_g->gpu_info.n_dev_compatible;
288     hwinfo_g->ngpu_compatible_max = hwinfo_g->gpu_info.n_dev_compatible;
289     hwinfo_g->simd_suggest_min    = static_cast<int>(simdSuggested(cpuInfo));
290     hwinfo_g->simd_suggest_max    = static_cast<int>(simdSuggested(cpuInfo));
291     hwinfo_g->bIdenticalGPUs      = TRUE;
292     hwinfo_g->haveAmdZen1Cpu      = cpuIsAmdZen1;
293     GMX_UNUSED_VALUE(physicalNodeComm);
294 #endif
295 }
296
297 /*! \brief Utility that does dummy computing for max 2 seconds to spin up cores
298  *
299  *  This routine will check the number of cores configured and online
300  *  (using sysconf), and the spins doing dummy compute operations for up to
301  *  2 seconds, or until all cores have come online. This can be used prior to
302  *  hardware detection for platforms that take unused processors offline.
303  *
304  *  This routine will not throw exceptions.
305  */
306 static void
307 spinUpCore() noexcept
308 {
309 #if defined(HAVE_SYSCONF) && defined(_SC_NPROCESSORS_CONF) && defined(_SC_NPROCESSORS_ONLN)
310     float dummy           = 0.1;
311     int   countConfigured = sysconf(_SC_NPROCESSORS_CONF);    // noexcept
312     auto  start           = std::chrono::steady_clock::now(); // noexcept
313
314     while (sysconf(_SC_NPROCESSORS_ONLN) < countConfigured &&
315            std::chrono::steady_clock::now() - start < std::chrono::seconds(2))
316     {
317         for (int i = 1; i < 10000; i++)
318         {
319             dummy /= i;
320         }
321     }
322
323     if (dummy < 0)
324     {
325         printf("This cannot happen, but prevents loop from being optimized away.");
326     }
327 #endif
328 }
329
330 /*! \brief Prepare the system before hardware topology detection
331  *
332  * This routine should perform any actions we want to put the system in a state
333  * where we want it to be before detecting the hardware topology. For most
334  * processors there is nothing to do, but some architectures (in particular ARM)
335  * have support for taking configured cores offline, which will make them disappear
336  * from the online processor count.
337  *
338  * This routine checks if there is a mismatch between the number of cores
339  * configured and online, and in that case we issue a small workload that
340  * attempts to wake sleeping cores before doing the actual detection.
341  *
342  * This type of mismatch can also occur for x86 or PowerPC on Linux, if SMT has only
343  * been disabled in the kernel (rather than bios). Since those cores will never
344  * come online automatically, we currently skip this test for x86 & PowerPC to
345  * avoid wasting 2 seconds. We also skip the test if there is no thread support.
346  *
347  * \note Cores will sleep relatively quickly again, so it's important to issue
348  *       the real detection code directly after this routine.
349  */
350 static void
351 hardwareTopologyPrepareDetection()
352 {
353 #if defined(HAVE_SYSCONF) && defined(_SC_NPROCESSORS_CONF) && \
354     (defined(THREAD_PTHREADS) || defined(THREAD_WINDOWS))
355
356     // Modify this conditional when/if x86 or PowerPC starts to sleep some cores
357     if (c_architecture != Architecture::X86 &&
358         c_architecture != Architecture::PowerPC)
359     {
360         int                      countConfigured  = sysconf(_SC_NPROCESSORS_CONF);
361         std::vector<std::thread> workThreads(countConfigured);
362
363         for (auto &t : workThreads)
364         {
365             t = std::thread(spinUpCore);
366         }
367
368         for (auto &t : workThreads)
369         {
370             t.join();
371         }
372     }
373 #endif
374 }
375
376 /*! \brief Sanity check hardware topology and print some notes to log
377  *
378  *  \param mdlog            Logger.
379  *  \param hardwareTopology Reference to hardwareTopology object.
380  */
381 static void
382 hardwareTopologyDoubleCheckDetection(const gmx::MDLogger gmx_unused         &mdlog,
383                                      const gmx::HardwareTopology gmx_unused &hardwareTopology)
384 {
385 #if defined HAVE_SYSCONF && defined(_SC_NPROCESSORS_CONF)
386     if (hardwareTopology.supportLevel() < gmx::HardwareTopology::SupportLevel::LogicalProcessorCount)
387     {
388         return;
389     }
390
391     int countFromDetection = hardwareTopology.machine().logicalProcessorCount;
392     int countConfigured    = sysconf(_SC_NPROCESSORS_CONF);
393
394     /* BIOS, kernel or user actions can take physical processors
395      * offline. We already cater for the some of the cases inside the hardwareToplogy
396      * by trying to spin up cores just before we detect, but there could be other
397      * cases where it is worthwhile to hint that there might be more resources available.
398      */
399     if (countConfigured >= 0 && countConfigured != countFromDetection)
400     {
401         GMX_LOG(mdlog.info).
402             appendTextFormatted("Note: %d CPUs configured, but only %d were detected to be online.\n", countConfigured, countFromDetection);
403
404         if (c_architecture == Architecture::X86 &&
405             countConfigured == 2*countFromDetection)
406         {
407             GMX_LOG(mdlog.info).
408                 appendText("      X86 Hyperthreading is likely disabled; enable it for better performance.");
409         }
410         // For PowerPC (likely Power8) it is possible to set SMT to either 2,4, or 8-way hardware threads.
411         // We only warn if it is completely disabled since default performance drops with SMT8.
412         if (c_architecture == Architecture::PowerPC &&
413             countConfigured == 8*countFromDetection)
414         {
415             GMX_LOG(mdlog.info).
416                 appendText("      PowerPC SMT is likely disabled; enable SMT2/SMT4 for better performance.");
417         }
418     }
419 #endif
420 }
421
422 gmx_hw_info_t *gmx_detect_hardware(const gmx::MDLogger            &mdlog,
423                                    const PhysicalNodeCommunicator &physicalNodeComm)
424 {
425     int ret;
426
427     /* make sure no one else is doing the same thing */
428     ret = tMPI_Thread_mutex_lock(&hw_info_lock);
429     if (ret != 0)
430     {
431         gmx_fatal(FARGS, "Error locking hwinfo mutex: %s", strerror(errno));
432     }
433
434     /* only initialize the hwinfo structure if it is not already initalized */
435     if (n_hwinfo == 0)
436     {
437         hwinfo_g = compat::make_unique<gmx_hw_info_t>();
438
439         /* TODO: We should also do CPU hardware detection only once on each
440          * physical node and broadcast it, instead of do it on every MPI rank. */
441         hwinfo_g->cpuInfo             = new gmx::CpuInfo(gmx::CpuInfo::detect());
442
443         hardwareTopologyPrepareDetection();
444         hwinfo_g->hardwareTopology    = new gmx::HardwareTopology(gmx::HardwareTopology::detect());
445
446         // If we detected the topology on this system, double-check that it makes sense
447         if (hwinfo_g->hardwareTopology->isThisSystem())
448         {
449             hardwareTopologyDoubleCheckDetection(mdlog, *(hwinfo_g->hardwareTopology));
450         }
451
452         // TODO: Get rid of this altogether.
453         hwinfo_g->nthreads_hw_avail = hwinfo_g->hardwareTopology->machine().logicalProcessorCount;
454
455         /* detect GPUs */
456         hwinfo_g->gpu_info.n_dev            = 0;
457         hwinfo_g->gpu_info.n_dev_compatible = 0;
458         hwinfo_g->gpu_info.gpu_dev          = nullptr;
459
460         gmx_detect_gpus(mdlog, physicalNodeComm);
461         gmx_collect_hardware_mpi(*hwinfo_g->cpuInfo, physicalNodeComm);
462     }
463     /* increase the reference counter */
464     n_hwinfo++;
465
466     ret = tMPI_Thread_mutex_unlock(&hw_info_lock);
467     if (ret != 0)
468     {
469         gmx_fatal(FARGS, "Error unlocking hwinfo mutex: %s", strerror(errno));
470     }
471
472     return hwinfo_g.get();
473 }
474
475 bool compatibleGpusFound(const gmx_gpu_info_t &gpu_info)
476 {
477     return gpu_info.n_dev_compatible > 0;
478 }
479
480 void gmx_hardware_info_free()
481 {
482     int ret;
483
484     ret = tMPI_Thread_mutex_lock(&hw_info_lock);
485     if (ret != 0)
486     {
487         gmx_fatal(FARGS, "Error locking hwinfo mutex: %s", strerror(errno));
488     }
489
490     /* decrease the reference counter */
491     n_hwinfo--;
492
493
494     if (n_hwinfo < 0)
495     {
496         gmx_incons("n_hwinfo < 0");
497     }
498
499     if (n_hwinfo == 0)
500     {
501         delete hwinfo_g->cpuInfo;
502         delete hwinfo_g->hardwareTopology;
503         free_gpu_info(&hwinfo_g->gpu_info);
504         hwinfo_g.reset();
505     }
506
507     ret = tMPI_Thread_mutex_unlock(&hw_info_lock);
508     if (ret != 0)
509     {
510         gmx_fatal(FARGS, "Error unlocking hwinfo mutex: %s", strerror(errno));
511     }
512 }
513
514 }  // namespace gmx