Reintroduce CI job descriptions
[alexxy/gromacs.git] / docs / install-guide / index.rst
1 .. Note that this must be a single rst file in order for Sphinx
2    to build into into a single plain-text file to place in the
3    installation tarball.
4
5 .. _install guide:
6
7 ******************
8 Installation guide
9 ******************
10
11 .. highlight:: bash
12
13 Introduction to building |Gromacs|
14 ----------------------------------
15
16 These instructions pertain to building |Gromacs|
17 |version|. You might also want to check the `up-to-date installation instructions`_.
18
19 Quick and dirty installation
20 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^
21 1. Get the latest version of your C and C++ compilers.
22 2. Check that you have CMake version |CMAKE_MINIMUM_REQUIRED_VERSION| or later.
23 3. Get and unpack the latest version of the |Gromacs| tarball.
24 4. Make a separate build directory and change to it.
25 5. Run ``cmake`` with the path to the source as an argument
26 6. Run ``make``, ``make check``, and ``make install``
27 7. Source ``GMXRC`` to get access to |Gromacs|
28
29 Or, as a sequence of commands to execute:
30
31 .. parsed-literal::
32
33     tar xfz gromacs-|version|.tar.gz
34     cd gromacs-|version|
35     mkdir build
36     cd build
37     cmake .. -DGMX_BUILD_OWN_FFTW=ON -DREGRESSIONTEST_DOWNLOAD=ON
38     make
39     make check
40     sudo make install
41     source /usr/local/gromacs/bin/GMXRC
42
43 This will download and build first the prerequisite FFT library
44 followed by |Gromacs|. If you already have FFTW installed, you can
45 remove that argument to ``cmake``. Overall, this build of |Gromacs|
46 will be correct and reasonably fast on the machine upon which
47 ``cmake`` ran. On another machine, it may not run, or may not run
48 fast. If you want to get the maximum value for your hardware with
49 |Gromacs|, you will have to read further. Sadly, the interactions of
50 hardware, libraries, and compilers are only going to continue to get
51 more complex.
52
53 Quick and dirty cluster installation
54 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
55
56 On a cluster where users are expected to be running across multiple
57 nodes using MPI, make one installation similar to the above, and
58 another using ``-DGMX_MPI=on`` and which is `building only
59 mdrun`_, because that is the only component of |Gromacs| that uses
60 MPI. The latter will install a single simulation engine binary,
61 i.e. ``mdrun_mpi`` when the default suffix is used. Hence it is safe
62 and common practice to install this into the same location where
63 the non-MPI build is installed.
64
65 Typical installation
66 ^^^^^^^^^^^^^^^^^^^^
67
68 As above, and with further details below, but you should consider
69 using the following `CMake options`_ with the
70 appropriate value instead of ``xxx`` :
71
72 * ``-DCMAKE_C_COMPILER=xxx`` equal to the name of the C99 `Compiler`_ you wish to use (or the environment variable ``CC``)
73 * ``-DCMAKE_CXX_COMPILER=xxx`` equal to the name of the C++17 `compiler`_ you wish to use (or the environment variable ``CXX``)
74 * ``-DGMX_MPI=on`` to build using `MPI support`_ (generally good to combine with `building only mdrun`_)
75 * ``-DGMX_GPU=CUDA`` to build with NVIDIA CUDA support enabled.
76 * ``-DGMX_GPU=OpenCL`` to build with OpenCL_ support enabled.
77 * ``-DGMX_SIMD=xxx`` to specify the level of `SIMD support`_ of the node on which |Gromacs| will run
78 * ``-DGMX_BUILD_MDRUN_ONLY=on`` for `building only mdrun`_, e.g. for compute cluster back-end nodes
79 * ``-DGMX_DOUBLE=on`` to build |Gromacs| in double precision (slower, and not normally useful)
80 * ``-DCMAKE_PREFIX_PATH=xxx`` to add a non-standard location for CMake to `search for libraries, headers or programs`_
81 * ``-DCMAKE_INSTALL_PREFIX=xxx`` to install |Gromacs| to a `non-standard location`_ (default ``/usr/local/gromacs``)
82 * ``-DBUILD_SHARED_LIBS=off`` to turn off the building of shared libraries to help with `static linking`_
83 * ``-DGMX_FFT_LIBRARY=xxx`` to select whether to use ``fftw3``, ``mkl`` or ``fftpack`` libraries for `FFT support`_
84 * ``-DCMAKE_BUILD_TYPE=Debug`` to build |Gromacs| in debug mode
85
86 Building older versions
87 ^^^^^^^^^^^^^^^^^^^^^^^
88
89 Installation instructions for old |Gromacs| versions can be found at
90 the |Gromacs| `documentation page
91 <http://manual.gromacs.org/documentation>`_.
92
93 Prerequisites
94 -------------
95
96 Platform
97 ^^^^^^^^
98
99 |Gromacs| can be compiled for many operating systems and
100 architectures.  These include any distribution of Linux, Mac OS X or
101 Windows, and architectures including x86, AMD64/x86-64, several
102 PowerPC including POWER8, ARM v8, and SPARC VIII.
103
104 Compiler
105 ^^^^^^^^
106
107 |Gromacs| can be compiled on any platform with ANSI C99 and C++17
108 compilers, and their respective standard C/C++ libraries. Good
109 performance on an OS and architecture requires choosing a good
110 compiler. We recommend gcc, because it is free, widely available and
111 frequently provides the best performance.
112
113 You should strive to use the most recent version of your
114 compiler. Since we require full C++17 support the minimum supported
115 compiler versions are
116
117 * GNU (gcc/libstdc++) 7
118 * Intel (icc) 19.1
119 * LLVM (clang/libc++) 5
120 * Microsoft (MSVC) 2017 15.7
121
122 Other compilers may work (Cray, Pathscale, older clang) but do
123 not offer competitive performance. We recommend against PGI because
124 the performance with C++ is very bad.
125
126 The xlc compiler is not supported and version 16.1 does not compile on
127 POWER architectures for |Gromacs|\ -\ |version|. We recommend to use
128 the gcc compiler instead, as it is being extensively tested.
129
130 You may also need the most recent version of other compiler toolchain
131 components beside the compiler itself (e.g. assembler or linker);
132 these are often shipped by your OS distribution's binutils package.
133
134 C++17 support requires adequate support in both the compiler and the
135 C++ library. The gcc and MSVC compilers include their own standard
136 libraries and require no further configuration. If your vendor's
137 compiler also manages the standard library library via compiler flags,
138 these will be honored. For configuration of other compilers, read on.
139
140 On Linux, both the Intel and clang compiler use the libstdc++ which
141 comes with gcc as the default C++ library. For |Gromacs|, we require
142 the compiler to support libstc++ version 7.1 or higher. To select a
143 particular libstdc++ library, provide the path to g++ with
144 ``-DGMX_GPLUSPLUS_PATH=/path/to/g++``.
145
146 On Windows with the Intel compiler, the MSVC standard library is used,
147 and at least MSVC 2017 15.7 is required. Load the environment variables with
148 vcvarsall.bat.
149
150 To build with clang and llvm's libcxx standard library, use
151 ``-DCMAKE_CXX_FLAGS=-stdlib=libc++``.
152
153 If you are running on Mac OS X, the best option is the Intel
154 compiler. Both clang and gcc will work, but they produce lower
155 performance and each have some shortcomings. clang 3.8 now offers
156 support for OpenMP, and so may provide decent performance.
157
158 For all non-x86 platforms, your best option is typically to use gcc or
159 the vendor's default or recommended compiler, and check for
160 specialized information below.
161
162 For updated versions of gcc to add to your Linux OS, see
163
164 * Ubuntu: `Ubuntu toolchain ppa page`_
165 * RHEL/CentOS: `EPEL page`_ or the RedHat Developer Toolset
166
167 Compiling with parallelization options
168 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
169
170 For maximum performance you will need to examine how you will use
171 |Gromacs| and what hardware you plan to run on. Often OpenMP_
172 parallelism is an advantage for |Gromacs|, but support for this is
173 generally built into your compiler and detected automatically.
174
175 .. _gmx-gpu-support:
176
177 GPU support
178 ~~~~~~~~~~~
179
180 |Gromacs| has excellent support for NVIDIA GPUs supported via CUDA.
181 On Linux, NVIDIA CUDA_ toolkit with minimum version |REQUIRED_CUDA_VERSION|
182 is required, and the latest version is strongly encouraged. NVIDIA GPUs with at
183 least NVIDIA compute capability |REQUIRED_CUDA_COMPUTE_CAPABILITY| are
184 required. You are strongly recommended to
185 get the latest CUDA version and driver that supports your hardware, but
186 beware of possible performance regressions in newer CUDA versions on
187 older hardware.
188 While some CUDA compilers (nvcc) might not
189 officially support recent versions of gcc as the back-end compiler, we
190 still recommend that you at least use a gcc version recent enough to
191 get the best SIMD support for your CPU, since |Gromacs| always runs some
192 code on the CPU. It is most reliable to use the same C++ compiler
193 version for |Gromacs| code as used as the host compiler for nvcc.
194
195 To make it possible to use other accelerators, |Gromacs| also includes
196 OpenCL_ support. The minimum OpenCL version required is
197 |REQUIRED_OPENCL_MIN_VERSION| and only 64-bit implementations are supported.
198 The current OpenCL implementation is recommended for
199 use with GCN-based AMD GPUs, and on Linux we recommend the ROCm runtime.
200 Intel integrated GPUs are supported with the Neo drivers.
201 OpenCL is also supported with NVIDIA GPUs, but using
202 the latest NVIDIA driver (which includes the NVIDIA OpenCL runtime) is
203 recommended. Also note that there are performance limitations (inherent
204 to the NVIDIA OpenCL runtime).
205 It is not possible to configure both CUDA and OpenCL
206 support in the same build of |Gromacs|, nor to support both
207 Intel and other vendors' GPUs with OpenCL. A 64-bit implementation
208 of OpenCL is required and therefore OpenCL is only supported on 64-bit platforms.
209
210 .. _mpi-support:
211
212 MPI support
213 ~~~~~~~~~~~
214
215 |Gromacs| can run in parallel on multiple cores of a single
216 workstation using its built-in thread-MPI. No user action is required
217 in order to enable this.
218
219 If you wish to run in parallel on multiple machines across a network,
220 you will need to have
221
222 * an MPI library installed that supports the MPI 1.3
223   standard, and
224 * wrapper compilers that will compile code using that library.
225
226 To compile with MPI set your compiler to the normal (non-MPI) compiler
227 and add ``-DGMX_MPI=on`` to the cmake options. It is possible to set
228 the compiler to the MPI compiler wrapper but it is neither necessary
229 nor recommended.
230
231 The |Gromacs| team recommends OpenMPI_ version
232 1.6 (or higher), MPICH_ version 1.4.1 (or
233 higher), or your hardware vendor's MPI installation. The most recent
234 version of either of these is likely to be the best. More specialized
235 networks might depend on accelerations only available in the vendor's
236 library. LAM-MPI_ might work, but since it has
237 been deprecated for years, it is not supported.
238
239 For example, depending on your actual MPI library, use ``cmake
240 -DMPI_C_COMPILER=mpicc -DGMX_MPI=on``.
241
242
243 CMake
244 ^^^^^
245
246 |Gromacs| builds with the CMake build system, requiring at least
247 version |CMAKE_MINIMUM_REQUIRED_VERSION|. You can check whether
248 CMake is installed, and what version it is, with ``cmake
249 --version``. If you need to install CMake, then first check whether
250 your platform's package management system provides a suitable version,
251 or visit the `CMake installation page`_ for pre-compiled binaries,
252 source code and installation instructions. The |Gromacs| team
253 recommends you install the most recent version of CMake you can.
254
255 .. _FFT support:
256
257 Fast Fourier Transform library
258 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
259
260 Many simulations in |Gromacs| make extensive use of fast Fourier
261 transforms, and a software library to perform these is always
262 required. We recommend FFTW_ (version 3 or higher only) or Intel
263 MKL_. The choice of library can be set with ``cmake
264 -DGMX_FFT_LIBRARY=<name>``, where ``<name>`` is one of ``fftw3``,
265 ``mkl``, or ``fftpack``. FFTPACK is bundled with |Gromacs| as a
266 fallback, and is acceptable if simulation performance is not a
267 priority. When choosing MKL, |Gromacs| will also use MKL for BLAS and
268 LAPACK (see `linear algebra libraries`_). Generally, there is no
269 advantage in using MKL with |Gromacs|, and FFTW is often faster.
270 With PME GPU offload support using CUDA, a GPU-based FFT library
271 is required. The CUDA-based GPU FFT library cuFFT is part of the
272 CUDA toolkit (required for all CUDA builds) and therefore no additional
273 software component is needed when building with CUDA GPU acceleration.
274
275 Using FFTW
276 ~~~~~~~~~~
277
278 FFTW_ is likely to be available for your platform via its package
279 management system, but there can be compatibility and significant
280 performance issues associated with these packages. In particular,
281 |Gromacs| simulations are normally run in "mixed" floating-point
282 precision, which is suited for the use of single precision in
283 FFTW. The default FFTW package is normally in double
284 precision, and good compiler options to use for FFTW when linked to
285 |Gromacs| may not have been used. Accordingly, the |Gromacs| team
286 recommends either
287
288 * that you permit the |Gromacs| installation to download and
289   build FFTW from source automatically for you (use
290   ``cmake -DGMX_BUILD_OWN_FFTW=ON``), or
291 * that you build FFTW from the source code.
292
293 If you build FFTW from source yourself, get the most recent version
294 and follow the `FFTW installation guide`_. Choose the precision for
295 FFTW (i.e. single/float vs. double) to match whether you will later
296 use mixed or double precision for |Gromacs|. There is no need to
297 compile FFTW with threading or MPI support, but it does no harm. On
298 x86 hardware, compile with *both* ``--enable-sse2`` and
299 ``--enable-avx`` for FFTW-3.3.4 and earlier. From FFTW-3.3.5, you
300 should also add ``--enable-avx2`` also. On Intel processors supporting
301 512-wide AVX, including KNL, add ``--enable-avx512`` also.
302 FFTW will create a fat library with codelets for all different instruction sets,
303 and pick the fastest supported one at runtime.
304 On ARM architectures with SIMD support and IBM Power8 and later, you
305 definitely want version 3.3.5 or later,
306 and to compile it with ``--enable-neon`` and ``--enable-vsx``, respectively, for
307 SIMD support. If you are using a Cray, there is a special modified
308 (commercial) version of FFTs using the FFTW interface which can be
309 slightly faster.
310
311 Using MKL
312 ~~~~~~~~~
313
314 Use MKL bundled with Intel compilers by setting up the compiler
315 environment, e.g., through ``source /path/to/compilervars.sh intel64``
316 or similar before running CMake including setting
317 ``-DGMX_FFT_LIBRARY=mkl``.
318
319 If you need to customize this further, use
320
321 ::
322
323     cmake -DGMX_FFT_LIBRARY=mkl \
324           -DMKL_LIBRARIES="/full/path/to/libone.so;/full/path/to/libtwo.so" \
325           -DMKL_INCLUDE_DIR="/full/path/to/mkl/include"
326
327 The full list and order(!) of libraries you require are found in Intel's MKL documentation for your system.
328
329 Using ARM Performance Libraries
330 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
331
332 The ARM Performance Libraries provides FFT transforms implementation for ARM
333 architectures.
334 Preliminary support is provided for ARMPL in |Gromacs| through its FFTW-compatible API.
335 Assuming that the ARM HPC toolchain environment including the ARMPL paths
336 are set up (e.g. through loading the appropriate modules like
337 ``module load Module-Prefix/arm-hpc-compiler-X.Y/armpl/X.Y``) use the following cmake
338 options:
339
340 ::
341
342     cmake -DGMX_FFT_LIBRARY=fftw3 \
343           -DFFTWF_LIBRARY="${ARMPL_DIR}/lib/libarmpl_lp64.so" \
344           -DFFTWF_INCLUDE_DIR=${ARMPL_DIR}/include
345
346
347 Other optional build components
348 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
349
350 * Run-time detection of hardware capabilities can be improved by
351   linking with hwloc. By default this is turned off since it might
352   not be supported everywhere, but if you have hwloc installed it
353   should work by just setting ``-DGMX_HWLOC=ON``
354 * Hardware-optimized BLAS and LAPACK libraries are useful
355   for a few of the |Gromacs| utilities focused on normal modes and
356   matrix manipulation, but they do not provide any benefits for normal
357   simulations. Configuring these is discussed at
358   `linear algebra libraries`_.
359 * The built-in |Gromacs| trajectory viewer ``gmx view`` requires X11 and
360   Motif/Lesstif libraries and header files. You may prefer to use
361   third-party software for visualization, such as VMD_ or PyMol_.
362 * An external TNG library for trajectory-file handling can be used
363   by setting ``-DGMX_EXTERNAL_TNG=yes``, but TNG
364   |GMX_TNG_MINIMUM_REQUIRED_VERSION| is bundled in the |Gromacs|
365   source already.
366 * The lmfit library for Levenberg-Marquardt curve fitting is used in
367   |Gromacs|. Only lmfit |GMX_LMFIT_REQUIRED_VERSION| is supported.  A
368   reduced version of that library is bundled in the |Gromacs|
369   distribution, and the default build uses it. That default may be
370   explicitly enabled with ``-DGMX_USE_LMFIT=internal``. To use an
371   external lmfit library, set ``-DGMX_USE_LMFIT=external``, and adjust
372   ``CMAKE_PREFIX_PATH`` as needed.  lmfit support can be disabled with
373   ``-DGMX_USE_LMFIT=none``.
374 * zlib is used by TNG for compressing some kinds of trajectory data
375 * Building the |Gromacs| documentation is optional, and requires
376   ImageMagick, pdflatex, bibtex, doxygen, python 3.6, sphinx
377   |EXPECTED_SPHINX_VERSION|, and pygments.
378 * The |Gromacs| utility programs often write data files in formats
379   suitable for the Grace plotting tool, but it is straightforward to
380   use these files in other plotting programs, too.
381 * Set ``-DGMX_PYTHON_PACKAGE=ON`` when configuring |Gromacs| with CMake to
382   enable additional CMake targets for the gmxapi Python package and
383   sample_restraint package from the main |Gromacs| CMake build. This supports
384   additional testing and documentation generation.
385
386 Doing a build of |Gromacs|
387 --------------------------
388
389 This section will cover a general build of |Gromacs| with CMake_, but it
390 is not an exhaustive discussion of how to use CMake. There are many
391 resources available on the web, which we suggest you search for when
392 you encounter problems not covered here. The material below applies
393 specifically to builds on Unix-like systems, including Linux, and Mac
394 OS X. For other platforms, see the specialist instructions below.
395
396 .. _configure-cmake:
397
398 Configuring with CMake
399 ^^^^^^^^^^^^^^^^^^^^^^
400
401 CMake will run many tests on your system and do its best to work out
402 how to build |Gromacs| for you. If your build machine is the same as
403 your target machine, then you can be sure that the defaults and
404 detection will be pretty good. However, if you want to control aspects
405 of the build, or you are compiling on a cluster head node for back-end
406 nodes with a different architecture, there are a few things you
407 should consider specifying.
408
409 The best way to use CMake to configure |Gromacs| is to do an
410 "out-of-source" build, by making another directory from which you will
411 run CMake. This can be outside the source directory, or a subdirectory
412 of it. It also means you can never corrupt your source code by trying
413 to build it! So, the only required argument on the CMake command line
414 is the name of the directory containing the ``CMakeLists.txt`` file of
415 the code you want to build. For example, download the source tarball
416 and use
417
418 .. parsed-literal::
419
420     tar xfz gromacs-|version|.tgz
421     cd gromacs-|version|
422     mkdir build-gromacs
423     cd build-gromacs
424     cmake ..
425
426 You will see ``cmake`` report a sequence of results of tests and
427 detections done by the |Gromacs| build system. These are written to the
428 ``cmake`` cache, kept in ``CMakeCache.txt``. You can edit this file by
429 hand, but this is not recommended because you could make a mistake.
430 You should not attempt to move or copy this file to do another build,
431 because file paths are hard-coded within it. If you mess things up,
432 just delete this file and start again with ``cmake``.
433
434 If there is a serious problem detected at this stage, then you will see
435 a fatal error and some suggestions for how to overcome it. If you are
436 not sure how to deal with that, please start by searching on the web
437 (most computer problems already have known solutions!) and then
438 consult the gmx-users mailing list. There are also informational
439 warnings that you might like to take on board or not. Piping the
440 output of ``cmake`` through ``less`` or ``tee`` can be
441 useful, too.
442
443 Once ``cmake`` returns, you can see all the settings that were chosen
444 and information about them by using e.g. the curses interface
445
446 ::
447
448     ccmake ..
449
450 You can actually use ``ccmake`` (available on most Unix platforms)
451 directly in the first step, but then
452 most of the status messages will merely blink in the lower part
453 of the terminal rather than be written to standard output. Most platforms
454 including Linux, Windows, and Mac OS X even have native graphical user interfaces for
455 ``cmake``, and it can create project files for almost any build environment
456 you want (including Visual Studio or Xcode).
457 Check out `running CMake`_ for
458 general advice on what you are seeing and how to navigate and change
459 things. The settings you might normally want to change are already
460 presented. You may make changes, then re-configure (using ``c``), so that it
461 gets a chance to make changes that depend on yours and perform more
462 checking. It may take several configuration passes to reach the desired
463 configuration, in particular if you need to resolve errors.
464
465 When you have reached the desired configuration with ``ccmake``, the
466 build system can be generated by pressing ``g``.  This requires that the previous
467 configuration pass did not reveal any additional settings (if it did, you need
468 to configure once more with ``c``).  With ``cmake``, the build system is generated
469 after each pass that does not produce errors.
470
471 You cannot attempt to change compilers after the initial run of
472 ``cmake``. If you need to change, clean up, and start again.
473
474 .. _non-standard location:
475
476 Where to install |Gromacs|
477 ~~~~~~~~~~~~~~~~~~~~~~~~~~
478
479 |Gromacs| is installed in the directory to which
480 ``CMAKE_INSTALL_PREFIX`` points. It may not be the source directory or
481 the build directory.  You require write permissions to this
482 directory. Thus, without super-user privileges,
483 ``CMAKE_INSTALL_PREFIX`` will have to be within your home directory.
484 Even if you do have super-user privileges, you should use them only
485 for the installation phase, and never for configuring, building, or
486 running |Gromacs|!
487
488 .. _cmake options:
489
490 Using CMake command-line options
491 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
492
493 Once you become comfortable with setting and changing options, you may
494 know in advance how you will configure |Gromacs|. If so, you can speed
495 things up by invoking ``cmake`` and passing the various options at once
496 on the command line. This can be done by setting cache variable at the
497 cmake invocation using ``-DOPTION=VALUE``. Note that some
498 environment variables are also taken into account, in particular
499 variables like ``CC`` and ``CXX``.
500
501 For example, the following command line
502
503 ::
504
505     cmake .. -DGMX_GPU=CUDA -DGMX_MPI=ON -DCMAKE_INSTALL_PREFIX=/home/marydoe/programs
506
507 can be used to build with CUDA GPUs, MPI and install in a custom
508 location. You can even save that in a shell script to make it even
509 easier next time. You can also do this kind of thing with ``ccmake``,
510 but you should avoid this, because the options set with ``-D`` will not
511 be able to be changed interactively in that run of ``ccmake``.
512
513 .. _gmx-simd-support:
514
515 SIMD support
516 ~~~~~~~~~~~~
517
518 |Gromacs| has extensive support for detecting and using the SIMD
519 capabilities of many modern HPC CPU architectures. If you are building
520 |Gromacs| on the same hardware you will run it on, then you don't need
521 to read more about this, unless you are getting configuration warnings
522 you do not understand. By default, the |Gromacs| build system will
523 detect the SIMD instruction set supported by the CPU architecture (on
524 which the configuring is done), and thus pick the best
525 available SIMD parallelization supported by |Gromacs|. The build system
526 will also check that the compiler and linker used also support the
527 selected SIMD instruction set and issue a fatal error if they
528 do not.
529
530 Valid values are listed below, and the applicable value with the
531 largest number in the list is generally the one you should choose.
532 In most cases, choosing an inappropriate higher number will lead
533 to compiling a binary that will not run. However, on a number of
534 processor architectures choosing the highest supported value can
535 lead to performance loss, e.g. on Intel Skylake-X/SP and AMD Zen.
536
537 1. ``None`` For use only on an architecture either lacking SIMD,
538    or to which |Gromacs| has not yet been ported and none of the
539    options below are applicable.
540 2. ``SSE2`` This SIMD instruction set was introduced in Intel
541    processors in 2001, and AMD in 2003. Essentially all x86
542    machines in existence have this, so it might be a good choice if
543    you need to support dinosaur x86 computers too.
544 3. ``SSE4.1`` Present in all Intel core processors since 2007,
545    but notably not in AMD Magny-Cours. Still, almost all recent
546    processors support this, so this can also be considered a good
547    baseline if you are content with slow simulations and prefer
548    portability between reasonably modern processors.
549 4. ``AVX_128_FMA`` AMD Bulldozer, Piledriver (and later Family 15h) processors have this.
550 5. ``AVX_256`` Intel processors since Sandy Bridge (2011). While this
551    code will work on the  AMD Bulldozer and Piledriver processors, it is significantly less
552    efficient than the ``AVX_128_FMA`` choice above - do not be fooled
553    to assume that 256 is better than 128 in this case.
554 6. ``AVX2_128`` AMD Zen/Zen2 and Hygon Dhyana microarchitecture processors;
555    it will enable AVX2 with 3-way fused multiply-add instructions.
556    While these microarchitectures do support 256-bit AVX2 instructions,
557    hence ``AVX2_256`` is also supported, 128-bit will generally be faster,
558    in particular when the non-bonded tasks run on the CPU -- hence
559    the default ``AVX2_128``. With GPU offload however ``AVX2_256``
560    can be faster on Zen processors.
561 7. ``AVX2_256`` Present on Intel Haswell (and later) processors (2013),
562    and it will also enable Intel 3-way fused multiply-add instructions.
563 8. ``AVX_512`` Skylake-X desktop and Skylake-SP Xeon processors (2017);
564    it will generally be fastest on the higher-end desktop and server
565    processors with two 512-bit fused multiply-add units (e.g. Core i9
566    and Xeon Gold). However, certain desktop and server models
567    (e.g. Xeon Bronze and Silver) come with only one AVX512 FMA unit
568    and therefore on these processors ``AVX2_256`` is faster
569    (compile- and runtime checks try to inform about such cases).
570    Additionally, with GPU accelerated runs ``AVX2_256`` can also be
571    faster on high-end Skylake CPUs with both 512-bit FMA units enabled.
572 9. ``AVX_512_KNL`` Knights Landing Xeon Phi processors
573 10. ``Sparc64_HPC_ACE`` Fujitsu machines like the K computer have this.
574 11. ``IBM_VMX`` Power6 and similar Altivec processors have this.
575 12. ``IBM_VSX`` Power7, Power8, Power9 and later have this.
576 13. ``ARM_NEON`` 32-bit ARMv7 with NEON support.
577 14. ``ARM_NEON_ASIMD`` 64-bit ARMv8 and later.
578 15. ``ARM_SVE`` 64-bit ARMv8 and later with the Scalable Vector Extensions (SVE).
579     The SVE vector length is fixed at CMake configure time. The default vector
580     length is automatically detected, and this can be changed via the
581     ``GMX_SIMD_ARM_SVE_LENGTH`` CMake variable.
582
583 The CMake configure system will check that the compiler you have
584 chosen can target the architecture you have chosen. mdrun will check
585 further at runtime, so if in doubt, choose the lowest number you
586 think might work, and see what mdrun says. The configure system also
587 works around many known issues in many versions of common HPC
588 compilers.
589
590 A further ``GMX_SIMD=Reference`` option exists, which is a special
591 SIMD-like implementation written in plain C that developers can use
592 when developing support in |Gromacs| for new SIMD architectures. It is
593 not designed for use in production simulations, but if you are using
594 an architecture with SIMD support to which |Gromacs| has not yet been
595 ported, you may wish to try this option instead of the default
596 ``GMX_SIMD=None``, as it can often out-perform this when the
597 auto-vectorization in your compiler does a good job. And post on the
598 |Gromacs| mailing lists, because |Gromacs| can probably be ported for new
599 SIMD architectures in a few days.
600
601 CMake advanced options
602 ~~~~~~~~~~~~~~~~~~~~~~
603
604 The options that are displayed in the default view of ``ccmake`` are
605 ones that we think a reasonable number of users might want to consider
606 changing. There are a lot more options available, which you can see by
607 toggling the advanced mode in ``ccmake`` on and off with ``t``. Even
608 there, most of the variables that you might want to change have a
609 ``CMAKE_`` or ``GMX_`` prefix. There are also some options that will be
610 visible or not according to whether their preconditions are satisfied.
611
612 .. _search for libraries, headers or programs:
613
614 Helping CMake find the right libraries, headers, or programs
615 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
616
617 If libraries are installed in non-default locations their location can
618 be specified using the following variables:
619
620 * ``CMAKE_INCLUDE_PATH`` for header files
621 * ``CMAKE_LIBRARY_PATH`` for libraries
622 * ``CMAKE_PREFIX_PATH`` for header, libraries and binaries
623   (e.g. ``/usr/local``).
624
625 The respective ``include``, ``lib``, or ``bin`` is
626 appended to the path. For each of these variables, a list of paths can
627 be specified (on Unix, separated with ":"). These can be set as
628 enviroment variables like:
629
630 ::
631
632     CMAKE_PREFIX_PATH=/opt/fftw:/opt/cuda cmake ..
633
634 (assuming ``bash`` shell). Alternatively, these variables are also
635 ``cmake`` options, so they can be set like
636 ``-DCMAKE_PREFIX_PATH=/opt/fftw:/opt/cuda``.
637
638 The ``CC`` and ``CXX`` environment variables are also useful
639 for indicating to ``cmake`` which compilers to use. Similarly,
640 ``CFLAGS``/``CXXFLAGS`` can be used to pass compiler
641 options, but note that these will be appended to those set by
642 |Gromacs| for your build platform and build type. You can customize
643 some of this with advanced CMake options such as ``CMAKE_C_FLAGS``
644 and its relatives.
645
646 See also the page on `CMake environment variables`_.
647
648 .. _CUDA GPU acceleration:
649
650 CUDA GPU acceleration
651 ~~~~~~~~~~~~~~~~~~~~~
652
653 If you have the CUDA_ Toolkit installed, you can use ``cmake`` with:
654
655 ::
656
657     cmake .. -DGMX_GPU=CUDA -DCUDA_TOOLKIT_ROOT_DIR=/usr/local/cuda
658
659 (or whichever path has your installation). In some cases, you might
660 need to specify manually which of your C++ compilers should be used,
661 e.g. with the advanced option ``CUDA_HOST_COMPILER``.
662
663 By default, code will be generated for the most common CUDA architectures.
664 However, to reduce build time and binary size we do not generate code for
665 every single possible architecture, which in rare cases (say, Tegra systems)
666 can result in the default build not being able to use some GPUs.
667 If this happens, or if you want to remove some architectures to reduce
668 binary size and build time, you can alter the target CUDA architectures.
669 This can be done either with the ``GMX_CUDA_TARGET_SM`` or
670 ``GMX_CUDA_TARGET_COMPUTE`` CMake variables, which take a semicolon delimited
671 string with the two digit suffixes of CUDA (virtual) architectures names, for
672 instance "35;50;51;52;53;60". For details, see the "Options for steering GPU
673 code generation" section of the nvcc man / help or Chapter 6. of the nvcc
674 manual.
675
676 The GPU acceleration has been tested on AMD64/x86-64 platforms with
677 Linux, Mac OS X and Windows operating systems, but Linux is the
678 best-tested and supported of these. Linux running on POWER 8 and ARM v8
679 CPUs also works well.
680
681 Experimental support is available for compiling CUDA code, both for host and
682 device, using clang (version 6.0 or later).
683 A CUDA toolkit is still required but it is used only for GPU device code
684 generation and to link against the CUDA runtime library.
685 The clang CUDA support simplifies compilation and provides benefits for development
686 (e.g. allows the use code sanitizers in CUDA host-code).
687 Additionally, using clang for both CPU and GPU compilation can be beneficial
688 to avoid compatibility issues between the GNU toolchain and the CUDA toolkit.
689 clang for CUDA can be triggered using the ``GMX_CLANG_CUDA=ON`` CMake option.
690 Target architectures can be selected with  ``GMX_CUDA_TARGET_SM``,
691 virtual architecture code is always embedded for all requested architectures
692 (hence GMX_CUDA_TARGET_COMPUTE is ignored).
693 Note that this is mainly a developer-oriented feature and it is not recommended
694 for production use as the performance can be significantly lower than that
695 of code compiled with nvcc (and it has also received less testing).
696 However, note that since clang 5.0 the performance gap is only moderate
697 (at the time of writing, about 20% slower GPU kernels), so this version
698 could be considered in non performance-critical use-cases.
699
700
701 OpenCL GPU acceleration
702 ~~~~~~~~~~~~~~~~~~~~~~~
703
704 The primary targets of the |Gromacs| OpenCL support is accelerating
705 simulations on AMD and Intel hardware. For AMD, we target both
706 discrete GPUs and APUs (integrated CPU+GPU chips), and for Intel we
707 target the integrated GPUs found on modern workstation and mobile
708 hardware. The |Gromacs| OpenCL on NVIDIA GPUs works, but performance
709 and other limitations make it less practical (for details see the user guide).
710
711 To build |Gromacs| with OpenCL_ support enabled, two components are
712 required: the OpenCL_ headers and the wrapper library that acts
713 as a client driver loader (so-called ICD loader).
714 The additional, runtime-only dependency is the vendor-specific GPU driver
715 for the device targeted. This also contains the OpenCL_ compiler.
716 As the GPU compute kernels are compiled  on-demand at run time,
717 this vendor-specific compiler and driver is not needed for building |Gromacs|.
718 The former, compile-time dependencies are standard components,
719 hence stock versions can be obtained from most Linux distribution
720 repositories (e.g. ``opencl-headers`` and ``ocl-icd-libopencl1`` on Debian/Ubuntu).
721 Only the compatibility with the required OpenCL_ version |REQUIRED_OPENCL_MIN_VERSION|
722 needs to be ensured.
723 Alternatively, the headers and library can also be obtained from vendor SDKs
724 (e.g. `from AMD <http://developer.amd.com/appsdk>`_),
725 which must be installed in a path found in ``CMAKE_PREFIX_PATH`` (or via the environment
726 variables ``AMDAPPSDKROOT`` or ``CUDA_PATH``).
727
728 To trigger an OpenCL_ build the following CMake flags must be set
729
730 ::
731
732     cmake .. -DGMX_GPU=OpenCL
733
734 To build with support for Intel integrated GPUs, it is required
735 to add ``-DGMX_OPENCL_NB_CLUSTER_SIZE=4`` to the cmake command line,
736 so that the GPU kernels match the characteristics of the hardware.
737 The `Neo driver <https://github.com/intel/compute-runtime/releases>`_
738 is recommended.
739
740 On Mac OS, an AMD GPU can be used only with OS version 10.10.4 and
741 higher; earlier OS versions are known to run incorrectly.
742
743 By default, any clFFT library on the system will be used with
744 |Gromacs|, but if none is found then the code will fall back on a
745 version bundled with |Gromacs|. To require |Gromacs| to link with an
746 external library, use
747
748 ::
749
750     cmake .. -DGMX_GPU=OpenCL -DclFFT_ROOT_DIR=/path/to/your/clFFT -DGMX_EXTERNAL_CLFFT=TRUE
751
752 Static linking
753 ~~~~~~~~~~~~~~
754
755 Dynamic linking of the |Gromacs| executables will lead to a
756 smaller disk footprint when installed, and so is the default on
757 platforms where we believe it has been tested repeatedly and found to work.
758 In general, this includes Linux, Windows, Mac OS X and BSD systems.
759 Static binaries take more space, but on some hardware and/or under
760 some conditions they are necessary, most commonly when you are running a parallel
761 simulation using MPI libraries (e.g. Cray).
762
763 * To link |Gromacs| binaries statically against the internal |Gromacs|
764   libraries, set ``-DBUILD_SHARED_LIBS=OFF``.
765 * To link statically against external (non-system) libraries as well,
766   set ``-DGMX_PREFER_STATIC_LIBS=ON``. Note, that in
767   general ``cmake`` picks up whatever is available, so this option only
768   instructs ``cmake`` to prefer static libraries when both static and
769   shared are available. If no static version of an external library is
770   available, even when the aforementioned option is ``ON``, the shared
771   library will be used. Also note that the resulting binaries will
772   still be dynamically linked against system libraries on platforms
773   where that is the default. To use static system libraries,
774   additional compiler/linker flags are necessary, e.g. ``-static-libgcc
775   -static-libstdc++``.
776 * To attempt to link a fully static binary set
777   ``-DGMX_BUILD_SHARED_EXE=OFF``. This will prevent CMake from explicitly
778   setting any dynamic linking flags. This option also sets
779   ``-DBUILD_SHARED_LIBS=OFF`` and ``-DGMX_PREFER_STATIC_LIBS=ON`` by
780   default, but the above caveats apply. For compilers which don't
781   default to static linking, the required flags have to be specified. On
782   Linux, this is usually ``CFLAGS=-static CXXFLAGS=-static``.
783
784 gmxapi C++ API
785 ~~~~~~~~~~~~~~
786
787 For dynamic linking builds and on non-Windows platforms, an extra library and
788 headers are installed by setting ``-DGMXAPI=ON`` (default).
789 Build targets ``gmxapi-cppdocs`` and ``gmxapi-cppdocs-dev`` produce documentation in
790 ``docs/api-user`` and ``docs/api-dev``, respectively.
791 For more project information and use cases,
792 refer to the tracked :issue:`2585`,
793 associated GitHub `gmxapi <https://github.com/kassonlab/gmxapi>`_ projects,
794 or DOI `10.1093/bioinformatics/bty484 <https://doi.org/10.1093/bioinformatics/bty484>`_.
795
796 gmxapi is not yet tested on Windows or with static linking, but these use cases
797 are targeted for future versions.
798
799 Portability aspects
800 ~~~~~~~~~~~~~~~~~~~
801
802 A |Gromacs| build will normally not be portable, not even across
803 hardware with the same base instruction set, like x86. Non-portable
804 hardware-specific optimizations are selected at configure-time, such
805 as the SIMD instruction set used in the compute kernels. This
806 selection will be done by the build system based on the capabilities
807 of the build host machine or otherwise specified to ``cmake`` during
808 configuration.
809
810 Often it is possible to ensure portability by choosing the least
811 common denominator of SIMD support, e.g. SSE2 for x86. In rare cases
812 of very old x86 machines, ensure that
813 you use ``cmake -DGMX_USE_RDTSCP=off`` if any of the target CPU
814 architectures does not support the ``RDTSCP`` instruction.  However, we
815 discourage attempts to use a single |Gromacs| installation when the
816 execution environment is heterogeneous, such as a mix of AVX and
817 earlier hardware, because this will lead to programs (especially
818 mdrun) that run slowly on the new hardware. Building two full
819 installations and locally managing how to call the correct one
820 (e.g. using a module system) is the recommended
821 approach. Alternatively, as at the moment the |Gromacs| tools do not
822 make strong use of SIMD acceleration, it can be convenient to create
823 an installation with tools portable across different x86 machines, but
824 with separate mdrun binaries for each architecture. To achieve this,
825 one can first build a full installation with the
826 least-common-denominator SIMD instruction set, e.g. ``-DGMX_SIMD=SSE2``,
827 then build separate mdrun binaries for each architecture present in
828 the heterogeneous environment. By using custom binary and library
829 suffixes for the mdrun-only builds, these can be installed to the
830 same location as the "generic" tools installation.
831 `Building just the mdrun binary`_ is possible by setting the
832 ``-DGMX_BUILD_MDRUN_ONLY=ON`` option.
833
834 Linear algebra libraries
835 ~~~~~~~~~~~~~~~~~~~~~~~~
836
837 As mentioned above, sometimes vendor BLAS and LAPACK libraries
838 can provide performance enhancements for |Gromacs| when doing
839 normal-mode analysis or covariance analysis. For simplicity, the text
840 below will refer only to BLAS, but the same options are available
841 for LAPACK. By default, CMake will search for BLAS, use it if it
842 is found, and otherwise fall back on a version of BLAS internal to
843 |Gromacs|. The ``cmake`` option ``-DGMX_EXTERNAL_BLAS=on`` will be set
844 accordingly. The internal versions are fine for normal use. If you
845 need to specify a non-standard path to search, use
846 ``-DCMAKE_PREFIX_PATH=/path/to/search``. If you need to specify a
847 library with a non-standard name (e.g. ESSL on Power machines
848 or ARMPL on ARM machines), then
849 set ``-DGMX_BLAS_USER=/path/to/reach/lib/libwhatever.a``.
850
851 If you are using Intel MKL_ for FFT, then the BLAS and
852 LAPACK it provides are used automatically. This could be
853 over-ridden with ``GMX_BLAS_USER``, etc.
854
855 On Apple platforms where the Accelerate Framework is available, these
856 will be automatically used for BLAS and LAPACK. This could be
857 over-ridden with ``GMX_BLAS_USER``, etc.
858
859 .. _installing with MiMiC:
860
861 Building with MiMiC QM/MM support
862 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
863
864 MiMiC QM/MM interface integration will require linking against MiMiC
865 communication library, that establishes the communication channel
866 between |Gromacs| and CPMD. The MiMiC Communication library can be
867 downloaded `here <https://gitlab.com/MiMiC-projects/CommLib>`__.
868 Compile and install it. Check that the installation folder of the
869 MiMiC library is added to CMAKE_PREFIX_PATH if it is installed in
870 non-standard location. Building QM/MM-capable version requires
871 double-precision version of |Gromacs| compiled with MPI support:
872
873 * ``-DGMX_DOUBLE=ON -DGMX_MPI -DGMX_MIMIC=ON``
874
875 .. _suffixes:
876
877 Changing the names of |Gromacs| binaries and libraries
878 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
879
880 It is sometimes convenient to have different versions of the same
881 |Gromacs| programs installed. The most common use cases have been single
882 and double precision, and with and without MPI. This mechanism can
883 also be used to install side-by-side multiple versions of mdrun
884 optimized for different CPU architectures, as mentioned previously.
885
886 By default, |Gromacs| will suffix programs and libraries for such builds
887 with ``_d`` for double precision and/or ``_mpi`` for MPI (and nothing
888 otherwise). This can be controlled manually with ``GMX_DEFAULT_SUFFIX
889 (ON/OFF)``, ``GMX_BINARY_SUFFIX`` (takes a string) and ``GMX_LIBS_SUFFIX``
890 (also takes a string). For instance, to set a custom suffix for
891 programs and libraries, one might specify:
892
893 ::
894
895     cmake .. -DGMX_DEFAULT_SUFFIX=OFF -DGMX_BINARY_SUFFIX=_mod -DGMX_LIBS_SUFFIX=_mod
896
897 Thus the names of all programs and libraries will be appended with
898 ``_mod``.
899
900 Changing installation tree structure
901 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
902
903 By default, a few different directories under ``CMAKE_INSTALL_PREFIX`` are used
904 when when |Gromacs| is installed. Some of these can be changed, which is mainly
905 useful for packaging |Gromacs| for various distributions. The directories are
906 listed below, with additional notes about some of them. Unless otherwise noted,
907 the directories can be renamed by editing the installation paths in the main
908 CMakeLists.txt.
909
910 ``bin/``
911     The standard location for executables and some scripts.
912     Some of the scripts hardcode the absolute installation prefix, which needs
913     to be changed if the scripts are relocated.
914     The name of the directory can be changed using ``CMAKE_INSTALL_BINDIR`` CMake
915     variable.
916 ``include/gromacs/``
917     The standard location for installed headers.
918 ``lib/``
919     The standard location for libraries. The default depends on the system, and
920     is determined by CMake.
921     The name of the directory can be changed using ``CMAKE_INSTALL_LIBDIR`` CMake
922     variable.
923 ``lib/pkgconfig/``
924     Information about the installed ``libgromacs`` library for ``pkg-config`` is
925     installed here.  The ``lib/`` part adapts to the installation location of the
926     libraries.  The installed files contain the installation prefix as absolute
927     paths.
928 ``share/cmake/``
929     CMake package configuration files are installed here.
930 ``share/gromacs/``
931     Various data files and some documentation go here. The first part can
932     be changed using ``CMAKE_INSTALL_DATADIR``, and the second by using
933     ``GMX_INSTALL_DATASUBDIR`` Using these CMake variables is the preferred
934     way of changing the installation path for
935     ``share/gromacs/top/``, since the path to this directory is built into
936     ``libgromacs`` as well as some scripts, both as a relative and as an absolute
937     path (the latter as a fallback if everything else fails).
938 ``share/man/``
939     Installed man pages go here.
940
941 Compiling and linking
942 ^^^^^^^^^^^^^^^^^^^^^
943
944 Once you have configured with ``cmake``, you can build |Gromacs| with ``make``.
945 It is expected that this will always complete successfully, and
946 give few or no warnings. The CMake-time tests |Gromacs| makes on the settings
947 you choose are pretty extensive, but there are probably a few cases we
948 have not thought of yet. Search the web first for solutions to
949 problems, but if you need help, ask on gmx-users, being sure to
950 provide as much information as possible about what you did, the system
951 you are building on, and what went wrong. This may mean scrolling back
952 a long way through the output of ``make`` to find the first error
953 message!
954
955 If you have a multi-core or multi-CPU machine with ``N``
956 processors, then using
957
958 ::
959
960     make -j N
961
962 will generally speed things up by quite a bit. Other build generator systems
963 supported by ``cmake`` (e.g. ``ninja``) also work well.
964
965 .. _building just the mdrun binary:
966
967 Building only mdrun
968 ~~~~~~~~~~~~~~~~~~~
969
970 This is now deprecated, but still supported with the ``cmake`` option
971 ``-DGMX_BUILD_MDRUN_ONLY=ON``, which will build a different version of
972 ``libgromacs`` and the ``mdrun`` program.  Naturally, now ``make
973 install`` installs only those products. By default, mdrun-only builds
974 will default to static linking against |Gromacs| libraries, because
975 this is generally a good idea for the targets for which an mdrun-only
976 build is desirable.
977
978 Installing |Gromacs|
979 ^^^^^^^^^^^^^^^^^^^^
980
981 Finally, ``make install`` will install |Gromacs| in the
982 directory given in ``CMAKE_INSTALL_PREFIX``. If this is a system
983 directory, then you will need permission to write there, and you
984 should use super-user privileges only for ``make install`` and
985 not the whole procedure.
986
987 .. _getting access to |Gromacs|:
988
989 Getting access to |Gromacs| after installation
990 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
991
992 |Gromacs| installs the script ``GMXRC`` in the ``bin``
993 subdirectory of the installation directory
994 (e.g. ``/usr/local/gromacs/bin/GMXRC``), which you should source
995 from your shell:
996
997 ::
998
999     source /your/installation/prefix/here/bin/GMXRC
1000
1001 It will detect what kind of shell you are running and set up your
1002 environment for using |Gromacs|. You may wish to arrange for your
1003 login scripts to do this automatically; please search the web for
1004 instructions on how to do this for your shell.
1005
1006 Many of the |Gromacs| programs rely on data installed in the
1007 ``share/gromacs`` subdirectory of the installation directory. By
1008 default, the programs will use the environment variables set in the
1009 ``GMXRC`` script, and if this is not available they will try to guess the
1010 path based on their own location.  This usually works well unless you
1011 change the names of directories inside the install tree. If you still
1012 need to do that, you might want to recompile with the new install
1013 location properly set, or edit the ``GMXRC`` script.
1014
1015 |Gromacs| also installs a CMake toolchains file to help with building client
1016 software. For an installation at ``/your/installation/prefix/here``, toolchain
1017 files will be installed at
1018 ``/your/installation/prefix/here/share/cmake/gromacs${GMX_LIBS_SUFFIX}/gromacs-toolchain${GMX_LIBS_SUFFIX}.cmake``
1019 where ``${GMX_LIBS_SUFFIX}`` is :ref:`as documented above <suffixes>`.
1020
1021 Testing |Gromacs| for correctness
1022 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
1023
1024 Since 2011, the |Gromacs| development uses an automated system where
1025 every new code change is subject to regression testing on a number of
1026 platforms and software combinations. While this improves
1027 reliability quite a lot, not everything is tested, and since we
1028 increasingly rely on cutting edge compiler features there is
1029 non-negligible risk that the default compiler on your system could
1030 have bugs. We have tried our best to test and refuse to use known bad
1031 versions in ``cmake``, but we strongly recommend that you run through
1032 the tests yourself. It only takes a few minutes, after which you can
1033 trust your build.
1034
1035 The simplest way to run the checks is to build |Gromacs| with
1036 ``-DREGRESSIONTEST_DOWNLOAD``, and run ``make check``.
1037 |Gromacs| will automatically download and run the tests for you.
1038 Alternatively, you can download and unpack the |Gromacs|
1039 regression test suite |gmx-regressiontests-package| tarball yourself
1040 and use the advanced ``cmake`` option ``REGRESSIONTEST_PATH`` to
1041 specify the path to the unpacked tarball, which will then be used for
1042 testing. If the above does not work, then please read on.
1043
1044 The regression tests are also available from the download_ section.
1045 Once you have downloaded them, unpack the tarball, source
1046 ``GMXRC`` as described above, and run ``./gmxtest.pl all``
1047 inside the regression tests folder. You can find more options
1048 (e.g. adding ``double`` when using double precision, or
1049 ``-only expanded`` to run just the tests whose names match
1050 "expanded") if you just execute the script without options.
1051
1052 Hopefully, you will get a report that all tests have passed. If there
1053 are individual failed tests it could be a sign of a compiler bug, or
1054 that a tolerance is just a tiny bit too tight. Check the output files
1055 the script directs you too, and try a different or newer compiler if
1056 the errors appear to be real. If you cannot get it to pass the
1057 regression tests, you might try dropping a line to the
1058 `|Gromacs| users forum <https://gromacs.bioexcel.eu/c/gromacs-user-forum>`__,
1059 but then you should include a detailed description of
1060 your hardware, and the output of ``gmx mdrun -version`` (which contains
1061 valuable diagnostic information in the header).
1062
1063 Testing for MDRUN_ONLY executables
1064 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
1065
1066 A build with ``-DGMX_BUILD_MDRUN_ONLY`` cannot be tested with
1067 ``make check`` from the build tree, because most of the tests
1068 require a full build to run things like ``grompp``. To test such an
1069 mdrun fully requires installing it to the same location as a normal
1070 build of |Gromacs|, downloading the regression tests tarball manually
1071 as described above, sourcing the correct ``GMXRC`` and running the
1072 perl script manually. For example, from your |Gromacs| source
1073 directory:
1074
1075 ::
1076
1077     mkdir build-normal
1078     cd build-normal
1079     # First, build and install normally to allow full testing of the standalone simulator.
1080     cmake .. -DGMX_MPI=ON -DCMAKE_INSTALL_PREFIX=/your/installation/prefix/here
1081     make -j 4
1082     make install
1083     cd ..
1084     mkdir build-mdrun-only
1085     cd build-mdrun-only
1086     # Next, build and install the GMX_BUILD_MDRUN_ONLY version (optional).
1087     cmake .. -DGMX_MPI=ON -DGMX_BUILD_MDRUN_ONLY=ON -DCMAKE_INSTALL_PREFIX=/your/installation/prefix/here
1088     make -j 4
1089     make install
1090     cd /to/your/unpacked/regressiontests
1091     source /your/installation/prefix/here/bin/GMXRC
1092     ./gmxtest.pl all -np 2
1093
1094 Non-standard suffix
1095 ~~~~~~~~~~~~~~~~~~~
1096
1097 If your mdrun program has been suffixed in a non-standard way, then
1098 the ``./gmxtest.pl -mdrun`` option will let you specify that name to the
1099 test machinery. You can use ``./gmxtest.pl -double`` to test the
1100 double-precision version. You can use ``./gmxtest.pl -crosscompiling``
1101 to stop the test harness attempting to check that the programs can
1102 be run. You can use ``./gmxtest.pl -mpirun srun`` if your command to
1103 run an MPI program is called ``srun``.
1104
1105 Running MPI-enabled tests
1106 ~~~~~~~~~~~~~~~~~~~~~~~~~
1107
1108 The ``make check`` target also runs integration-style tests that may run
1109 with MPI if ``GMX_MPI=ON`` was set. To make these work with various possible
1110 MPI libraries, you may need to
1111 set the CMake variables ``MPIEXEC``, ``MPIEXEC_NUMPROC_FLAG``,
1112 ``MPIEXEC_PREFLAGS`` and ``MPIEXEC_POSTFLAGS`` so that
1113 ``mdrun-mpi-test_mpi`` would run on multiple ranks via the shell command
1114
1115 ::
1116
1117     ${MPIEXEC} ${MPIEXEC_NUMPROC_FLAG} ${NUMPROC} ${MPIEXEC_PREFLAGS} \
1118           mdrun-mpi-test_mpi ${MPIEXEC_POSTFLAGS} -otherflags
1119
1120 A typical example for SLURM is
1121
1122 ::
1123
1124      cmake .. -DGMX_MPI=on -DMPIEXEC=srun -DMPIEXEC_NUMPROC_FLAG=-n -DMPIEXEC_PREFLAGS= -DMPIEXEC_POSTFLAGS=
1125
1126
1127 Testing |Gromacs| for performance
1128 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
1129
1130 We are still working on a set of benchmark systems for testing
1131 the performance of |Gromacs|. Until that is ready, we recommend that
1132 you try a few different parallelization options, and experiment with
1133 tools such as ``gmx tune_pme``.
1134
1135 Validating |Gromacs| for source code modifications
1136 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
1137
1138 When building |Gromacs| from a release tarball, the build process automatically
1139 checks if any file contributing to the build process have been modified since they have
1140 been packed in the archive. This results in the marking of the version as either ``MODIFIED``
1141 (if the source files have been modified) or ``UNCHECKED`` (if no validation was possible, e.g.
1142 if no Python installation was found). The actual checking is performed by comparing a checksum
1143 stored in the release tarball against one generated by the ``createFileHash.py`` Python script
1144 during the build configuration. When running a |Gromacs| binary, the checksum is also printed
1145 in the log file, together with a message if there is a mismatch or no validation has been possible.
1146
1147 This allows users to check whether the binary they are using was built from source code that is
1148 identical to the source code released by the |Gromacs| team. Thus unintentional modifications
1149 to the source code for building binaries that are used for running production simulations
1150 are easily detectable. Additionally, by manually setting a version tag using the
1151 GMX_VERSION_STRING_OF_FORK cmake option, users can mark a modified |Gromacs| release
1152 code with their custom version string suffix.
1153
1154 Having difficulty?
1155 ^^^^^^^^^^^^^^^^^^
1156
1157 You are not alone - this can be a complex task! If you encounter a
1158 problem with installing |Gromacs|, then there are a number of
1159 locations where you can find assistance. It is recommended that you
1160 follow these steps to find the solution:
1161
1162 1. Read the installation instructions again, taking note that you
1163    have followed each and every step correctly.
1164
1165 2. Search the |Gromacs| webpage_ and users emailing list for information
1166    on the error. Adding
1167    ``site:https://mailman-1.sys.kth.se/pipermail/gromacs.org_gmx-users``
1168    to a Google search may help filter better results.
1169
1170 3. Search the internet using a search engine such as Google.
1171
1172 4. Post to the |Gromacs| users emailing list gmx-users for
1173    assistance. Be sure to give a full description of what you have
1174    done and why you think it did not work. Give details about the
1175    system on which you are installing.  Copy and paste your command
1176    line and as much of the output as you think might be relevant -
1177    certainly from the first indication of a problem. In particular,
1178    please try to include at least the header from the mdrun logfile,
1179    and preferably the entire file.  People who might volunteer to help
1180    you do not have time to ask you interactive detailed follow-up
1181    questions, so you will get an answer faster if you provide as much
1182    information as you think could possibly help. High quality bug
1183    reports tend to receive rapid high quality answers.
1184
1185 .. _gmx-special-build:
1186
1187 Special instructions for some platforms
1188 ---------------------------------------
1189
1190 Building on Windows
1191 ^^^^^^^^^^^^^^^^^^^
1192
1193 Building on Windows using native compilers is rather similar to
1194 building on Unix, so please start by reading the above. Then, download
1195 and unpack the |Gromacs| source archive. Make a folder in which to do
1196 the out-of-source build of |Gromacs|. For example, make it within the
1197 folder unpacked from the source archive, and call it ``build-gromacs``.
1198
1199 For CMake, you can either use the graphical user interface provided on
1200 Windows, or you can use a command line shell with instructions similar
1201 to the UNIX ones above. If you open a shell from within your IDE
1202 (e.g. Microsoft Visual Studio), it will configure the environment for
1203 you, but you might need to tweak this in order to get either a 32-bit
1204 or 64-bit build environment. The latter provides the fastest
1205 executable. If you use a normal Windows command shell, then you will
1206 need to either set up the environment to find your compilers and
1207 libraries yourself, or run the ``vcvarsall.bat`` batch script provided
1208 by MSVC (just like sourcing a bash script under Unix).
1209
1210 With the graphical user interface, you will be asked about what
1211 compilers to use at the initial configuration stage, and if you use
1212 the command line they can be set in a similar way as under UNIX.
1213
1214 Unfortunately ``-DGMX_BUILD_OWN_FFTW=ON`` (see `Using FFTW`_) does not
1215 work on Windows, because there is no supported way to build FFTW on
1216 Windows. You can either build FFTW some other way (e.g. MinGW), or
1217 use the built-in fftpack (which may be slow), or `using MKL`_.
1218
1219 For the build, you can either load the generated solutions file into
1220 e.g. Visual Studio, or use the command line with ``cmake --build`` so
1221 the right tools get used.
1222
1223 Building on Cray
1224 ^^^^^^^^^^^^^^^^
1225
1226 |Gromacs| builds mostly out of the box on modern Cray machines, but
1227 you may need to specify the use of static binaries with
1228 ``-DGMX_BUILD_SHARED_EXE=off``, and you may need to set the F77
1229 environmental variable to ``ftn`` when compiling FFTW.
1230 The ARM ThunderX2 Cray XC50 machines differ only in that the recommended
1231 compiler is the ARM HPC Compiler (``armclang``).
1232
1233
1234 Building on Solaris
1235 ^^^^^^^^^^^^^^^^^^^
1236
1237 The built-in |Gromacs| processor detection does not work on Solaris,
1238 so it is strongly recommended that you build |Gromacs| with
1239 ``-DGMX_HWLOC=on`` and ensure that the ``CMAKE_PREFIX_PATH`` includes
1240 the path where the hwloc headers and libraries can be found. At least
1241 version 1.11.8 of hwloc is recommended.
1242
1243 Oracle Developer Studio is not a currently supported compiler (and
1244 does not currently compile |Gromacs| correctly, perhaps because the
1245 thread-MPI atomics are incorrectly implemented in |Gromacs|).
1246
1247 Fujitsu PRIMEHPC
1248 ^^^^^^^^^^^^^^^^
1249
1250 This is the architecture of the K computer, which uses Fujitsu
1251 Sparc64VIIIfx chips. On this platform, |Gromacs| has
1252 accelerated group kernels using the HPC-ACE instructions, no
1253 accelerated Verlet kernels, and a custom build toolchain. Since this
1254 particular chip only does double precision SIMD, the default setup
1255 is to build |Gromacs| in double. Since most users only need single, we have added
1256 an option GMX_RELAXED_DOUBLE_PRECISION to accept single precision square root
1257 accuracy in the group kernels; unless you know that you really need 15 digits
1258 of accuracy in each individual force, we strongly recommend you use this. Note
1259 that all summation and other operations are still done in double.
1260
1261 The recommended configuration is to use
1262
1263 ::
1264
1265     cmake .. -DCMAKE_TOOLCHAIN_FILE=Toolchain-Fujitsu-Sparc64-mpi.cmake \
1266              -DCMAKE_PREFIX_PATH=/your/fftw/installation/prefix \
1267              -DCMAKE_INSTALL_PREFIX=/where/gromacs/should/be/installed \
1268              -DGMX_MPI=ON \
1269              -DGMX_BUILD_MDRUN_ONLY=ON \
1270              -DGMX_RELAXED_DOUBLE_PRECISION=ON
1271     make
1272     make install
1273
1274 Intel Xeon Phi
1275 ^^^^^^^^^^^^^^
1276
1277 Xeon Phi processors, hosted or self-hosted, are supported.
1278 Only symmetric (aka native) mode is supported on Knights Corner. The
1279 performance depends among other factors on the system size, and for
1280 now the performance might not be faster than CPUs. When building for it,
1281 the recommended configuration is
1282
1283 ::
1284
1285     cmake .. -DCMAKE_TOOLCHAIN_FILE=Platform/XeonPhi
1286     make
1287     make install
1288
1289
1290 The Knights Landing-based Xeon Phi processors behave like standard x86 nodes,
1291 but support a special SIMD instruction set. When cross-compiling for such nodes,
1292 use the ``AVX_512_KNL`` SIMD flavor.
1293 Knights Landing processors support so-called "clustering modes" which
1294 allow reconfiguring the memory subsystem for lower latency. |Gromacs| can
1295 benefit from the quadrant or SNC clustering modes.
1296 Care needs to be taken to correctly pin threads. In particular, threads of
1297 an MPI rank should not cross cluster and NUMA boundaries.
1298 In addition to the main DRAM memory, Knights Landing has a high-bandwidth
1299 stacked memory called MCDRAM. Using it offers performance benefits if
1300 it is ensured that ``mdrun`` runs entirely from this memory; to do so
1301 it is recommended that MCDRAM is configured in "Flat mode" and ``mdrun`` is
1302 bound to the appropriate NUMA node (use e.g. ``numactl --membind 1`` with
1303 quadrant clustering mode).
1304
1305
1306 Tested platforms
1307 ----------------
1308
1309 While it is our best belief that |Gromacs| will build and run pretty
1310 much everywhere, it is important that we tell you where we really know
1311 it works because we have tested it.
1312 Every commit in our git source code repository
1313 is currently tested with a range of configuration options on x86 with
1314 gcc versions 7 and 8,
1315 clang versions 8 and 9,
1316 and
1317 a beta version of oneAPI containing Intel's compiler.
1318 For this testing, we use Ubuntu 18.04 or 20.04 operating system.
1319 Other compiler, library, and OS versions are tested less frequently.
1320 For details, you can have a look at the
1321 `continuous integration server used by GROMACS <https://gitlab.com/gromacs/gromacs/>`_,
1322 which uses GitLab runner on a local k8s x86 cluster with NVIDIA and
1323 AMD GPU support.
1324
1325 We test irregularly on ARM v8, Cray, Power8, Power9,
1326 Google Native Client and other environments, and
1327 with other compilers and compiler versions, too.