3ce470db15e828f68a464632aed8621b09552f20
[alexxy/gromacs.git] / docs / install-guide / install-guide.md
1 % Installation guide for GROMACS @PROJECT_VERSION@
2
3 # Introduction to building GROMACS #
4
5 These instructions pertain to building GROMACS
6 @PROJECT_VERSION@. Up-to-date installation instructions may be found
7 at <http://www.gromacs.org/Documentation/Installation_Instructions>.
8
9 ## Quick and dirty installation ##
10
11 1. Get the latest version of your C and C++ compilers.
12 2. Check that you have CMake version @GMX_CMAKE_MINIMUM_REQUIRED_VERSION@ or later.
13 3. Get and unpack the latest version of the GROMACS tarball.
14 4. Make a separate build directory and change to it. 
15 5. Run `cmake` with the path to the source as an argument
16 6. Run `make`, `make check`, and `make install`
17
18 Or, as a sequence of commands to execute:
19
20     tar xfz gromacs-@PROJECT_VERSION@.tar.gz
21     cd gromacs-@PROJECT_VERSION@
22     mkdir build
23     cd build
24     cmake .. -DGMX_BUILD_OWN_FFTW=ON -DREGRESSIONTEST_DOWNLOAD=ON
25     make
26     make check
27     sudo make install
28     source /usr/local/gromacs/bin/GMXRC
29
30 This will download and build first the prerequisite FFT library
31 followed by GROMACS. If you already have FFTW installed, you can
32 remove that argument to `cmake`. Overall, this build of GROMACS will
33 be correct and reasonably fast on the machine upon which `cmake`
34 ran. If you want to get the maximum value for your hardware with
35 GROMACS, you will have to read further. Sadly, the interactions of
36 hardware, libraries, and compilers are only going to continue to get
37 more complex.
38
39 ## Typical GROMACS installation ##
40
41 As above, and with further details below, but you should consider
42 using the following [CMake options](#using-cmake-command-line-options) with the
43 appropriate value instead of `xxx` :
44
45 * `-DCMAKE_C_COMPILER=xxx` equal to the name of the C99 [compiler](#compiler) you wish to use (or the environment variable `CC`)
46 * `-DCMAKE_CXX_COMPILER=xxx` equal to the name of the C++98 [compiler](#compiler) you wish to use (or the environment variable `CXX`)
47 * `-DGMX_MPI=on` to build using an [MPI](#mpi-support) wrapper compiler
48 * `-DGMX_GPU=on` to build using nvcc to run with an NVIDIA [GPU](#native-gpu-acceleration)
49 * `-DGMX_SIMD=xxx` to specify the level of [SIMD support](#simd-support) of the node on which `mdrun` will run
50 * `-DGMX_BUILD_MDRUN_ONLY=on` to [build only the `mdrun` binary](#building-only-mdrun), e.g. for compute cluster back-end nodes
51 * `-DGMX_DOUBLE=on` to run GROMACS in double precision (slower, and not normally useful)
52 * `-DCMAKE_PREFIX_PATH=xxx` to add a non-standard location for CMake to [search for libraries](#helping-cmake-find-the-right-librariesheadersprograms)
53 * `-DCMAKE_INSTALL_PREFIX=xxx` to install GROMACS to a non-standard location (default `/usr/local/gromacs`)
54 * `-DBUILD_SHARED_LIBS=off` to turn off the building of [shared libraries](#static-linking)
55 * `-DGMX_FFT_LIBRARY=xxx` to select whether to use `fftw`, `mkl` or `fftpack` libraries for [FFT support](#fast-fourier-transform-library)
56 * `-DCMAKE_BUILD_TYPE=Debug` to build GROMACS in debug mode
57
58 ## Building older GROMACS versions ##
59
60 For installation instructions for old GROMACS versions, see the
61 documentation at
62 <http://www.gromacs.org/Documentation/Installation_Instructions_4.5>
63 and
64 <http://www.gromacs.org/Documentation/Installation_Instructions_4.6>
65
66 # Prerequisites #
67
68 ## Platform ##
69
70 GROMACS can be compiled for many operating systems and architectures.
71 These include any distribution of Linux, Mac OS X or Windows, and
72 architectures including x86, AMD64/x86-64, PPC, ARM v7 and SPARC VIII.
73
74 ## Compiler ##
75
76 Technically, GROMACS can be compiled on any platform with an ANSI C99
77 and C++98 compiler, and their respective standard C/C++ libraries.
78 Getting good performance on an OS and architecture requires choosing a
79 good compiler. In practice, many compilers struggle to do a good job
80 optimizing the GROMACS architecture-optimized SIMD kernels.
81
82 For best performance, the GROMACS team strongly recommends you get the
83 most recent version of your preferred compiler for your platform.
84 There is a large amount of GROMACS code that depends on effective
85 compiler optimization to get high performance. This makes GROMACS
86 performance sensitive to the compiler used, and the binary will often
87 only work on the hardware for which it is compiled.
88
89 * In particular, GROMACS includes a lot of explicit SIMD
90 (single instruction, multiple data) optimization that can use
91 assembly instructions available on most modern processors. This
92 can have a substantial effect on performance, but for recent
93 processors you also need a similarly recent compiler that includes
94 support for the corresponding SIMD instruction set to get this
95 benefit. The configuration does a good job at detecting this,
96 and you will usually get warnings if GROMACS and your hardware
97 support a more recent instruction set than your compiler.
98
99 * On Intel-based x86 hardware, we recommend you to use the GNU
100 compilers version 4.7 or later or Intel compilers version 12 or later
101 for best performance. The Intel compiler has historically been better
102 at instruction scheduling, but recent gcc versions have proved to be
103 as fast or sometimes faster than Intel.
104
105 * The Intel and GNU compilers produce much faster GROMACS executables
106 than the PGI and Cray compilers.
107
108 * On AMD-based x86 hardware up through the "K10" microarchitecture
109 ("Family 10h") Thuban/Magny-Cours architecture (e.g. Opteron
110 6100-series processors), it is worth using the Intel compiler for
111 better performance, but gcc version 4.7 and later are also reasonable.
112
113 * On the AMD Bulldozer architecture (Opteron 6200), AMD introduced
114 fused multiply-add instructions and an "FMA4" instruction format not
115 available on Intel x86 processors. Thus, on the most recent AMD
116 processors you want to use gcc version 4.7 or later for best
117 performance! The Intel compiler will only generate code for the subset
118 also supported by Intel processors, and that is significantly slower.
119
120 * If you are running on Mac OS X, the best option is the Intel
121 compiler. Both clang and gcc will work, but they produce lower
122 performance and each have some shortcomings. Current Clang does not
123 support OpenMP. This may change when clang 3.5 becomes available.
124
125 * For all non-x86 platforms, your best option is typically to use the
126 vendor's default or recommended compiler, and check for specialized
127 information below.
128
129 ## Compiling with parallelization options ##
130
131 GROMACS can run in parallel on multiple cores of a single
132 workstation using its built-in thread-MPI. No user action is required
133 in order to enable this.
134
135 ### GPU support ###
136
137 If you wish to use the excellent native GPU support in GROMACS,
138 NVIDIA's [CUDA](http://www.nvidia.com/object/cuda_home_new.html)
139 version @REQUIRED_CUDA_VERSION@ software development kit is required,
140 and the latest version is strongly encouraged. NVIDIA GPUs with at
141 least NVIDIA compute capability @REQUIRED_CUDA_COMPUTE_CAPABILITY@ are
142 required, e.g. Fermi or Kepler cards. You are strongly recommended to
143 get the latest CUDA version and driver supported by your hardware, but
144 beware of possible performance regressions in newer CUDA versions on
145 older hardware. Note that while some CUDA compilers (nvcc) might not
146 officially support recent versions of gcc as the back-end compiler, we
147 still recommend that you at least use a gcc version recent enough to
148 get the best SIMD support for your CPU, since GROMACS always runs some
149 code on the CPU. It is most reliable to use the same C++ compiler
150 version for GROMACS code as used as the back-end compiler for nvcc,
151 but it could be faster to mix compiler versions to suit particular
152 contexts.
153
154 ### MPI support ###
155
156 If you wish to run in parallel on multiple machines across a network,
157 you will need to have
158
159 * an MPI library installed that supports the MPI 1.3
160   standard, and
161 * wrapper compilers that will compile code using that library.
162
163 The GROMACS team recommends [OpenMPI](http://www.open-mpi.org) version
164 1.6 (or higher), [MPICH](http://www.mpich.org) version 1.4.1 (or
165 higher), or your hardware vendor's MPI installation. The most recent
166 version of either of these is likely to be the best. More specialized
167 networks might depend on accelerations only available in the vendor's
168 library. [LAMMPI](http://www.lam-mpi.org) might work, but since it has
169 been deprecated for years, it is not supported.
170
171 Often [OpenMP](http://en.wikipedia.org/wiki/OpenMP) parallelism is an
172 advantage for GROMACS, but support for this is generally built into
173 your compiler and detected automatically.
174
175 In summary, for maximum performance you will need to examine how you
176 will use GROMACS, what hardware you plan to run on, and whether you
177 can afford a non-free compiler for slightly better
178 performance. Unfortunately, the only way to find out is to test
179 different options and parallelization schemes for the actual
180 simulations you want to run. You will still get *good*,
181 performance with the default build and runtime options, but if you
182 truly want to push your hardware to the performance limit, the days of
183 just blindly starting programs with `mdrun` are gone.
184
185 ## CMake ##
186
187 GROMACS @PROJECT_VERSION@ uses the CMake build system, and requires
188 version @GMX_CMAKE_MINIMUM_REQUIRED_VERSION@ or higher. Lower versions
189 will not work. You can check whether CMake is installed, and what
190 version it is, with `cmake --version`. If you need to install CMake,
191 then first check whether your platform's package management system
192 provides a suitable version, or visit
193 <http://www.cmake.org/cmake/help/install.html> for pre-compiled
194 binaries, source code and installation instructions. The GROMACS team
195 recommends you install the most recent version of CMake you can.
196
197 ## Fast Fourier Transform library ##
198
199 Many simulations in GROMACS make extensive use of fast Fourier
200 transforms, and a software library to perform these is always
201 required. We recommend [FFTW](http://www.fftw.org) (version 3 or
202 higher only) or
203 [Intel MKL](https://software.intel.com/en-us/intel-mkl). The choice of
204 library can be set with `cmake -DGMX_FFT_LIBRARY=<name>`, where
205 `<name>` is one of `fftw`, `mkl`, or `fftpack`. FFTPACK is bundled
206 with GROMACS as a fallback, and is acceptable if mdrun performance is
207 not a priority.
208
209 ### FFTW ###
210
211 FFTW is likely to be available for your platform via its package
212 management system, but there can be compatibility and significant
213 performance issues associated with these packages. In particular,
214 GROMACS simulations are normally run in "mixed" floating-point
215 precision, which is suited for the use of single precision in
216 FFTW. The default FFTW package is normally in double
217 precision, and good compiler options to use for FFTW when linked to
218 GROMACS may not have been used. Accordingly, the GROMACS team
219 recommends either
220
221 * that you permit the GROMACS installation to download and
222   build FFTW from source automatically for you (use
223   `cmake -DGMX_BUILD_OWN_FFTW=ON`), or
224 * that you build FFTW from the source code.
225
226 If you build FFTW from source yourself, get the most recent version
227 and follow its [installation
228 guide](http://www.fftw.org/doc/Installation-and-Customization.html#Installation-and-Customization).
229 Choose the precision for FFTW (i.e. single or float vs. double) to
230 match whether you will later use mixed or double precision for
231 GROMACS. There is no need to compile FFTW with
232 threading or MPI support, but it does no harm. On x86 hardware,
233 compile *only* with `--enable-sse2` (regardless of precision) even if
234 your processors can take advantage of AVX extensions. Since GROMACS
235 uses fairly short transform lengths we do not benefit from the FFTW
236 AVX acceleration, and because of memory system performance
237 limitations, it can even degrade GROMACS performance by around
238 20%. There is no way for GROMACS to limit the use to SSE2 SIMD at run
239 time if AVX support has been compiled into FFTW, so you need to set
240 this at compile time.
241
242 ### MKL ###
243
244 Using MKL with the Intel Compilers version 11 or higher is very
245 simple. Set up your compiler environment correctly, perhaps with a
246 command like `source /path/to/compilervars.sh intel64` (or consult
247 your local documentation). Then set `-DGMX_FFT_LIBRARY=mkl` when you
248 run cmake. In this case, GROMACS will also use MKL for BLAS and LAPACK
249 (see
250 [linear algebra libraries](#linear-algebra-libraries)). Generally,
251 there is no advantage in using MKL with GROMACS, and FFTW is often
252 faster.
253
254 Otherwise, you can get your hands dirty and configure MKL by setting
255
256     -DGMX_FFT_LIBRARY=mkl
257     -DMKL_LIBRARIES="/full/path/to/libone.so;/full/path/to/libtwo.so"
258     -DMKL_INCLUDE_DIR="/full/path/to/mkl/include"
259
260 where the full list (and order!) of libraries you require are found in
261 Intel's MKL documentation for your system.
262
263 ## Optional build components ##
264
265 * Compiling to run on NVIDIA GPUs requires CUDA
266 * An external Boost library can be used to provide better
267   implementation support for smart pointers and exception handling,
268   but the GROMACS source bundles a subset of Boost 1.55.0 as a fallback
269 * Hardware-optimized BLAS and LAPACK libraries are useful
270   for a few of the GROMACS utilities focused on normal modes and
271   matrix manipulation, but they do not provide any benefits for normal
272   simulations. Configuring these are discussed at
273   [linear algebra libraries](#linear-algebra-libraries).
274 * The built-in GROMACS trajectory viewer `gmx view` requires X11 and
275   Motif/Lesstif libraries and header files. You may prefer to use
276   third-party software for visualization, such as
277   [VMD](http://www.ks.uiuc.edu/Research/vmd) or
278   [PyMOL](http://www.pymol.org).
279 * An external TNG library for trajectory-file handling can be used,
280   but TNG 1.6 is bundled in the GROMACS source already
281 * zlib is used by TNG for compressing some kinds of trajectory data
282 * Running the GROMACS test suite requires libxml2
283 * Building the GROMACS documentation requires ImageMagick, pdflatex,
284   bibtex, doxygen and pandoc.
285 * The GROMACS utility programs often write data files in formats
286   suitable for the Grace plotting tool, but it is straightforward to
287   use these files in other plotting programs, too.
288
289 # Doing a build of GROMACS #
290
291 This section will cover a general build of GROMACS with CMake, but it
292 is not an exhaustive discussion of how to use CMake. There are many
293 resources available on the web, which we suggest you search for when
294 you encounter problems not covered here. The material below applies
295 specifically to builds on Unix-like systems, including Linux, and Mac
296 OS X. For other platforms, see the specialist instructions below.
297
298 ## Configuring with CMake ##
299
300 CMake will run many tests on your system and do its best to work out
301 how to build GROMACS for you. If your build machine is the same as
302 your target machine, then you can be sure that the defaults will be
303 pretty good. The build configuration will for instance attempt to
304 detect the specific hardware instructions available in your
305 processor. However, if you want to control aspects of the build, or
306 you are compiling on a cluster head node for back-end nodes with a
307 different architecture, there are plenty of things you can set
308 manually.
309
310 The best way to use CMake to configure GROMACS is to do an
311 "out-of-source" build, by making another directory from which you will
312 run CMake. This can be outside the source directory, or a subdirectory
313 of it. It also means you can never corrupt your source code by trying
314 to build it! So, the only required argument on the CMake command line
315 is the name of the directory containing the `CMakeLists.txt` file of
316 the code you want to build. For example, download the source tarball
317 and use
318
319     $ tar xfz gromacs-@PROJECT_VERSION@.tgz
320     $ cd gromacs-@PROJECT_VERSION@
321     $ mkdir build-gromacs
322     $ cd build-gromacs
323     $ cmake ..
324
325 You will see `cmake` report a sequence of results of tests and
326 detections done by the GROMACS build system. These are written to the
327 `cmake` cache, kept in `CMakeCache.txt`. You can edit this file by
328 hand, but this is not recommended because you could make a mistake.
329 You should not attempt to move or copy this file to do another build,
330 because file paths are hard-coded within it. If you mess things up,
331 just delete this file and start again with `cmake`.
332
333 If there is a serious problem detected at this stage, then you will see
334 a fatal error and some suggestions for how to overcome it. If you are
335 not sure how to deal with that, please start by searching on the web
336 (most computer problems already have known solutions!) and then
337 consult the gmx-users mailing list. There are also informational
338 warnings that you might like to take on board or not. Piping the
339 output of `cmake` through `less` or `tee` can be
340 useful, too.
341
342 Once `cmake` returns, you can see all the settings that were chosen
343 and information about them by using e.g. the curses interface
344
345     $ ccmake ..
346
347 You can actually use `ccmake` (available on most Unix platforms,
348 if the curses library is supported) directly in the first step, but then
349 most of the status messages will merely blink in the lower part
350 of the terminal rather than be written to standard out. Most platforms
351 including Linux, Windows, and Mac OS X even have native graphical user interfaces for
352 `cmake`, and it can create project files for almost any build environment
353 you want (including Visual Studio or Xcode).
354 Check out <http://www.cmake.org/cmake/help/runningcmake.html> for
355 general advice on what you are seeing and how to navigate and change
356 things. The settings you might normally want to change are already
357 presented. You may make changes, then re-configure (using `c`), so that it
358 gets a chance to make changes that depend on yours and perform more
359 checking. It may take several configuration passes to reach the desired
360 configuration, in particular if you need to resolve errors.
361
362 A key thing to consider here is the setting of
363 `CMAKE_INSTALL_PREFIX`. You will need to be able to write to this
364 directory in order to install GROMACS later, and if you change your
365 mind later, changing it in the cache triggers a full re-build,
366 unfortunately. So if you do not have super-user privileges on your
367 machine, then you will need to choose a sensible location within your
368 home directory for your GROMACS installation. Even if you do have
369 super-user privileges, you should use them only for the installation
370 phase, and never for configuring, building, or running GROMACS!
371
372 When you have reached the desired configuration with `ccmake`, the
373 build system can be generated by pressing `g`.  This requires that the previous
374 configuration pass did not reveal any additional settings (if it did, you need
375 to configure once more with `c`).  With `cmake`, the build system is generated
376 after each pass that does not produce errors.
377
378 You cannot attempt to change compilers after the initial run of
379 `cmake`. If you need to change, clean up, and start again.
380
381 ### Using CMake command-line options ###
382
383 Once you become comfortable with setting and changing options, you may
384 know in advance how you will configure GROMACS. If so, you can speed
385 things up by invoking `cmake` and passing the various options at once
386 on the command line. This can be done by setting cache variable at the
387 cmake invocation using the `-DOPTION=VALUE`; note that some
388 environment variables are also taken into account, in particular
389 variables like CC, CXX, FCC (which may be familiar to autoconf users).
390
391 For example, the following command line
392
393     $ cmake .. -DGMX_GPU=ON -DGMX_MPI=ON -DCMAKE_INSTALL_PREFIX=/home/marydoe/programs
394
395 can be used to build with GPUs, MPI and install in a custom
396 location. You can even save that in a shell script to make it even
397 easier next time. You can also do this kind of thing with `ccmake`,
398 but you should avoid this, because the options set with `-D` will not
399 be able to be changed interactively in that run of `ccmake`.
400
401 ### SIMD support ###
402
403 GROMACS has extensive support for detecting and using the SIMD
404 capabilities of many modern HPC CPU architectures. If you are building
405 GROMACS on the same hardware you will run it on, then you don't need
406 to read more about this, unless you are getting configuration warnings
407 you do not understand. By default, the GROMACS build system will
408 detect the SIMD instruction set supported by the CPU architecture (on
409 which the configuring is done), and thus pick the best
410 available SIMD parallelization supported by GROMACS. The build system
411 will also check that the compiler and linker used also support the
412 selected SIMD instruction set and issue a fatal error if they
413 do not.
414
415 Valid values are listed below, and the
416 applicable value lowest on the list is generally the one you should
417 choose:
418
419 1. `None` For use only on an architecture either lacking SIMD,
420   or to which GROMACS has not yet been ported and none of the
421   options below are applicable.
422 2. `SSE2` This SIMD instruction set was introduced in Intel
423    processors in 2001, and AMD in 2003. Essentially all x86
424    machines in existence have this, so it might be a good choice if
425    you need to support dinosaur x86 computers too.
426 3. `SSE4.1` Present in all Intel core processors since 2007,
427    but notably not in AMD magny-cours. Still, almost all recent
428    processors support this, so this can also be considered a good
429    baseline if you are content with portability between reasonably
430    modern processors.
431 4. `AVX_128_FMA` AMD bulldozer processors (2011) have this.
432    Unfortunately Intel and AMD have diverged the last few years;
433    If you want good performance on modern AMD processors
434    you have to use this since it also allows the reset of the
435    code to use AMD 4-way fused multiply-add instructions. The drawback
436    is that your code will not run on Intel processors at all.
437 5. `AVX_256` This instruction set is present on Intel processors
438    since Sandy Bridge (2011), where it is the best choice unless
439    you have an even more recent CPU that supports AVX2. While this
440    code will work on recent AMD processors, it is significantly
441    less efficient than the AVX_128_FMA choice above - do not be
442    fooled to assume that 256 is better than 128 in this case.
443 6. `AVX2_256` Present on Intel Haswell processors released in 2013,
444    and it will also enable Intel 3-way fused multiply-add instructions.
445    This code will not work on AMD CPUs.
446 7. `IBM_QPX ` BlueGene/Q A2 cores have this.
447 8. `Sparc64_HPC_ACE` Fujitsu machines like the K computer have this.
448
449 The CMake configure system will check that the compiler you have
450 chosen can target the architecture you have chosen. `mdrun` will check
451 further at runtime, so if in doubt, choose the lowest setting you
452 think might work, and see what `mdrun` says. The configure system also
453 works around many known issues in many versions of common HPC
454 compilers. However, since the options also enable general compiler
455 flags for the platform in question, you can end up in situations
456 where e.g. an `AVX_128_FMA` binary will just crash on any
457 Intel machine, since the code will try to execute general illegal
458 instructions (inserted by the compiler) before `mdrun` gets to the
459 architecture detection routines.
460
461 A further `GMX_SIMD=Reference` option exists, which is a special
462 SIMD-like implementation written in plain C that developers can use
463 when developing support in GROMACS for new SIMD architectures. It is
464 not designed for use in production simulations, but if you are using
465 an architecture with SIMD support to which GROMACS has not yet been
466 ported, you may wish to try this option instead of the default
467 `GMX_SIMD=None`, as it can often out-perform this when the
468 auto-vectorization in your compiler does a good job. And post on the
469 GROMACS mailing lists, because GROMACS can probably be ported for new
470 SIMD architectures in a few days.
471
472 ### CMake advanced options ###
473
474 The options that are displayed in the default view of `ccmake` are
475 ones that we think a reasonable number of users might want to consider
476 changing. There are a lot more options available, which you can see by
477 toggling the advanced mode in `ccmake` on and off with `t`. Even
478 there, most of the variables that you might want to change have a
479 `CMAKE_` or `GMX_` prefix. There are also some options that will be
480 visible or not according to whether their preconditions are satisfied.
481
482 ### Helping CMake find the right libraries/headers/programs ###
483
484 If libraries are installed in non-default locations their location can
485 be specified using the following environment variables:
486
487 * `CMAKE_INCLUDE_PATH` for header files
488 * `CMAKE_LIBRARY_PATH` for libraries
489 * `CMAKE_PREFIX_PATH` for header, libraries and binaries
490   (e.g. `/usr/local`).
491
492 The respective `include`, `lib`, or `bin` is
493 appended to the path. For each of these variables, a list of paths can
494 be specified (on Unix, separated with ":"). Note that these are
495 enviroment variables (and not `cmake` command-line arguments) and in
496 a `bash` shell are used like:
497
498     $ CMAKE_PREFIX_PATH=/opt/fftw:/opt/cuda cmake ..
499
500 Alternatively, these variables are also `cmake` options, so they can
501 be set like `-DCMAKE_PREFIX_PATH=/opt/fftw:/opt/cuda`.
502
503 The `CC` and `CXX` environment variables are also useful
504 for indicating to `cmake` which compilers to use, which can be very
505 important for maximising GROMACS performance. Similarly,
506 `CFLAGS`/`CXXFLAGS` can be used to pass compiler
507 options, but note that these will be appended to those set by
508 GROMACS for your build platform and build type. You can customize
509 some of this with advanced options such as `CMAKE_C_FLAGS`
510 and its relatives.
511
512 See also: <http://cmake.org/Wiki/CMake_Useful_Variables#Environment_Variables>
513
514 ### Native GPU acceleration ###
515 If you have the CUDA Toolkit installed, you can use `cmake` with:
516
517     $ cmake .. -DGMX_GPU=ON -DCUDA_TOOLKIT_ROOT_DIR=/usr/local/cuda
518
519 (or whichever path has your installation). In some cases, you might
520 need to specify manually which of your C++ compilers should be used,
521 e.g. with the advanced option `CUDA_HOST_COMPILER`.
522
523 The GPU acceleration has been tested on AMD64/x86-64 platforms with
524 Linux, Mac OS X and Windows operating systems, but Linux is the
525 best-tested and supported of these. Linux running on ARM v7 (32 bit)
526 CPUs also works.
527
528 ### Static linking ###
529 Dynamic linking of the GROMACS executables will lead to a
530 smaller disk footprint when installed, and so is the default on
531 platforms where we believe it has been tested repeatedly and found to work.
532 In general, this includes Linux, Windows, Mac OS X and BSD systems.
533 Static binaries take much more space, but on some hardware and/or under
534 some conditions they are necessary, most commonly when you are running a parallel
535 simulation using MPI libraries (e.g. BlueGene, Cray).
536
537 * To link GROMACS binaries
538 statically against the internal GROMACS libraries, set
539 `-DBUILD_SHARED_LIBS=OFF`.
540 * To link statically against external (non-system) libraries as well,
541 the `-DGMX_PREFER_STATIC_LIBS=ON` option can be used. Note, that in
542 general `cmake` picks up whatever is available, so this option only
543 instructs `cmake` to prefer static libraries when both static and
544 shared are available. If no static version of an external library is
545 available, even when the aforementioned option is `ON`, the shared
546 library will be used. Also note, that the resulting binaries will
547 still be dynamically linked against system libraries on platforms
548 where that is the default. To use static system libraries, additional
549 compiler/linker flags are necessary, e.g. `-static-libgcc
550 -static-libstdc++`.
551
552 ### Portability aspects ###
553
554 Here, we consider portability aspects related to CPU instruction sets,
555 for details on other topics like binaries with statical vs dynamic
556 linking please consult the relevant parts of this documentation or
557 other non-GROMACS specific resources.
558
559 A GROMACS build will normally not be portable, not even across
560 hardware with the same base instruction set like x86. Non-portable
561 hardware-specific optimizations are selected at configure-time, such
562 as the SIMD instruction set used in the compute-kernels. This
563 selection will be done by the build system based on the capabilities
564 of the build host machine or based on cross-compilation information
565 provided to `cmake` at configuration.
566
567 Often it is possible to ensure portability by choosing the least
568 common denominator of SIMD support, e.g. SSE2 for x86, and ensuring
569 the you use `cmake -DGMX_USE_RDTSCP=off` if any of the target CPU
570 architectures does not support the `RDTSCP` instruction.  However, we
571 discourage attempts to use a single GROMACS installation when the
572 execution environment is heterogeneous, such as a mix of AVX and
573 earlier hardware, because this will lead to programs (especially
574 `mdrun`) that run slowly on the new hardware. Building two full
575 installations and locally managing how to call the correct one
576 (e.g. using the module system) is the recommended
577 approach. Alternatively, as at the moment the GROMACS tools do not
578 make strong use of SIMD acceleration, it can be convenient to create
579 an installation with tools portable across different x86 machines, but
580 with separate `mdrun` binaries for each architecture. To achieve this,
581 one can first build a full installation with the
582 least-common-denominator SIMD instruction set, e.g. `-DGMX_SIMD=SSE2`,
583 then build separate `mdrun` binaries for each architecture present in
584 the heterogeneous environment. By using custom binary and library
585 suffixes for the `mdrun`-only builds, these can be installed to the
586 same location as the "generic" tools installation. Building [only the
587 `mdrun` binary](#building-only-mdrun) is possible by setting the `-DGMX_BUILD_MDRUN_ONLY=ON`
588 option.
589
590 ### Linear algebra libraries ###
591
592 As mentioned above, sometimes vendor BLAS and LAPACK libraries
593 can provide performance enhancements for GROMACS when doing
594 normal-mode analysis or covariance analysis. For simplicity, the text
595 below will refer only to BLAS, but the same options are available
596 for LAPACK. By default, CMake will search for BLAS, use it if it
597 is found, and otherwise fall back on a version of BLAS internal to
598 GROMACS. The `cmake` option `-DGMX_EXTERNAL_BLAS=on` will be set
599 accordingly. The internal versions are fine for normal use. If you
600 need to specify a non-standard path to search, use
601 `-DCMAKE_PREFIX_PATH=/path/to/search`. If you need to specify a
602 library with a non-standard name (e.g. ESSL on AIX or BlueGene), then
603 set `-DGMX_BLAS_USER=/path/to/reach/lib/libwhatever.a`.
604
605 If you are using Intel MKL for FFT, then the BLAS and
606 LAPACK it provides are used automatically. This could be
607 over-ridden with `GMX_BLAS_USER`, etc.
608
609 On Apple platforms where the Accelerate Framework is available, these
610 will be automatically used for BLAS and LAPACK. This could be
611 over-ridden with `GMX_BLAS_USER`, etc.
612
613 ### Changing the names of GROMACS binaries and libraries ###
614
615 It is sometimes convenient to have different versions of the same
616 GROMACS programs installed. The most common use cases have been single
617 and double precision, and with and without MPI. This mechanism can
618 also be used to install side-by-side multiple versions of `mdrun`
619 optimized for different CPU architectures, as mentioned previously.
620
621 By default, GROMACS will suffix programs and libraries for such builds
622 with `_d` for double precision and/or `_mpi` for MPI (and nothing
623 otherwise). This can be controlled manually with `GMX_DEFAULT_SUFFIX
624 (ON/OFF)`, `GMX_BINARY_SUFFIX` (takes a string) and `GMX_LIBS_SUFFIX`
625 (also takes a string). For instance, to set a custom suffix for
626 programs and libraries, one might specify:
627
628     cmake .. -DGMX_DEFAULT_SUFFIX=OFF -DGMX_BINARY_SUFFIX=_mod -DGMX_LIBS_SUFFIX=_mod
629
630 Thus the names of all programs and libraries will be appended with
631 `_mod`.
632
633 ### Changing installation tree structure ###
634
635 By default, a few different directories under `CMAKE_INSTALL_PREFIX` are used
636 when when GROMACS is installed. Some of these can be changed, which is mainly
637 useful for packaging GROMACS for various distributions. The directories are
638 listed below, with additional notes about some of them. Unless otherwise noted,
639 the directories can be renamed by editing the installation paths in the main
640 CMakeLists.txt.
641
642 `bin/`
643   : The standard location for executables, some scripts, and some symlinks.
644     Some of the scripts hardcode the absolute installation prefix, which needs
645     to be changed if the scripts are relocated.
646 `include/gromacs/`
647   : The standard location for installed headers.
648 `lib/`
649   : The standard location for libraries. The default depends on the system, and
650     is determined by CMake.
651     The name of the directory can be changed using `GMX_LIB_INSTALL_DIR` CMake
652     variable.
653 `lib/pkgconfig/`
654   : Information about the installed `libgromacs` library for `pkg-config` is
655     installed here.  The `lib/` part adapts to the installation location of the
656     libraries.  The installed files contain the installation prefix as absolute
657     paths.
658 `share/cmake/`
659   : CMake package configuration files are installed here.
660 `share/gromacs/`
661   : Various data files and some documentation go here.
662     The `gromacs` part can be changed using `GMX_DATA_INSTALL_DIR`. Using this
663     CMake variable is the preferred way of changing the installation path for
664     `share/gromacs/top/`, since the path to this directory is built into
665     `libgromacs` as well as some scripts, both as a relative and as an absolute
666     path (the latter as a fallback if everything else fails).
667 `share/man/`
668   : Installed man pages go here.
669
670 ## Compiling and linking ##
671
672 Once you have configured with `cmake`, you can build GROMACS with `make`.
673 It is expected that this will always complete successfully, and
674 give few or no warnings. The CMake-time tests GROMACS makes on the settings
675 you choose are pretty extensive, but there are probably a few cases we
676 have not thought of yet. Search the web first for solutions to
677 problems, but if you need help, ask on gmx-users, being sure to
678 provide as much information as possible about what you did, the system
679 you are building on, and what went wrong. This may mean scrolling back
680 a long way through the output of `make` to find the first error
681 message!
682
683 If you have a multi-core or multi-CPU machine with `N`
684 processors, then using
685
686     $ make -j N
687
688 will generally speed things up by quite a bit. Other build generator systems
689 supported by `cmake` (e.g. `ninja`) also work well.
690
691 ### Building only mdrun ###
692
693 Past versions of the build system offered "mdrun" and "install-mdrun"
694 targets (similarly for other programs too) to build and install only
695 the mdrun program, respectively. Such a build is useful when the
696 configuration is only relevant for `mdrun` (such as with
697 parallelization options for MPI, SIMD, GPUs, or on BlueGene or Cray),
698 or the length of time for the compile-link-install cycle is relevant
699 when developing.
700
701 This is now supported with the `cmake` option
702 `-DGMX_BUILD_MDRUN_ONLY=ON`, which will build a cut-down version of
703 `libgromacs` and/or the `mdrun` program (according to whether shared
704 or static). Naturally, now `make install` installs only those
705 products. By default, mdrun-only builds will default to static linking
706 against GROMACS libraries, because this is generally a good idea for
707 the targets for which an mdrun-only build is desirable. If you re-use
708 a build tree and change to the mdrun-only build, then you will inherit
709 the setting for `BUILD_SHARED_LIBS` from the old build, and will be
710 warned that you may wish to manage `BUILD_SHARED_LIBS` yourself.
711
712 ## Installing GROMACS ##
713
714 Finally, `make install` will install GROMACS in the
715 directory given in `CMAKE_INSTALL_PREFIX`. If this is a system
716 directory, then you will need permission to write there, and you
717 should use super-user privileges only for `make install` and
718 not the whole procedure.
719
720 ## Getting access to GROMACS after installation ##
721
722 GROMACS installs the script `GMXRC` in the `bin`
723 subdirectory of the installation directory
724 (e.g. `/usr/local/gromacs/bin/GMXRC`), which you should source
725 from your shell:
726
727     $ source /your/installation/prefix/here/bin/GMXRC
728
729 It will detect what kind of shell you are running and set up your
730 environment for using GROMACS. You may wish to arrange for your
731 login scripts to do this automatically; please search the web for
732 instructions on how to do this for your shell. 
733
734 Many of the GROMACS programs rely on data installed in the
735 `share/gromacs` subdirectory of the installation directory. By
736 default, the programs will use the environment variables set in the
737 `GMXRC` script, and if this is not available they will try to guess the
738 path based on their own location.  This usually works well unless you
739 change the names of directories inside the install tree. If you still
740 need to do that, you might want to recompile with the new install
741 location properly set, or edit the `GMXRC` script.
742
743 ## Testing GROMACS for correctness ##
744
745 Since 2011, the GROMACS development uses an automated system where
746 every new code change is subject to regression testing on a number of
747 platforms and software combinations. While this improves
748 reliability quite a lot, not everything is tested, and since we
749 increasingly rely on cutting edge compiler features there is
750 non-negligible risk that the default compiler on your system could
751 have bugs. We have tried our best to test and refuse to use known bad
752 versions in `cmake`, but we strongly recommend that you run through
753 the tests yourself. It only takes a few minutes, after which you can
754 trust your build.
755
756 The simplest way to run the checks is to build GROMACS with
757 `-DREGRESSIONTEST_DOWNLOAD`, and run `make check`.
758 GROMACS will automatically download and run the tests for you.
759 Alternatively, you can download and unpack the tarball yourself from
760 <http://gerrit.gromacs.org/download/regressiontests-@REGRESSIONTEST_VERSION@.tar.gz>,
761 and use the advanced `cmake` option `REGRESSIONTEST_PATH` to
762 specify the path to the unpacked tarball, which will then be used for
763 testing. If the above does not work, then please read on.
764
765 The regression tests are available from the GROMACS website and ftp
766 site.  Once you have downloaded them, unpack the tarball, source
767 `GMXRC` as described above, and run `./gmxtest.pl all`
768 inside the regression tests folder. You can find more options
769 (e.g. adding `double` when using double precision, or
770 `-only expanded` to run just the tests whose names match
771 "expanded") if you just execute the script without options.
772
773 Hopefully, you will get a report that all tests have passed. If there
774 are individual failed tests it could be a sign of a compiler bug, or
775 that a tolerance is just a tiny bit too tight. Check the output files
776 the script directs you too, and try a different or newer compiler if
777 the errors appear to be real. If you cannot get it to pass the
778 regression tests, you might try dropping a line to the gmx-users
779 mailing list, but then you should include a detailed description of
780 your hardware, and the output of `mdrun -version` (which contains
781 valuable diagnostic information in the header).
782
783 A build with `-DGMX_BUILD_MDRUN_ONLY` cannot be tested with
784 `make check` from the build tree, because most of the tests
785 require a full build to run things like `grompp`. To test such an
786 mdrun fully requires installing it to the same location as a normal
787 build of GROMACS, downloading the regression tests tarball manually
788 as described above, sourcing the correct `GMXRC` and running the
789 perl script manually. For example, from your GROMACS source
790 directory:
791
792     $ mkdir build-normal
793     $ cd build-normal
794     $ cmake .. -DCMAKE_INSTALL_PREFIX=/your/installation/prefix/here
795     $ make -j 4
796     $ make install
797     $ cd ..
798     $ mkdir build-mdrun-only
799     $ cd build-mdrun-only
800     $ cmake .. -DGMX_MPI=ON -DGMX_GPU=ON -DGMX_BUILD_MDRUN_ONLY=ON -DCMAKE_INSTALL_PREFIX=/your/installation/prefix/here
801     $ make -j 4
802     $ make install
803     $ cd /to/your/unpacked/regressiontests
804     $ source /your/installation/prefix/here/bin/GMXRC
805     $ ./gmxtest.pl all -np 2
806
807 If your `mdrun` program has been suffixed in a non-standard way, then
808 the `./gmxtest.pl -mdrun` option will let you specify that name to the
809 test machinery. You can use `./gmxtest.pl -double` to test the
810 double-precision version. You can use `./gmxtest.pl -crosscompiling`
811 to stop the test harness attempting to check that the programs can
812 be run.
813
814
815 ## Testing GROMACS for performance ##
816 We are still working on a set of benchmark systems for testing
817 the performance of GROMACS. Until that is ready, we recommend that
818 you try a few different parallelization options, and experiment with
819 tools such as `gmx tune_pme`.
820
821 ## Having difficulty? ##
822 You are not alone - this can be a complex task! If you encounter a
823 problem with installing GROMACS, then there are a number of
824 locations where you can find assistance. It is recommended that you
825 follow these steps to find the solution:
826
827 1. Read the installation instructions again, taking note that you
828    have followed each and every step correctly.
829
830 2. Search the GROMACS website and users emailing list for information
831    on the error. Adding
832    "site:https://mailman-1.sys.kth.se/pipermail/gromacs.org_gmx-users"
833    to a Google search may help filter better results.
834
835 3. Search the internet using a search engine such as Google.
836
837 4. Post to the GROMACS users emailing list gmx-users for
838    assistance. Be sure to give a full description of what you have
839    done and why you think it did not work. Give details about the
840    system on which you are installing.  Copy and paste your command
841    line and as much of the output as you think might be relevant -
842    certainly from the first indication of a problem. In particular,
843    please try to include at least the header from the mdrun logfile,
844    and preferably the entire file.  People who might volunteer to help
845    you do not have time to ask you interactive detailed follow-up
846    questions, so you will get an answer faster if you provide as much
847    information as you think could possibly help. High quality bug
848    reports tend to receive rapid high quality answers.
849
850 # Special instructions for some platforms #
851
852 ## Building on Windows ##
853
854 Building on Windows using native compilers is rather similar to
855 building on Unix, so please start by reading the above. Then, download
856 and unpack the GROMACS source archive. Make a folder in which to do
857 the out-of-source build of GROMACS. For example, make it within the
858 folder unpacked from the source archive, and call it `build-gromacs`.
859
860 For CMake, you can either use the graphical user interface provided on
861 Windows, or you can use a command line shell with instructions similar
862 to the UNIX ones above. If you open a shell from within your IDE
863 (e.g. Microsoft Visual Studio), it will configure the environment for
864 you, but you might need to tweak this in order to get either a 32-bit
865 or 64-bit build environment. The latter provides the fastest
866 executable. If you use a normal Windows command shell, then you will
867 need to either set up the environment to find your compilers and
868 libraries yourself, or run the `vcvarsall.bat` batch script provided
869 by MSVC (just like sourcing a bash script under Unix).
870
871 With the graphical user interface, you will be asked about what
872 compilers to use at the initial configuration stage, and if you use
873 the command line they can be set in a similar way as under UNIX. You
874 will probably make your life easier and faster by using the new
875 facility to download and install FFTW automatically.
876
877 For the build, you can either load the generated solutions file into
878 e.g. Visual Studio, or use the command line with `cmake --build` so
879 the right tools get used.
880
881 ## Building on Cray ##
882
883 GROMACS builds mostly out of the box on modern Cray machines, but
884 * you may need to specify the use of static or dynamic libraries
885   (depending on the machine) with `-DBUILD_SHARED_LIBS=off`,
886 * you may need to set the F77 environmental variable to `ftn` when
887   compiling FFTW,
888 * you may need to use `-DCMAKE_SKIP_RPATH=YES`, and
889 * you may need to modify the CMakeLists.txt files to specify the
890   `BUILD_SEARCH_END_STATIC` target property.
891
892 ## Building on BlueGene ##
893
894 ### BlueGene/Q ###
895
896 There is currently native acceleration on this platform for the Verlet
897 cut-off scheme. There are no plans to provide accelerated kernels for
898 the group cut-off scheme, but the default plain C kernels will work
899 (slowly).
900
901 Only static linking with XL compilers is supported by GROMACS. Dynamic
902 linking would be supported by the architecture and GROMACS, but has no
903 advantages other than disk space, and is generally discouraged on
904 BlueGene for performance reasons.
905
906 Computation on BlueGene floating-point units is always done in
907 double-precision. However, mixed-precision builds of GROMACS are still
908 normal and encouraged since they use cache more efficiently. The
909 BlueGene hardware automatically converts values stored in single
910 precision in memory to double precision in registers for computation,
911 converts the results back to single precision correctly, and does so
912 for no additional cost. As with other platforms, doing the whole
913 computation in double precision normally shows no improvement in
914 accuracy and costs twice as much time moving memory around.
915
916 You need to arrange for FFTW to be installed correctly, following the
917 above instructions.
918
919 MPI wrapper compilers should be used for compiling and linking. Both
920 xlc and bgclang are supported back ends - either might prove to be
921 faster in practice. The MPI wrapper compilers can make it awkward to
922 attempt to use IBM's optimized BLAS/LAPACK called ESSL (see the
923 section on [linear algebra
924 libraries](#linear-algebra-libraries)). Since mdrun is the only part
925 of GROMACS that should normally run on the compute nodes, and there is
926 nearly no need for linear algebra support for mdrun, it is recommended
927 to use the GROMACS built-in linear algebra routines - this is never
928 a problem for normal simulations.
929
930 The recommended configuration is to use
931
932     cmake .. -DCMAKE_C_COMPILER=mpicc \
933              -DCMAKE_CXX_COMPILER=mpicxx \
934              -DCMAKE_TOOLCHAIN_FILE=Platform/BlueGeneQ-static-XL-CXX.cmake \
935              -DCMAKE_PREFIX_PATH=/your/fftw/installation/prefix \
936              -DGMX_MPI=ON \
937              -DGMX_BUILD_MDRUN_ONLY=ON
938     make
939     make install
940
941 which will build a statically-linked MPI-enabled mdrun for the compute
942 nodes. Or use the Platform/BlueGeneQ-static-bgclang-cxx
943 toolchain file if compiling with bgclang. Otherwise, GROMACS default configuration
944 behaviour applies.
945
946 It is possible to configure and make the remaining GROMACS tools with
947 the compute-node toolchain, but as none of those tools are MPI-aware
948 and could then only run on the compute nodes, this would not normally
949 be useful. Instead, these should be planned to run on the login node,
950 and a separate GROMACS installation performed for that using the login
951 node's toolchain - not the above platform file, or any other
952 compute-node toolchain.
953
954 Note that only the MPI build is available for the compute-node
955 toolchains. The GROMACS thread-MPI or no-MPI builds are not useful at
956 all on BlueGene/Q.
957
958 ### BlueGene/P ###
959
960 There is currently no SIMD support on this platform and no plans to
961 add it. The default plain C kernels will work.
962
963 ### Fujitsu PRIMEHPC ###
964
965 This is the architecture of the K computer, which uses Fujitsu
966 `Sparc64VIIIfx` chips. On this platform, GROMACS @PROJECT_VERSION@ has
967 accelerated group kernels using the HPC-ACE instructions, no
968 accelerated Verlet kernels, and a custom build toolchain. Since this
969 particular chip only does double precision SIMD, the default setup
970 is to build Gromacs in double. Since most users only need single, we have added
971 an option GMX_RELAXED_DOUBLE_PRECISION to accept single precision square root
972 accuracy in the group kernels; unless you know that you really need 15 digits
973 of accuracy in each individual force, we strongly recommend you use this. Note
974 that all summation and other operations are still done in double.
975
976 The recommended configuration is to use
977
978     cmake .. -DCMAKE_TOOLCHAIN_FILE=Toolchain-Fujitsu-Sparc64-mpi.cmake \
979              -DCMAKE_PREFIX_PATH=/your/fftw/installation/prefix \
980              -DCMAKE_INSTALL_PREFIX=/where/gromacs/should/be/installed \
981              -DGMX_MPI=ON \
982              -DGMX_BUILD_MDRUN_ONLY=ON \
983              -DGMX_RELAXED_DOUBLE_PRECISION=ON
984     make
985     make install
986
987 ### Intel Xeon Phi ###
988
989 GROMACS @PROJECT_VERSION@ has preliminary support for Intel Xeon Phi. Only symmetric
990 (aka native) mode is supported. GROMACS is functional on Xeon Phi, but
991 it has so far not been optimized to the same level as other
992 architectures have. The performance depends among other factors on the
993 system size, and for
994 now the performance might not be faster than CPUs. Building for Xeon
995 Phi works almost as any other Unix. See the instructions above for
996 details. The recommended configuration is
997
998     cmake .. -DCMAKE_TOOLCHAIN_FILE=Platform/XeonPhi
999     make
1000     make install
1001
1002 # Tested platforms #
1003
1004 While it is our best belief that GROMACS will build and run pretty
1005 much everywhere, it is important that we tell you where we really know
1006 it works because we have tested it. We do test on Linux, Windows, and
1007 Mac with a range of compilers and libraries for a range of our
1008 configuration options. Every commit in our git source code repository
1009 is currently tested on x86 with gcc versions ranging from 4.4 through
1010 4.7, and versions 12 and 13 of the Intel compiler as well as Clang
1011 version 3.1 through 3.4. For this, we use a variety of GNU/Linux
1012 flavors and versions as well as recent version of Mac OS X.  Under
1013 Windows we test both MSVC and the Intel compiler. For details, you can
1014 have a look at the continuous integration server at
1015 <http://jenkins.gromacs.org>.
1016
1017 We test irregularly on ARM v7, BlueGene/Q, Cray, Fujitsu PRIMEHPC, Google
1018 Native Client and other environments, and with other compilers and
1019 compiler versions, too.