Add recommendation of how to compile with MPI
authorRoland Schulz <roland.schulz@intel.com>
Sat, 2 Feb 2019 05:01:03 +0000 (21:01 -0800)
committerRoland Schulz <roland.schulz@intel.com>
Sat, 2 Feb 2019 05:01:03 +0000 (21:01 -0800)
Reason for recommendation: reproducible build.

Change-Id: Ib61e71c006cb0d6c852029667cf16696912a712f

docs/install-guide/index.rst

index 94a6e53905713ff741b1f82ad3ca2a6a293c46c1..fc7e8c93be4c50e30162986e4fc7bcf445422463 100644 (file)
@@ -55,7 +55,7 @@ Quick and dirty cluster installation
 
 On a cluster where users are expected to be running across multiple
 nodes using MPI, make one installation similar to the above, and
-another using an MPI wrapper compiler and which is `building only
+another using ``-DGMX_MPI=on`` and which is `building only
 mdrun`_, because that is the only component of |Gromacs| that uses
 MPI. The latter will install a single simulation engine binary,
 i.e. ``mdrun_mpi`` when the default suffix is used. Hence it is safe
@@ -228,6 +228,11 @@ you will need to have
   standard, and
 * wrapper compilers that will compile code using that library.
 
+To compile with MPI set your compiler to the normal (non-MPI) compiler
+and add ``-DGMX_MPI=on`` to the cmake options. It is possible to set
+the compiler to the MPI compiler wrapper but it is neither necessary
+nor recommended.
+
 The |Gromacs| team recommends OpenMPI_ version
 1.6 (or higher), MPICH_ version 1.4.1 (or
 higher), or your hardware vendor's MPI installation. The most recent