Merge branch 'release-4-6'
[alexxy/gromacs.git] / admin / installguide / installguide.tex
index 2f6606745677e44c68428419c6bc2e71b5596226..91d4b1dd8a170c76a002fd6c9c80b12e1ba28be7 100644 (file)
@@ -28,7 +28,6 @@
 \newcommand{\threadmpi}{ThreadMPI}
 \newcommand{\openmpi}{OpenMPI}
 \newcommand{\openmp}{OpenMP}
-\newcommand{\openmm}{OpenMM}
 \newcommand{\lammpi}{LAM/MPI}
 \newcommand{\mpich}{MPICH}
 \newcommand{\cmake}{CMake}
@@ -145,17 +144,6 @@ If you wish to use the excellent new native GPU support in \gromacs,
 version is strongly encouraged. \nvidia{} GPUs with at least \nvidia{} compute
 capability 2.0 are required, e.g. Fermi or Kepler cards.
 
-The GPU support from \gromacs{} version 4.5 using \openmm{}
-\url{https://simtk.org/home/openmm} is still contained in the code,
-but in the ``user contributions'' section (\verb+src/contrib+). You
-will need to set
-\verb+-DGMX_OPENMM=on -DGMX_GPU=off -DGMX_MPI=off
--DGMX_THREAD_MPI=off\+ in order to build it. It also requires \cuda{},
-and remains the only hardware-based acceleration available for
-implicit solvent simulations in \gromacs{} at the moment. However, the
-long-term plan is to enable this functionality in core Gromacs, and
-not have the OpenMM interface supported by the \gromacs team.
-
 If you wish to run in parallel on multiple machines across a network,
 you will need to have
 \begin{itemize}
@@ -733,9 +721,10 @@ The recommended configuration is to use
 \begin{verbatim}
 cmake .. -DCMAKE_TOOLCHAIN_FILE=Platform/BlueGeneQ-static-XL-CXX \
          -DCMAKE_PREFIX_PATH=/your/fftw/installation/prefix \
-         -DGMX_MPI=on
-make mdrun
-make install-mdrun
+         -DGMX_MPI=ON \
+         -DGMX_BUILD_MDRUN_ONLY=ON
+make
+make install
 \end{verbatim}
 which will build a statically-linked MPI-enabled mdrun for the back
 end. Otherwise, GROMACS default configuration behaviour applies.