Merge release-5-0 into master
[alexxy/gromacs.git] / src / gromacs / utility / basenetwork.cpp
1 /*
2  * This file is part of the GROMACS molecular simulation package.
3  *
4  * Copyright (c) 1991-2000, University of Groningen, The Netherlands.
5  * Copyright (c) 2001-2004, The GROMACS development team.
6  * Copyright (c) 2013,2014, by the GROMACS development team, led by
7  * Mark Abraham, David van der Spoel, Berk Hess, and Erik Lindahl,
8  * and including many others, as listed in the AUTHORS file in the
9  * top-level source directory and at http://www.gromacs.org.
10  *
11  * GROMACS is free software; you can redistribute it and/or
12  * modify it under the terms of the GNU Lesser General Public License
13  * as published by the Free Software Foundation; either version 2.1
14  * of the License, or (at your option) any later version.
15  *
16  * GROMACS is distributed in the hope that it will be useful,
17  * but WITHOUT ANY WARRANTY; without even the implied warranty of
18  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
19  * Lesser General Public License for more details.
20  *
21  * You should have received a copy of the GNU Lesser General Public
22  * License along with GROMACS; if not, see
23  * http://www.gnu.org/licenses, or write to the Free Software Foundation,
24  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA.
25  *
26  * If you want to redistribute modifications to GROMACS, please
27  * consider that scientific software is very special. Version
28  * control is crucial - bugs must be traceable. We will be happy to
29  * consider code for inclusion in the official distribution, but
30  * derived work must not be called official GROMACS. Details are found
31  * in the README & COPYING files - if they are missing, get the
32  * official version at http://www.gromacs.org.
33  *
34  * To help us fund GROMACS development, we humbly ask that you cite
35  * the research papers on the package. Check out http://www.gromacs.org.
36  */
37 #include "basenetwork.h"
38
39 #include "config.h"
40
41 #include <cctype>
42 #include <cstdio>
43 #include <cstdlib>
44 #include <cstring>
45
46 #include <algorithm>
47 #include <exception>
48
49 #ifdef HAVE_UNISTD_H
50 #include <unistd.h>
51 #endif
52
53 #include "gromacs/utility/cstringutil.h"
54 #include "gromacs/utility/fatalerror.h"
55 #include "gromacs/utility/gmxmpi.h"
56 #include "gromacs/utility/programcontext.h"
57
58 int gmx_gethostname(char *name, size_t len)
59 {
60     if (len < 8)
61     {
62         gmx_incons("gmx_gethostname called with len<8");
63     }
64 #if defined(HAVE_UNISTD_H) && !defined(__native_client__)
65     if (gethostname(name, len-1) != 0)
66     {
67         std::strncpy(name, "unknown", 8);
68         return -1;
69     }
70     return 0;
71 #else
72     std::strncpy(name, "unknown", 8);
73     return -1;
74 #endif
75 }
76
77 gmx_bool gmx_mpi_initialized(void)
78 {
79 #ifndef GMX_MPI
80     return 0;
81 #else
82     int n;
83     MPI_Initialized(&n);
84
85     return n;
86 #endif
87 }
88
89 int gmx_node_num(void)
90 {
91 #ifndef GMX_MPI
92     return 1;
93 #else
94     int i;
95     (void) MPI_Comm_size(MPI_COMM_WORLD, &i);
96     return i;
97 #endif
98 }
99
100 int gmx_node_rank(void)
101 {
102 #ifndef GMX_MPI
103     return 0;
104 #else
105     int i;
106     (void) MPI_Comm_rank(MPI_COMM_WORLD, &i);
107     return i;
108 #endif
109 }
110
111 static int mpi_hostname_hash(void)
112 {
113     int hash_int;
114
115 #ifndef GMX_LIB_MPI
116     /* We have a single physical node */
117     hash_int = 0;
118 #else
119     int  resultlen;
120     char mpi_hostname[MPI_MAX_PROCESSOR_NAME];
121
122     /* This procedure can only differentiate nodes with different names.
123      * Architectures where different physical nodes have identical names,
124      * such as IBM Blue Gene, should use an architecture specific solution.
125      */
126     MPI_Get_processor_name(mpi_hostname, &resultlen);
127
128     /* The string hash function returns an unsigned int. We cast to an int.
129      * Negative numbers are converted to positive by setting the sign bit to 0.
130      * This makes the hash one bit smaller.
131      * A 63-bit hash (with 64-bit int) should be enough for unique node hashes,
132      * even on a million node machine. 31 bits might not be enough though!
133      */
134     hash_int =
135         (int)gmx_string_fullhash_func(mpi_hostname, gmx_string_hash_init);
136     if (hash_int < 0)
137     {
138         hash_int -= INT_MIN;
139     }
140 #endif
141
142     return hash_int;
143 }
144
145 #if defined GMX_LIB_MPI && defined GMX_TARGET_BGQ
146 #include <spi/include/kernel/location.h>
147
148 static int bgq_nodenum(void)
149 {
150     int           hostnum;
151     Personality_t personality;
152     Kernel_GetPersonality(&personality, sizeof(personality));
153     /* Each MPI rank has a unique coordinate in a 6-dimensional space
154        (A,B,C,D,E,T), with dimensions A-E corresponding to different
155        physical nodes, and T within each node. Each node has sixteen
156        physical cores, each of which can have up to four hardware
157        threads, so 0 <= T <= 63 (but the maximum value of T depends on
158        the confituration of ranks and OpenMP threads per
159        node). However, T is irrelevant for computing a suitable return
160        value for gmx_hostname_num().
161      */
162     hostnum  = personality.Network_Config.Acoord;
163     hostnum *= personality.Network_Config.Bnodes;
164     hostnum += personality.Network_Config.Bcoord;
165     hostnum *= personality.Network_Config.Cnodes;
166     hostnum += personality.Network_Config.Ccoord;
167     hostnum *= personality.Network_Config.Dnodes;
168     hostnum += personality.Network_Config.Dcoord;
169     hostnum *= personality.Network_Config.Enodes;
170     hostnum += personality.Network_Config.Ecoord;
171
172     if (debug)
173     {
174         std::fprintf(debug,
175                      "Torus ID A: %d / %d B: %d / %d C: %d / %d D: %d / %d E: %d / %d\n"
176                      "Node ID T: %d / %d core: %d / %d hardware thread: %d / %d\n",
177                      personality.Network_Config.Acoord,
178                      personality.Network_Config.Anodes,
179                      personality.Network_Config.Bcoord,
180                      personality.Network_Config.Bnodes,
181                      personality.Network_Config.Ccoord,
182                      personality.Network_Config.Cnodes,
183                      personality.Network_Config.Dcoord,
184                      personality.Network_Config.Dnodes,
185                      personality.Network_Config.Ecoord,
186                      personality.Network_Config.Enodes,
187                      Kernel_ProcessorCoreID(),
188                      16,
189                      Kernel_ProcessorID(),
190                      64,
191                      Kernel_ProcessorThreadID(),
192                      4);
193     }
194     return hostnum;
195 }
196 #endif
197
198 int gmx_physicalnode_id_hash(void)
199 {
200     int hash;
201
202 #ifndef GMX_MPI
203     hash = 0;
204 #else
205 #ifdef GMX_THREAD_MPI
206     /* thread-MPI currently puts the thread number in the process name,
207      * we might want to change this, as this is inconsistent with what
208      * most MPI implementations would do when running on a single node.
209      */
210     hash = 0;
211 #else
212 #ifdef GMX_TARGET_BGQ
213     hash = bgq_nodenum();
214 #else
215     hash = mpi_hostname_hash();
216 #endif
217 #endif
218 #endif
219
220     if (debug)
221     {
222         fprintf(debug, "In gmx_physicalnode_id_hash: hash %d\n", hash);
223     }
224
225     return hash;
226 }
227
228 #ifdef GMX_LIB_MPI
229 void gmx_abort(int errorno)
230 {
231     const char *programName = "GROMACS";
232     try
233     {
234         programName = gmx::getProgramContext().displayName();
235     }
236     catch (const std::exception &)
237     {
238     }
239     const int nnodes   = gmx_node_num();
240     const int noderank = gmx_node_rank();
241     if (nnodes > 1)
242     {
243         std::fprintf(stderr, "Halting parallel program %s on node %d out of %d\n",
244                      programName, noderank, nnodes);
245     }
246     else
247     {
248         std::fprintf(stderr, "Halting program %s\n", programName);
249     }
250
251     MPI_Abort(MPI_COMM_WORLD, errorno);
252     std::exit(errorno);
253 }
254 #endif