Code beautification with uncrustify
[alexxy/gromacs.git] / src / gromacs / legacyheaders / gmx_x86_avx_256.h
index 360c941f6e734c62f18bea1bdd9b35d97a332f2b..bd5bea1dac6d8d5a49f9a25c7ecaee85ea052e5e 100644 (file)
@@ -1,8 +1,8 @@
 /* -*- mode: c; tab-width: 4; indent-tabs-mode: nil; c-basic-offset: 4; c-file-style: "stroustrup"; -*-
  *
- * 
+ *
  * This file is part of GROMACS.
- * Copyright (c) 2012-  
+ * Copyright (c) 2012-
  *
  * Written by the Gromacs development team under coordination of
  * David van der Spoel, Berk Hess, and Erik Lindahl.
@@ -14,7 +14,7 @@
  *
  * To help us fund GROMACS development, we humbly ask that you cite
  * the research papers on the package. Check out http://www.gromacs.org
- * 
+ *
  * And Hey:
  * Gnomes, ROck Monsters And Chili Sauce
  */
 
 #define gmx_mm_extract_epi32(x, imm) _mm_cvtsi128_si32(_mm_srli_si128((x), 4 * (imm)))
 
-#define _GMX_MM_BLEND256D(b3,b2,b1,b0) (((b3) << 3) | ((b2) << 2) | ((b1) << 1) | ((b0)))
-#define _GMX_MM_PERMUTE(fp3,fp2,fp1,fp0) (((fp3) << 6) | ((fp2) << 4) | ((fp1) << 2) | ((fp0)))
-#define _GMX_MM_PERMUTE256D(fp3,fp2,fp1,fp0) (((fp3) << 3) | ((fp2) << 2) | ((fp1) << 1) | ((fp0)))
-#define _GMX_MM_PERMUTE128D(fp1,fp0)         (((fp1) << 1) | ((fp0)))
+#define _GMX_MM_BLEND256D(b3, b2, b1, b0) (((b3) << 3) | ((b2) << 2) | ((b1) << 1) | ((b0)))
+#define _GMX_MM_PERMUTE(fp3, fp2, fp1, fp0) (((fp3) << 6) | ((fp2) << 4) | ((fp1) << 2) | ((fp0)))
+#define _GMX_MM_PERMUTE256D(fp3, fp2, fp1, fp0) (((fp3) << 3) | ((fp2) << 2) | ((fp1) << 1) | ((fp0)))
+#define _GMX_MM_PERMUTE128D(fp1, fp0)         (((fp1) << 1) | ((fp0)))
 
 
 #define GMX_MM_TRANSPOSE2_PD(row0, row1) {           \
-    __m128d __gmx_t1 = row0;                         \
-    row0           = _mm_unpacklo_pd(row0,row1);     \
-    row1           = _mm_unpackhi_pd(__gmx_t1,row1); \
+        __m128d __gmx_t1 = row0;                         \
+        row0           = _mm_unpacklo_pd(row0, row1);     \
+        row1           = _mm_unpackhi_pd(__gmx_t1, row1); \
 }
 
-#define GMX_MM256_FULLTRANSPOSE4_PD(row0,row1,row2,row3) \
-{                                                        \
-    __m256d _t0, _t1, _t2, _t3;                          \
-    _t0  = _mm256_unpacklo_pd((row0), (row1));           \
-    _t1  = _mm256_unpackhi_pd((row0), (row1));           \
-    _t2  = _mm256_unpacklo_pd((row2), (row3));           \
-    _t3  = _mm256_unpackhi_pd((row2), (row3));           \
-    row0 = _mm256_permute2f128_pd(_t0, _t2, 0x20);       \
-    row1 = _mm256_permute2f128_pd(_t1, _t3, 0x20);       \
-    row2 = _mm256_permute2f128_pd(_t0, _t2, 0x31);       \
-    row3 = _mm256_permute2f128_pd(_t1, _t3, 0x31);       \
-}
+#define GMX_MM256_FULLTRANSPOSE4_PD(row0, row1, row2, row3) \
+    {                                                        \
+        __m256d _t0, _t1, _t2, _t3;                          \
+        _t0  = _mm256_unpacklo_pd((row0), (row1));           \
+        _t1  = _mm256_unpackhi_pd((row0), (row1));           \
+        _t2  = _mm256_unpacklo_pd((row2), (row3));           \
+        _t3  = _mm256_unpackhi_pd((row2), (row3));           \
+        row0 = _mm256_permute2f128_pd(_t0, _t2, 0x20);       \
+        row1 = _mm256_permute2f128_pd(_t1, _t3, 0x20);       \
+        row2 = _mm256_permute2f128_pd(_t0, _t2, 0x31);       \
+        row3 = _mm256_permute2f128_pd(_t1, _t3, 0x31);       \
+    }
 
 #if (defined (_MSC_VER) || defined(__INTEL_COMPILER))
 #  define gmx_mm_castsi128_ps(a) _mm_castsi128_ps(a)
@@ -98,13 +98,13 @@ static __m128i gmx_mm_castpd_si128(__m128d a)
 static gmx_inline __m256
 gmx_mm256_unpack128lo_ps(__m256 xmm1, __m256 xmm2)
 {
-    return _mm256_permute2f128_ps(xmm1,xmm2,0x20);
+    return _mm256_permute2f128_ps(xmm1, xmm2, 0x20);
 }
 
 static gmx_inline __m256
 gmx_mm256_unpack128hi_ps(__m256 xmm1, __m256 xmm2)
 {
-    return _mm256_permute2f128_ps(xmm1,xmm2,0x31);
+    return _mm256_permute2f128_ps(xmm1, xmm2, 0x31);
 }
 
 static gmx_inline __m256
@@ -127,13 +127,13 @@ gmx_mm256_load4_ps(float const * p)
 static __m256d
 gmx_mm256_unpack128lo_pd(__m256d xmm1, __m256d xmm2)
 {
-    return _mm256_permute2f128_pd(xmm1,xmm2,0x20);
+    return _mm256_permute2f128_pd(xmm1, xmm2, 0x20);
 }
 
 static __m256d
 gmx_mm256_unpack128hi_pd(__m256d xmm1, __m256d xmm2)
 {
-    return _mm256_permute2f128_pd(xmm1,xmm2,0x31);
+    return _mm256_permute2f128_pd(xmm1, xmm2, 0x31);
 }
 
 static __m256d
@@ -147,105 +147,105 @@ static __m128 gmx_mm256_sum4h_m128(__m256 x, __m256 y)
 {
     __m256 sum;
 
-    sum = _mm256_add_ps(x,y);
-    return _mm_add_ps(_mm256_castps256_ps128(sum),_mm256_extractf128_ps(sum,0x1));
+    sum = _mm256_add_ps(x, y);
+    return _mm_add_ps(_mm256_castps256_ps128(sum), _mm256_extractf128_ps(sum, 0x1));
 }
 
 
 static void
-gmx_mm_printxmm_ps(const char *s,__m128 xmm)
+gmx_mm_printxmm_ps(const char *s, __m128 xmm)
 {
     float f[4];
 
-    _mm_storeu_ps(f,xmm);
-    printf("%s: %15.10e %15.10e %15.10e %15.10e\n",s,f[0],f[1],f[2],f[3]);
+    _mm_storeu_ps(f, xmm);
+    printf("%s: %15.10e %15.10e %15.10e %15.10e\n", s, f[0], f[1], f[2], f[3]);
 }
 
 
 static void
-gmx_mm_printxmmsum_ps(const char *s,__m128 xmm)
+gmx_mm_printxmmsum_ps(const char *s, __m128 xmm)
 {
     float f[4];
 
-    _mm_storeu_ps(f,xmm);
-    printf("%s (sum): %15.10g\n",s,f[0]+f[1]+f[2]+f[3]);
+    _mm_storeu_ps(f, xmm);
+    printf("%s (sum): %15.10g\n", s, f[0]+f[1]+f[2]+f[3]);
 }
 
 
 static void
-gmx_mm_printxmm_pd(const char *s,__m128d xmm)
+gmx_mm_printxmm_pd(const char *s, __m128d xmm)
 {
     double f[2];
 
-    _mm_storeu_pd(f,xmm);
-    printf("%s: %30.20e %30.20e\n",s,f[0],f[1]);
+    _mm_storeu_pd(f, xmm);
+    printf("%s: %30.20e %30.20e\n", s, f[0], f[1]);
 }
 
 static void
-gmx_mm_printxmmsum_pd(const char *s,__m128d xmm)
+gmx_mm_printxmmsum_pd(const char *s, __m128d xmm)
 {
     double f[2];
 
-    _mm_storeu_pd(f,xmm);
-    printf("%s (sum): %15.10g\n",s,f[0]+f[1]);
+    _mm_storeu_pd(f, xmm);
+    printf("%s (sum): %15.10g\n", s, f[0]+f[1]);
 }
 
 
 static void
-gmx_mm_printxmm_epi32(const char *s,__m128i xmmi)
+gmx_mm_printxmm_epi32(const char *s, __m128i xmmi)
 {
     int i[4];
 
-    _mm_storeu_si128((__m128i *)i,xmmi);
-    printf("%10s: %2d %2d %2d %2d\n",s,i[0],i[1],i[2],i[3]);
+    _mm_storeu_si128((__m128i *)i, xmmi);
+    printf("%10s: %2d %2d %2d %2d\n", s, i[0], i[1], i[2], i[3]);
 }
 
 static void
-gmx_mm256_printymm_ps(const char *s,__m256 ymm)
+gmx_mm256_printymm_ps(const char *s, __m256 ymm)
 {
     float f[8];
 
-    _mm256_storeu_ps(f,ymm);
-    printf("%s: %12.7f %12.7f %12.7f %12.7f %12.7f %12.7f %12.7f %12.7f\n",s,f[0],f[1],f[2],f[3],f[4],f[5],f[6],f[7]);
+    _mm256_storeu_ps(f, ymm);
+    printf("%s: %12.7f %12.7f %12.7f %12.7f %12.7f %12.7f %12.7f %12.7f\n", s, f[0], f[1], f[2], f[3], f[4], f[5], f[6], f[7]);
 }
 
 static void
-gmx_mm256_printymmsum_ps(const char *s,__m256 ymm)
+gmx_mm256_printymmsum_ps(const char *s, __m256 ymm)
 {
     float f[8];
 
-    _mm256_storeu_ps(f,ymm);
-    printf("%s (sum): %15.10g\n",s,f[0]+f[1]+f[2]+f[3]+f[4]+f[5]+f[6]+f[7]);
+    _mm256_storeu_ps(f, ymm);
+    printf("%s (sum): %15.10g\n", s, f[0]+f[1]+f[2]+f[3]+f[4]+f[5]+f[6]+f[7]);
 }
 
 
 static void
-gmx_mm256_printymm_pd(const char *s,__m256d ymm)
+gmx_mm256_printymm_pd(const char *s, __m256d ymm)
 {
     double f[4];
 
-    _mm256_storeu_pd(f,ymm);
-    printf("%s: %16.12f %16.12f %16.12f %16.12f\n",s,f[0],f[1],f[2],f[3]);
+    _mm256_storeu_pd(f, ymm);
+    printf("%s: %16.12f %16.12f %16.12f %16.12f\n", s, f[0], f[1], f[2], f[3]);
 }
 
 static void
-gmx_mm256_printymmsum_pd(const char *s,__m256d ymm)
+gmx_mm256_printymmsum_pd(const char *s, __m256d ymm)
 {
     double f[4];
 
-    _mm256_storeu_pd(f,ymm);
-    printf("%s (sum): %15.10g\n",s,f[0]+f[1]+f[2]+f[3]);
+    _mm256_storeu_pd(f, ymm);
+    printf("%s (sum): %15.10g\n", s, f[0]+f[1]+f[2]+f[3]);
 }
 
 
 
 static void
-gmx_mm256_printymm_epi32(const char *s,__m256i ymmi)
+gmx_mm256_printymm_epi32(const char *s, __m256i ymmi)
 {
     int i[8];
 
-    _mm256_storeu_si256((__m256i *)i,ymmi);
-    printf("%10s: %2d %2d %2d %2d %2d %2d %2d %2d\n",s,i[0],i[1],i[2],i[3],i[4],i[5],i[6],i[7]);
+    _mm256_storeu_si256((__m256i *)i, ymmi);
+    printf("%10s: %2d %2d %2d %2d %2d %2d %2d %2d\n", s, i[0], i[1], i[2], i[3], i[4], i[5], i[6], i[7]);
 }
 
 
@@ -274,15 +274,15 @@ static int gmx_mm_check_and_reset_overflow(void)
 
 /* Work around gcc bug with wrong type for mask formal parameter to maskload/maskstore */
 #ifdef GMX_X86_AVX_GCC_MASKLOAD_BUG
-#    define gmx_mm_maskload_ps(mem,mask)       _mm_maskload_ps((mem),_mm_castsi128_ps(mask))
-#    define gmx_mm_maskstore_ps(mem,mask,x)    _mm_maskstore_ps((mem),_mm_castsi128_ps(mask),(x))
-#    define gmx_mm256_maskload_ps(mem,mask)    _mm256_maskload_ps((mem),_mm256_castsi256_ps(mask))
-#    define gmx_mm256_maskstore_ps(mem,mask,x) _mm256_maskstore_ps((mem),_mm256_castsi256_ps(mask),(x))
+#    define gmx_mm_maskload_ps(mem, mask)       _mm_maskload_ps((mem), _mm_castsi128_ps(mask))
+#    define gmx_mm_maskstore_ps(mem, mask, x)    _mm_maskstore_ps((mem), _mm_castsi128_ps(mask), (x))
+#    define gmx_mm256_maskload_ps(mem, mask)    _mm256_maskload_ps((mem), _mm256_castsi256_ps(mask))
+#    define gmx_mm256_maskstore_ps(mem, mask, x) _mm256_maskstore_ps((mem), _mm256_castsi256_ps(mask), (x))
 #else
-#    define gmx_mm_maskload_ps(mem,mask)       _mm_maskload_ps((mem),(mask))
-#    define gmx_mm_maskstore_ps(mem,mask,x)    _mm_maskstore_ps((mem),(mask),(x))
-#    define gmx_mm256_maskload_ps(mem,mask)    _mm256_maskload_ps((mem),(mask))
-#    define gmx_mm256_maskstore_ps(mem,mask,x) _mm256_maskstore_ps((mem),(mask),(x))
+#    define gmx_mm_maskload_ps(mem, mask)       _mm_maskload_ps((mem), (mask))
+#    define gmx_mm_maskstore_ps(mem, mask, x)    _mm_maskstore_ps((mem), (mask), (x))
+#    define gmx_mm256_maskload_ps(mem, mask)    _mm256_maskload_ps((mem), (mask))
+#    define gmx_mm256_maskstore_ps(mem, mask, x) _mm256_maskstore_ps((mem), (mask), (x))
 #endif