================ @@ -232,225 +232,225 @@ typedef char __v2qi __attribute__((__vector_size__(2))); static __inline__ __m256i __DEFAULT_FN_ATTRS256 _mm256_mask_add_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { - return (__m256i)__builtin_ia32_selectd_256((__mmask8)__U, - (__v8si)_mm256_add_epi32(__A, __B), - (__v8si)__W); + return (__m256i)__builtin_selectvector((__v8si)_mm256_add_epi32(__A, __B), + (__v8si)__W, + __builtin_bit_cast(__vecmask8, __U)); } static __inline__ __m256i __DEFAULT_FN_ATTRS256 _mm256_maskz_add_epi32(__mmask8 __U, __m256i __A, __m256i __B) { - return (__m256i)__builtin_ia32_selectd_256((__mmask8)__U, - (__v8si)_mm256_add_epi32(__A, __B), - (__v8si)_mm256_setzero_si256()); + return (__m256i)__builtin_selectvector((__v8si)_mm256_add_epi32(__A, __B), + (__v8si)_mm256_setzero_si256(), + __builtin_bit_cast(__vecmask8, __U)); } static __inline__ __m256i __DEFAULT_FN_ATTRS256 _mm256_mask_add_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { - return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, - (__v4di)_mm256_add_epi64(__A, __B), - (__v4di)__W); + return (__m256i)__builtin_selectvector((__v4di)_mm256_add_epi64(__A, __B), + (__v4di)__W, + __builtin_bit_cast(__vecmask4, __U)); } static __inline__ __m256i __DEFAULT_FN_ATTRS256 _mm256_maskz_add_epi64(__mmask8 __U, __m256i __A, __m256i __B) { - return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, - (__v4di)_mm256_add_epi64(__A, __B), - (__v4di)_mm256_setzero_si256()); + return (__m256i)__builtin_selectvector((__v4di)_mm256_add_epi64(__A, __B), + (__v4di)_mm256_setzero_si256(), + __builtin_bit_cast(__vecmask4, __U)); } static __inline__ __m256i __DEFAULT_FN_ATTRS256 _mm256_mask_sub_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { - return (__m256i)__builtin_ia32_selectd_256((__mmask8)__U, - (__v8si)_mm256_sub_epi32(__A, __B), - (__v8si)__W); + return (__m256i)__builtin_selectvector((__v8si)_mm256_sub_epi32(__A, __B), + (__v8si)__W, + __builtin_bit_cast(__vecmask8, __U)); } static __inline__ __m256i __DEFAULT_FN_ATTRS256 _mm256_maskz_sub_epi32(__mmask8 __U, __m256i __A, __m256i __B) { - return (__m256i)__builtin_ia32_selectd_256((__mmask8)__U, - (__v8si)_mm256_sub_epi32(__A, __B), - (__v8si)_mm256_setzero_si256()); + return (__m256i)__builtin_selectvector((__v8si)_mm256_sub_epi32(__A, __B), + (__v8si)_mm256_setzero_si256(), + __builtin_bit_cast(__vecmask8, __U)); } static __inline__ __m256i __DEFAULT_FN_ATTRS256 _mm256_mask_sub_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { - return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, - (__v4di)_mm256_sub_epi64(__A, __B), - (__v4di)__W); + return (__m256i)__builtin_selectvector((__v4di)_mm256_sub_epi64(__A, __B), + (__v4di)__W, + __builtin_bit_cast(__vecmask4, __U)); } static __inline__ __m256i __DEFAULT_FN_ATTRS256 _mm256_maskz_sub_epi64(__mmask8 __U, __m256i __A, __m256i __B) { - return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, - (__v4di)_mm256_sub_epi64(__A, __B), - (__v4di)_mm256_setzero_si256()); + return (__m256i)__builtin_selectvector((__v4di)_mm256_sub_epi64(__A, __B), + (__v4di)_mm256_setzero_si256(), + __builtin_bit_cast(__vecmask4, __U)); } static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_mask_add_epi32(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { - return (__m128i)__builtin_ia32_selectd_128((__mmask8)__U, - (__v4si)_mm_add_epi32(__A, __B), - (__v4si)__W); + return (__m128i)__builtin_selectvector((__v4si)_mm_add_epi32(__A, __B), + (__v4si)__W, + __builtin_bit_cast(__vecmask4, __U)); } static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_maskz_add_epi32(__mmask8 __U, __m128i __A, __m128i __B) { - return (__m128i)__builtin_ia32_selectd_128((__mmask8)__U, - (__v4si)_mm_add_epi32(__A, __B), - (__v4si)_mm_setzero_si128()); + return (__m128i)__builtin_selectvector((__v4si)_mm_add_epi32(__A, __B), + (__v4si)_mm_setzero_si128(), + __builtin_bit_cast(__vecmask4, __U)); } static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_mask_add_epi64(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { - return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U, - (__v2di)_mm_add_epi64(__A, __B), - (__v2di)__W); + return (__m128i)__builtin_selectvector((__v2di)_mm_add_epi64(__A, __B), + (__v2di)__W, + __builtin_bit_cast(__vecmask2, __U)); ---------------- RKSimon wrote:
__mmask8 is an unsigned char - how do we safely bitcast to __vecmask2 which is bool ext vector type? https://github.com/llvm/llvm-project/pull/91306 _______________________________________________ cfe-commits mailing list cfe-commits@lists.llvm.org https://lists.llvm.org/cgi-bin/mailman/listinfo/cfe-commits