Author: Jianjian Guan Date: 2026-01-14T16:20:47-08:00 New Revision: d7b6df77d0b7990ff1f00d552c316f7666a9068b
URL: https://github.com/llvm/llvm-project/commit/d7b6df77d0b7990ff1f00d552c316f7666a9068b DIFF: https://github.com/llvm/llvm-project/commit/d7b6df77d0b7990ff1f00d552c316f7666a9068b.diff LOG: [CIR][X86] Add CIR codegen support for fpclass x86 builtins (#172813) This implements the handling for x86-specific fpclass builtin functions. Added: Modified: clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp clang/test/CIR/CodeGenBuiltins/X86/avx10_2_512bf16-builtins.c clang/test/CIR/CodeGenBuiltins/X86/avx10_2bf16-builtins.c clang/test/CIR/CodeGenBuiltins/X86/avx512dq-builtins.c clang/test/CIR/CodeGenBuiltins/X86/avx512fp16-builtins.c clang/test/CIR/CodeGenBuiltins/X86/avx512vl-builtins.c clang/test/CIR/CodeGenBuiltins/X86/avx512vldq-builtins.c Removed: ################################################################################ diff --git a/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp b/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp index 97d96992f9f22..44af8d6cc0ef4 100644 --- a/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp +++ b/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp @@ -542,6 +542,61 @@ static mlir::Value emitX86vpcom(CIRGenBuilderTy &builder, mlir::Location loc, return builder.createVecCompare(loc, pred, op0, op1); } +static mlir::Value emitX86Fpclass(CIRGenBuilderTy &builder, mlir::Location loc, + unsigned builtinID, + SmallVectorImpl<mlir::Value> &ops) { + unsigned numElts = cast<cir::VectorType>(ops[0].getType()).getSize(); + mlir::Value maskIn = ops[2]; + ops.erase(ops.begin() + 2); + + StringRef intrinsicName; + switch (builtinID) { + default: + llvm_unreachable("Unsupported fpclass builtin"); + case X86::BI__builtin_ia32_vfpclassbf16128_mask: + intrinsicName = "x86.avx10.fpclass.bf16.128"; + break; + case X86::BI__builtin_ia32_vfpclassbf16256_mask: + intrinsicName = "x86.avx10.fpclass.bf16.256"; + break; + case X86::BI__builtin_ia32_vfpclassbf16512_mask: + intrinsicName = "x86.avx10.fpclass.bf16.512"; + break; + case X86::BI__builtin_ia32_fpclassph128_mask: + intrinsicName = "x86.avx512fp16.fpclass.ph.128"; + break; + case X86::BI__builtin_ia32_fpclassph256_mask: + intrinsicName = "x86.avx512fp16.fpclass.ph.256"; + break; + case X86::BI__builtin_ia32_fpclassph512_mask: + intrinsicName = "x86.avx512fp16.fpclass.ph.512"; + break; + case X86::BI__builtin_ia32_fpclassps128_mask: + intrinsicName = "x86.avx512.fpclass.ps.128"; + break; + case X86::BI__builtin_ia32_fpclassps256_mask: + intrinsicName = "x86.avx512.fpclass.ps.256"; + break; + case X86::BI__builtin_ia32_fpclassps512_mask: + intrinsicName = "x86.avx512.fpclass.ps.512"; + break; + case X86::BI__builtin_ia32_fpclasspd128_mask: + intrinsicName = "x86.avx512.fpclass.pd.128"; + break; + case X86::BI__builtin_ia32_fpclasspd256_mask: + intrinsicName = "x86.avx512.fpclass.pd.256"; + break; + case X86::BI__builtin_ia32_fpclasspd512_mask: + intrinsicName = "x86.avx512.fpclass.pd.512"; + break; + } + + auto cmpResultTy = cir::VectorType::get(builder.getSIntNTy(1), numElts); + mlir::Value fpclass = + emitIntrinsicCallOp(builder, loc, intrinsicName, cmpResultTy, ops); + return emitX86MaskedCompareResult(builder, fpclass, numElts, maskIn, loc); +} + std::optional<mlir::Value> CIRGenFunction::emitX86BuiltinExpr(unsigned builtinID, const CallExpr *expr) { if (builtinID == Builtin::BI__builtin_cpu_is) { @@ -1848,6 +1903,10 @@ CIRGenFunction::emitX86BuiltinExpr(unsigned builtinID, const CallExpr *expr) { case X86::BI__builtin_ia32_addcarryx_u64: case X86::BI__builtin_ia32_subborrow_u32: case X86::BI__builtin_ia32_subborrow_u64: + cgm.errorNYI(expr->getSourceRange(), + std::string("unimplemented X86 builtin call: ") + + getContext().BuiltinInfo.getName(builtinID)); + return mlir::Value{}; case X86::BI__builtin_ia32_fpclassps128_mask: case X86::BI__builtin_ia32_fpclassps256_mask: case X86::BI__builtin_ia32_fpclassps512_mask: @@ -1860,10 +1919,7 @@ CIRGenFunction::emitX86BuiltinExpr(unsigned builtinID, const CallExpr *expr) { case X86::BI__builtin_ia32_fpclasspd128_mask: case X86::BI__builtin_ia32_fpclasspd256_mask: case X86::BI__builtin_ia32_fpclasspd512_mask: - cgm.errorNYI(expr->getSourceRange(), - std::string("unimplemented X86 builtin call: ") + - getContext().BuiltinInfo.getName(builtinID)); - return mlir::Value{}; + return emitX86Fpclass(builder, getLoc(expr->getExprLoc()), builtinID, ops); case X86::BI__builtin_ia32_vp2intersect_q_512: case X86::BI__builtin_ia32_vp2intersect_q_256: case X86::BI__builtin_ia32_vp2intersect_q_128: diff --git a/clang/test/CIR/CodeGenBuiltins/X86/avx10_2_512bf16-builtins.c b/clang/test/CIR/CodeGenBuiltins/X86/avx10_2_512bf16-builtins.c index e4501889c2d60..f0482e110fc32 100644 --- a/clang/test/CIR/CodeGenBuiltins/X86/avx10_2_512bf16-builtins.c +++ b/clang/test/CIR/CodeGenBuiltins/X86/avx10_2_512bf16-builtins.c @@ -26,3 +26,39 @@ __m512bh test_mm512_undefined_pbh(void) { // OGCG: ret <32 x bfloat> zeroinitializer return _mm512_undefined_pbh(); } + +__mmask32 test_mm512_mask_fpclass_pbh_mask(__mmask32 __U, __m512bh __A) { + // CIR-LABEL: _mm512_mask_fpclass_pbh_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx10.fpclass.bf16.512" + // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u32i -> !cir.vector<32 x !cir.int<s, 1>> + // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[B]]) : !cir.vector<32 x !cir.int<s, 1>> + // CIR: cir.cast bitcast %[[C]] : !cir.vector<32 x !cir.int<s, 1>> -> !u32i + + // LLVM-LABEL: test_mm512_mask_fpclass_pbh_mask + // LLVM: %[[A:.*]] = call <32 x i1> @llvm.x86.avx10.fpclass.bf16.512 + // LLVM: %[[B:.*]] = bitcast i32 {{.*}} to <32 x i1> + // LLVM: %[[C:.*]] = and <32 x i1> %[[A]], %[[B]] + // LLVM: bitcast <32 x i1> %[[C]] to i32 + + // OGCG-LABEL: test_mm512_mask_fpclass_pbh_mask + // OGCG: %[[A:.*]] = call <32 x i1> @llvm.x86.avx10.fpclass.bf16.512 + // OGCG: %[[B:.*]] = bitcast i32 {{.*}} to <32 x i1> + // OGCG: %[[C:.*]] = and <32 x i1> %[[A]], %[[B]] + // OGCG: bitcast <32 x i1> %[[C]] to i32 + return _mm512_mask_fpclass_pbh_mask(__U, __A, 4); +} + +__mmask32 test_mm512_fpclass_pbh_mask(__m512bh __A) { + // CIR-LABEL: _mm512_fpclass_pbh_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx10.fpclass.bf16.512" + // CIR: cir.cast bitcast %[[A]] : !cir.vector<32 x !cir.int<s, 1>> -> !u32i + + // LLVM-LABEL: test_mm512_fpclass_pbh_mask + // LLVM: %[[A:.*]] = call <32 x i1> @llvm.x86.avx10.fpclass.bf16.512 + // LLVM: bitcast <32 x i1> %[[A]] to i32 + + // OGCG-LABEL: test_mm512_fpclass_pbh_mask + // OGCG: %[[A:.*]] = call <32 x i1> @llvm.x86.avx10.fpclass.bf16.512 + // OGCG: bitcast <32 x i1> %[[A]] to i32 + return _mm512_fpclass_pbh_mask(__A, 4); +} diff --git a/clang/test/CIR/CodeGenBuiltins/X86/avx10_2bf16-builtins.c b/clang/test/CIR/CodeGenBuiltins/X86/avx10_2bf16-builtins.c index 4dac4fa2fe811..86dd04ffdc7b6 100644 --- a/clang/test/CIR/CodeGenBuiltins/X86/avx10_2bf16-builtins.c +++ b/clang/test/CIR/CodeGenBuiltins/X86/avx10_2bf16-builtins.c @@ -44,4 +44,76 @@ __m256bh test_mm256_undefined_pbh(void) { // OGCG-LABEL: test_mm256_undefined_pbh // OGCG: ret <16 x bfloat> zeroinitializer return _mm256_undefined_pbh(); +} + +__mmask16 test_mm256_mask_fpclass_pbh_mask(__mmask16 __U, __m256bh __A) { + // CIR-LABEL: _mm256_mask_fpclass_pbh_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx10.fpclass.bf16.256" + // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u16i -> !cir.vector<16 x !cir.int<s, 1>> + // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[B]]) : !cir.vector<16 x !cir.int<s, 1>> + // CIR: cir.cast bitcast %[[C]] : !cir.vector<16 x !cir.int<s, 1>> -> !u16i + + // LLVM-LABEL: test_mm256_mask_fpclass_pbh_mask + // LLVM: %[[A:.*]] = call <16 x i1> @llvm.x86.avx10.fpclass.bf16.256 + // LLVM: %[[B:.*]] = bitcast i16 {{.*}} to <16 x i1> + // LLVM: %[[C:.*]] = and <16 x i1> %[[A]], %[[B]] + // LLVM: bitcast <16 x i1> %[[C]] to i16 + + // OGCG-LABEL: test_mm256_mask_fpclass_pbh_mask + // OGCG: %[[A:.*]] = call <16 x i1> @llvm.x86.avx10.fpclass.bf16.256 + // OGCG: %[[B:.*]] = bitcast i16 {{.*}} to <16 x i1> + // OGCG: %[[C:.*]] = and <16 x i1> %[[A]], %[[B]] + // OGCG: bitcast <16 x i1> %[[C]] to i16 + return _mm256_mask_fpclass_pbh_mask(__U, __A, 4); +} + +__mmask16 test_mm256_fpclass_pbh_mask(__m256bh __A) { + // CIR-LABEL: _mm256_fpclass_pbh_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx10.fpclass.bf16.256" + // CIR: cir.cast bitcast %[[A]] : !cir.vector<16 x !cir.int<s, 1>> -> !u16i + + // LLVM-LABEL: test_mm256_fpclass_pbh_mask + // LLVM: %[[A:.*]] = call <16 x i1> @llvm.x86.avx10.fpclass.bf16.256 + // LLVM: bitcast <16 x i1> %[[A]] to i16 + + // OGCG-LABEL: test_mm256_fpclass_pbh_mask + // OGCG: %[[A:.*]] = call <16 x i1> @llvm.x86.avx10.fpclass.bf16.256 + // OGCG: bitcast <16 x i1> %[[A]] to i16 + return _mm256_fpclass_pbh_mask(__A, 4); +} + +__mmask8 test_mm_mask_fpclass_pbh_mask(__mmask8 __U, __m128bh __A) { + // CIR-LABEL: _mm_mask_fpclass_pbh_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx10.fpclass.bf16.128" + // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>> + // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[B]]) : !cir.vector<8 x !cir.int<s, 1>> + // CIR: cir.cast bitcast %[[C]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i + + // LLVM-LABEL: test_mm_mask_fpclass_pbh_mask + // LLVM: %[[A:.*]] = call <8 x i1> @llvm.x86.avx10.fpclass.bf16.128 + // LLVM: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1> + // LLVM: %[[C:.*]] = and <8 x i1> %[[A]], %[[B]] + // LLVM: bitcast <8 x i1> %[[C]] to i8 + + // OGCG-LABEL: test_mm_mask_fpclass_pbh_mask + // OGCG: %[[A:.*]] = call <8 x i1> @llvm.x86.avx10.fpclass.bf16.128 + // OGCG: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1> + // OGCG: %[[C:.*]] = and <8 x i1> %[[A]], %[[B]] + // OGCG: bitcast <8 x i1> %[[C]] to i8 + return _mm_mask_fpclass_pbh_mask(__U, __A, 4); +} + +__mmask8 test_mm_fpclass_pbh_mask(__m128bh __A) { + // CIR-LABEL: _mm_fpclass_pbh_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx10.fpclass.bf16.128" + // CIR: cir.cast bitcast %[[A]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i + + // LLVM-LABEL: test_mm_fpclass_pbh_mask + // LLVM: %[[A:.*]] = call <8 x i1> @llvm.x86.avx10.fpclass.bf16.128 + // LLVM: bitcast <8 x i1> %[[A]] to i8 + + // OGCG-LABEL: test_mm_fpclass_pbh_mask + // OGCG: %[[A:.*]] = call <8 x i1> @llvm.x86.avx10.fpclass.bf16.128 + // OGCG: bitcast <8 x i1> %[[A]] to i8 + return _mm_fpclass_pbh_mask(__A, 4); } \ No newline at end of file diff --git a/clang/test/CIR/CodeGenBuiltins/X86/avx512dq-builtins.c b/clang/test/CIR/CodeGenBuiltins/X86/avx512dq-builtins.c index 49b3e7e642405..7e298a3e321f6 100644 --- a/clang/test/CIR/CodeGenBuiltins/X86/avx512dq-builtins.c +++ b/clang/test/CIR/CodeGenBuiltins/X86/avx512dq-builtins.c @@ -417,3 +417,75 @@ __m512i test_mm512_inserti64x2(__m512i __A, __m128i __B) { // OGCG: shufflevector <8 x i64> %{{.*}}, <8 x i64> %{{.*}}, <8 x i32> <i32 0, i32 1, i32 8, i32 9, i32 4, i32 5, i32 6, i32 7> return _mm512_inserti64x2(__A, __B, 1); } + +__mmask8 test_mm512_mask_fpclass_pd_mask(__mmask8 __U, __m512d __A) { + // CIR-LABEL: _mm512_mask_fpclass_pd_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.pd.512" + // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>> + // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[B]]) : !cir.vector<8 x !cir.int<s, 1>> + // CIR: cir.cast bitcast %[[C]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i + + // LLVM-LABEL: test_mm512_mask_fpclass_pd_mask + // LLVM: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.pd.512 + // LLVM: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1> + // LLVM: %[[C:.*]] = and <8 x i1> %[[A]], %[[B]] + // LLVM: bitcast <8 x i1> %[[C]] to i8 + + // OGCG-LABEL: test_mm512_mask_fpclass_pd_mask + // OGCG: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.pd.512 + // OGCG: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1> + // OGCG: %[[C:.*]] = and <8 x i1> %[[A]], %[[B]] + // OGCG: bitcast <8 x i1> %[[C]] to i8 + return _mm512_mask_fpclass_pd_mask(__U, __A, 4); +} + +__mmask8 test_mm512_fpclass_pd_mask(__m512d __A) { + // CIR-LABEL: _mm512_fpclass_pd_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.pd.512" + // CIR: cir.cast bitcast %[[A]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i + + // LLVM-LABEL: test_mm512_fpclass_pd_mask + // LLVM: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.pd.512 + // LLVM: bitcast <8 x i1> %[[A]] to i8 + + // OGCG-LABEL: test_mm512_fpclass_pd_mask + // OGCG: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.pd.512 + // OGCG: bitcast <8 x i1> %[[A]] to i8 + return _mm512_fpclass_pd_mask(__A, 4); +} + +__mmask16 test_mm512_mask_fpclass_ps_mask(__mmask16 __U, __m512 __A) { + // CIR-LABEL: _mm512_mask_fpclass_ps_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.ps.512" + // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u16i -> !cir.vector<16 x !cir.int<s, 1>> + // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[B]]) : !cir.vector<16 x !cir.int<s, 1>> + // CIR: cir.cast bitcast %[[C]] : !cir.vector<16 x !cir.int<s, 1>> -> !u16i + + // LLVM-LABEL: test_mm512_mask_fpclass_ps_mask + // LLVM: %[[A:.*]] = call <16 x i1> @llvm.x86.avx512.fpclass.ps.512 + // LLVM: %[[B:.*]] = bitcast i16 {{.*}} to <16 x i1> + // LLVM: %[[C:.*]] = and <16 x i1> %[[A]], %[[B]] + // LLVM: bitcast <16 x i1> %[[C]] to i16 + + // OGCG-LABEL: test_mm512_mask_fpclass_ps_mask + // OGCG: %[[A:.*]] = call <16 x i1> @llvm.x86.avx512.fpclass.ps.512 + // OGCG: %[[B:.*]] = bitcast i16 {{.*}} to <16 x i1> + // OGCG: %[[C:.*]] = and <16 x i1> %[[A]], %[[B]] + // OGCG: bitcast <16 x i1> %[[C]] to i16 + return _mm512_mask_fpclass_ps_mask(__U, __A, 4); +} + +__mmask16 test_mm512_fpclass_ps_mask(__m512 __A) { + // CIR-LABEL: _mm512_fpclass_ps_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.ps.512" + // CIR: cir.cast bitcast %[[A]] : !cir.vector<16 x !cir.int<s, 1>> -> !u16i + + // LLVM-LABEL: test_mm512_fpclass_ps_mask + // LLVM: %[[A:.*]] = call <16 x i1> @llvm.x86.avx512.fpclass.ps.512 + // LLVM: bitcast <16 x i1> %[[A]] to i16 + + // OGCG-LABEL: test_mm512_fpclass_ps_mask + // OGCG: %[[A:.*]] = call <16 x i1> @llvm.x86.avx512.fpclass.ps.512 + // OGCG: bitcast <16 x i1> %[[A]] to i16 + return _mm512_fpclass_ps_mask(__A, 4); +} diff --git a/clang/test/CIR/CodeGenBuiltins/X86/avx512fp16-builtins.c b/clang/test/CIR/CodeGenBuiltins/X86/avx512fp16-builtins.c index 464fa29fffc20..74e40c0d5a76e 100644 --- a/clang/test/CIR/CodeGenBuiltins/X86/avx512fp16-builtins.c +++ b/clang/test/CIR/CodeGenBuiltins/X86/avx512fp16-builtins.c @@ -124,3 +124,40 @@ _Float16 test_mm512_reduce_min_ph(__m512h __W) { // OGCG: call nnan {{.*}}half @llvm.vector.reduce.fmin.v32f16(<32 x half> %{{.*}}) return _mm512_reduce_min_ph(__W); } + + +__mmask32 test_mm512_mask_fpclass_ph_mask(__mmask32 __U, __m512h __A) { + // CIR-LABEL: _mm512_mask_fpclass_ph_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512fp16.fpclass.ph.512" + // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u32i -> !cir.vector<32 x !cir.int<s, 1>> + // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[B]]) : !cir.vector<32 x !cir.int<s, 1>> + // CIR: cir.cast bitcast %[[C]] : !cir.vector<32 x !cir.int<s, 1>> -> !u32i + + // LLVM-LABEL: test_mm512_mask_fpclass_ph_mask + // LLVM: %[[A:.*]] = call <32 x i1> @llvm.x86.avx512fp16.fpclass.ph.512 + // LLVM: %[[B:.*]] = bitcast i32 {{.*}} to <32 x i1> + // LLVM: %[[C:.*]] = and <32 x i1> %[[A]], %[[B]] + // LLVM: bitcast <32 x i1> %[[C]] to i32 + + // OGCG-LABEL: test_mm512_mask_fpclass_ph_mask + // OGCG: %[[A:.*]] = call <32 x i1> @llvm.x86.avx512fp16.fpclass.ph.512 + // OGCG: %[[B:.*]] = bitcast i32 {{.*}} to <32 x i1> + // OGCG: %[[C:.*]] = and <32 x i1> %[[A]], %[[B]] + // OGCG: bitcast <32 x i1> %[[C]] to i32 + return _mm512_mask_fpclass_ph_mask(__U, __A, 4); +} + +__mmask32 test_mm512_fpclass_ph_mask(__m512h __A) { + // CIR-LABEL: _mm512_fpclass_ph_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512fp16.fpclass.ph.512" + // CIR: cir.cast bitcast %[[A]] : !cir.vector<32 x !cir.int<s, 1>> -> !u32i + + // LLVM-LABEL: test_mm512_fpclass_ph_mask + // LLVM: %[[A:.*]] = call <32 x i1> @llvm.x86.avx512fp16.fpclass.ph.512 + // LLVM: bitcast <32 x i1> %[[A]] to i32 + + // OGCG-LABEL: test_mm512_fpclass_ph_mask + // OGCG: %[[A:.*]] = call <32 x i1> @llvm.x86.avx512fp16.fpclass.ph.512 + // OGCG: bitcast <32 x i1> %[[A]] to i32 + return _mm512_fpclass_ph_mask(__A, 4); +} diff --git a/clang/test/CIR/CodeGenBuiltins/X86/avx512vl-builtins.c b/clang/test/CIR/CodeGenBuiltins/X86/avx512vl-builtins.c index d61d1a5be7dc0..c3f60be490736 100644 --- a/clang/test/CIR/CodeGenBuiltins/X86/avx512vl-builtins.c +++ b/clang/test/CIR/CodeGenBuiltins/X86/avx512vl-builtins.c @@ -310,3 +310,4 @@ __m128d test_mm_maskz_expand_pd(__mmask8 __U, __m128d __A) { return _mm_maskz_expand_pd(__U,__A); } + diff --git a/clang/test/CIR/CodeGenBuiltins/X86/avx512vldq-builtins.c b/clang/test/CIR/CodeGenBuiltins/X86/avx512vldq-builtins.c index 2e3ec00558bf7..84cbc387032a8 100644 --- a/clang/test/CIR/CodeGenBuiltins/X86/avx512vldq-builtins.c +++ b/clang/test/CIR/CodeGenBuiltins/X86/avx512vldq-builtins.c @@ -165,3 +165,176 @@ __m256i test_mm256_inserti64x2(__m256i __A, __m128i __B) { // OGCG: shufflevector <4 x i64> %{{.*}}, <4 x i64> %{{.*}}, <4 x i32> <i32 0, i32 1, i32 4, i32 5> return _mm256_inserti64x2(__A, __B, 1); } + + +__mmask8 test_mm_mask_fpclass_pd_mask(__mmask8 __U, __m128d __A) { + // CIR-LABEL: _mm_mask_fpclass_pd_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.pd.128" + // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>> + // CIR: %[[SHUF:.*]] = cir.vec.shuffle(%[[B]], %[[B]] : !cir.vector<8 x !cir.int<s, 1>>) [#cir.int<0> : !s32i, #cir.int<1> : !s32i] : !cir.vector<2 x !cir.int<s, 1>> + // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[SHUF]]) : !cir.vector<2 x !cir.int<s, 1>> + // CIR: %[[D:.*]] = cir.const #cir.zero : !cir.vector<2 x !cir.int<s, 1>> + // CIR: %[[E:.*]] = cir.vec.shuffle(%[[C]], %[[D]] : !cir.vector<2 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i] : !cir.vector<8 x !cir.int<s, 1>> + // CIR: cir.cast bitcast %[[E]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i + + // LLVM-LABEL: test_mm_mask_fpclass_pd_mask + // LLVM: %[[A:.*]] = call <2 x i1> @llvm.x86.avx512.fpclass.pd.128 + // LLVM: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1> + // LLVM: %[[C:.*]] = shufflevector <8 x i1> %[[B]], <8 x i1> %[[B]], <2 x i32> <i32 0, i32 1> + // LLVM: %[[D:.*]] = and <2 x i1> %[[A]], %[[C]] + // LLVM: %[[E:.*]] = shufflevector <2 x i1> %[[D]], <2 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 2, i32 3, i32 2, i32 3> + // LLVM: bitcast <8 x i1> %[[E]] to i8 + + // OGCG-LABEL: test_mm_mask_fpclass_pd_mask + // OGCG: %[[A:.*]] = call <2 x i1> @llvm.x86.avx512.fpclass.pd.128 + // OGCG: and <2 x i1> + // OGCG: shufflevector + // OGCG: bitcast <8 x i1> {{.*}} to i8 + return _mm_mask_fpclass_pd_mask(__U, __A, 2); +} + +__mmask8 test_mm_fpclass_pd_mask(__m128d __A) { + // CIR-LABEL: _mm_fpclass_pd_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.pd.128" + // CIR: %[[B:.*]] = cir.const #cir.zero : !cir.vector<2 x !cir.int<s, 1>> + // CIR: %[[C:.*]] = cir.vec.shuffle(%[[A]], %[[B]] : !cir.vector<2 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i] : !cir.vector<8 x !cir.int<s, 1>> + // CIR: cir.cast bitcast %[[C]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i + + // LLVM-LABEL: test_mm_fpclass_pd_mask + // LLVM: %[[A:.*]] = call <2 x i1> @llvm.x86.avx512.fpclass.pd.128 + // LLVM: %[[B:.*]] = shufflevector <2 x i1> %[[A]], <2 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 2, i32 3, i32 2, i32 3> + // LLVM: bitcast <8 x i1> %[[B]] to i8 + + // OGCG-LABEL: test_mm_fpclass_pd_mask + // OGCG: %[[A:.*]] = call <2 x i1> @llvm.x86.avx512.fpclass.pd.128 + // OGCG: shufflevector + // OGCG: bitcast <8 x i1> {{.*}} to i8 + return _mm_fpclass_pd_mask(__A, 2); +} + +__mmask8 test_mm256_mask_fpclass_pd_mask(__mmask8 __U, __m256d __A) { + // CIR-LABEL: _mm256_mask_fpclass_pd_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.pd.256" + // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>> + // CIR: %[[SHUF:.*]] = cir.vec.shuffle(%[[B]], %[[B]] : !cir.vector<8 x !cir.int<s, 1>>) [#cir.int<0> : !s32i, #cir.int<1> : !s32i, #cir.int<2> : !s32i, #cir.int<3> : !s32i] : !cir.vector<4 x !cir.int<s, 1>> + // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[SHUF]]) : !cir.vector<4 x !cir.int<s, 1>> + // CIR: %[[D:.*]] = cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>> + // CIR: %[[E:.*]] = cir.vec.shuffle(%[[C]], %[[D]] : !cir.vector<4 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, #cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>> + // CIR: cir.cast bitcast %[[E]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i + + // LLVM-LABEL: test_mm256_mask_fpclass_pd_mask + // LLVM: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.pd.256 + // LLVM: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1> + // LLVM: %[[C:.*]] = shufflevector <8 x i1> %[[B]], <8 x i1> %[[B]], <4 x i32> <i32 0, i32 1, i32 2, i32 3> + // LLVM: %[[D:.*]] = and <4 x i1> %[[A]], %[[C]] + // LLVM: %[[E:.*]] = shufflevector <4 x i1> %[[D]], <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7> + // LLVM: bitcast <8 x i1> %[[E]] to i8 + + // OGCG-LABEL: test_mm256_mask_fpclass_pd_mask + // OGCG: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.pd.256 + // OGCG: and <4 x i1> + // OGCG: shufflevector + // OGCG: bitcast <8 x i1> {{.*}} to i8 + return _mm256_mask_fpclass_pd_mask(__U, __A, 2); +} + +__mmask8 test_mm256_fpclass_pd_mask(__m256d __A) { + // CIR-LABEL: _mm256_fpclass_pd_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.pd.256" + // CIR: %[[B:.*]] = cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>> + // CIR: %[[C:.*]] = cir.vec.shuffle(%[[A]], %[[B]] : !cir.vector<4 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, #cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>> + // CIR: cir.cast bitcast %[[C]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i + + // LLVM-LABEL: test_mm256_fpclass_pd_mask + // LLVM: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.pd.256 + // LLVM: %[[B:.*]] = shufflevector <4 x i1> %[[A]], <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7> + // LLVM: bitcast <8 x i1> %[[B]] to i8 + + // OGCG-LABEL: test_mm256_fpclass_pd_mask + // OGCG: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.pd.256 + // OGCG: shufflevector + // OGCG: bitcast <8 x i1> {{.*}} to i8 + return _mm256_fpclass_pd_mask(__A, 2); +} + +__mmask8 test_mm_mask_fpclass_ps_mask(__mmask8 __U, __m128 __A) { + // CIR-LABEL: _mm_mask_fpclass_ps_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.ps.128" + // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>> + // CIR: %[[SHUF:.*]] = cir.vec.shuffle(%[[B]], %[[B]] : !cir.vector<8 x !cir.int<s, 1>>) [#cir.int<0> : !s32i, #cir.int<1> : !s32i, #cir.int<2> : !s32i, #cir.int<3> : !s32i] : !cir.vector<4 x !cir.int<s, 1>> + // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[SHUF]]) : !cir.vector<4 x !cir.int<s, 1>> + // CIR: %[[D:.*]] = cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>> + // CIR: %[[E:.*]] = cir.vec.shuffle(%[[C]], %[[D]] : !cir.vector<4 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, #cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>> + // CIR: cir.cast bitcast %[[E]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i + + // LLVM-LABEL: test_mm_mask_fpclass_ps_mask + // LLVM: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.ps.128 + // LLVM: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1> + // LLVM: %[[C:.*]] = shufflevector <8 x i1> %[[B]], <8 x i1> %[[B]], <4 x i32> <i32 0, i32 1, i32 2, i32 3> + // LLVM: %[[D:.*]] = and <4 x i1> %[[A]], %[[C]] + // LLVM: %[[E:.*]] = shufflevector <4 x i1> %[[D]], <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7> + // LLVM: bitcast <8 x i1> %[[E]] to i8 + + // OGCG-LABEL: test_mm_mask_fpclass_ps_mask + // OGCG: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.ps.128 + // OGCG: and <4 x i1> + // OGCG: shufflevector + // OGCG: bitcast <8 x i1> {{.*}} to i8 + return _mm_mask_fpclass_ps_mask(__U, __A, 2); +} + +__mmask8 test_mm_fpclass_ps_mask(__m128 __A) { + // CIR-LABEL: _mm_fpclass_ps_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.ps.128" + // CIR: %[[B:.*]] = cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>> + // CIR: %[[C:.*]] = cir.vec.shuffle(%[[A]], %[[B]] : !cir.vector<4 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, #cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>> + // CIR: cir.cast bitcast %[[C]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i + + // LLVM-LABEL: test_mm_fpclass_ps_mask + // LLVM: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.ps.128 + // LLVM: %[[B:.*]] = shufflevector <4 x i1> %[[A]], <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7> + // LLVM: bitcast <8 x i1> %[[B]] to i8 + + // OGCG-LABEL: test_mm_fpclass_ps_mask + // OGCG: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.ps.128 + // OGCG: shufflevector + // OGCG: bitcast <8 x i1> {{.*}} to i8 + return _mm_fpclass_ps_mask(__A, 2); +} + +__mmask8 test_mm256_mask_fpclass_ps_mask(__mmask8 __U, __m256 __A) { + // CIR-LABEL: _mm256_mask_fpclass_ps_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.ps.256" + // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>> + // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[B]]) : !cir.vector<8 x !cir.int<s, 1>> + // CIR: cir.cast bitcast %[[C]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i + + // LLVM-LABEL: test_mm256_mask_fpclass_ps_mask + // LLVM: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.ps.256 + // LLVM: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1> + // LLVM: %[[C:.*]] = and <8 x i1> %[[A]], %[[B]] + // LLVM: bitcast <8 x i1> %[[C]] to i8 + + // OGCG-LABEL: test_mm256_mask_fpclass_ps_mask + // OGCG: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.ps.256 + // OGCG: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1> + // OGCG: %[[C:.*]] = and <8 x i1> %[[A]], %[[B]] + // OGCG: bitcast <8 x i1> %[[C]] to i8 + return _mm256_mask_fpclass_ps_mask(__U, __A, 2); +} + +__mmask8 test_mm256_fpclass_ps_mask(__m256 __A) { + // CIR-LABEL: _mm256_fpclass_ps_mask + // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.ps.256" + // CIR: cir.cast bitcast %[[A]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i + + // LLVM-LABEL: test_mm256_fpclass_ps_mask + // LLVM: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.ps.256 + // LLVM: bitcast <8 x i1> %[[A]] to i8 + + // OGCG-LABEL: test_mm256_fpclass_ps_mask + // OGCG: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.ps.256 + // OGCG: bitcast <8 x i1> %[[A]] to i8 + return _mm256_fpclass_ps_mask(__A, 2); +} + _______________________________________________ cfe-commits mailing list [email protected] https://lists.llvm.org/cgi-bin/mailman/listinfo/cfe-commits
