Author: Jianjian Guan
Date: 2026-01-14T16:20:47-08:00
New Revision: d7b6df77d0b7990ff1f00d552c316f7666a9068b

URL: 
https://github.com/llvm/llvm-project/commit/d7b6df77d0b7990ff1f00d552c316f7666a9068b
DIFF: 
https://github.com/llvm/llvm-project/commit/d7b6df77d0b7990ff1f00d552c316f7666a9068b.diff

LOG: [CIR][X86] Add CIR codegen support for fpclass x86 builtins (#172813)

This implements the handling for x86-specific fpclass builtin functions.

Added: 
    

Modified: 
    clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp
    clang/test/CIR/CodeGenBuiltins/X86/avx10_2_512bf16-builtins.c
    clang/test/CIR/CodeGenBuiltins/X86/avx10_2bf16-builtins.c
    clang/test/CIR/CodeGenBuiltins/X86/avx512dq-builtins.c
    clang/test/CIR/CodeGenBuiltins/X86/avx512fp16-builtins.c
    clang/test/CIR/CodeGenBuiltins/X86/avx512vl-builtins.c
    clang/test/CIR/CodeGenBuiltins/X86/avx512vldq-builtins.c

Removed: 
    


################################################################################
diff  --git a/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp 
b/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp
index 97d96992f9f22..44af8d6cc0ef4 100644
--- a/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp
+++ b/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp
@@ -542,6 +542,61 @@ static mlir::Value emitX86vpcom(CIRGenBuilderTy &builder, 
mlir::Location loc,
   return builder.createVecCompare(loc, pred, op0, op1);
 }
 
+static mlir::Value emitX86Fpclass(CIRGenBuilderTy &builder, mlir::Location loc,
+                                  unsigned builtinID,
+                                  SmallVectorImpl<mlir::Value> &ops) {
+  unsigned numElts = cast<cir::VectorType>(ops[0].getType()).getSize();
+  mlir::Value maskIn = ops[2];
+  ops.erase(ops.begin() + 2);
+
+  StringRef intrinsicName;
+  switch (builtinID) {
+  default:
+    llvm_unreachable("Unsupported fpclass builtin");
+  case X86::BI__builtin_ia32_vfpclassbf16128_mask:
+    intrinsicName = "x86.avx10.fpclass.bf16.128";
+    break;
+  case X86::BI__builtin_ia32_vfpclassbf16256_mask:
+    intrinsicName = "x86.avx10.fpclass.bf16.256";
+    break;
+  case X86::BI__builtin_ia32_vfpclassbf16512_mask:
+    intrinsicName = "x86.avx10.fpclass.bf16.512";
+    break;
+  case X86::BI__builtin_ia32_fpclassph128_mask:
+    intrinsicName = "x86.avx512fp16.fpclass.ph.128";
+    break;
+  case X86::BI__builtin_ia32_fpclassph256_mask:
+    intrinsicName = "x86.avx512fp16.fpclass.ph.256";
+    break;
+  case X86::BI__builtin_ia32_fpclassph512_mask:
+    intrinsicName = "x86.avx512fp16.fpclass.ph.512";
+    break;
+  case X86::BI__builtin_ia32_fpclassps128_mask:
+    intrinsicName = "x86.avx512.fpclass.ps.128";
+    break;
+  case X86::BI__builtin_ia32_fpclassps256_mask:
+    intrinsicName = "x86.avx512.fpclass.ps.256";
+    break;
+  case X86::BI__builtin_ia32_fpclassps512_mask:
+    intrinsicName = "x86.avx512.fpclass.ps.512";
+    break;
+  case X86::BI__builtin_ia32_fpclasspd128_mask:
+    intrinsicName = "x86.avx512.fpclass.pd.128";
+    break;
+  case X86::BI__builtin_ia32_fpclasspd256_mask:
+    intrinsicName = "x86.avx512.fpclass.pd.256";
+    break;
+  case X86::BI__builtin_ia32_fpclasspd512_mask:
+    intrinsicName = "x86.avx512.fpclass.pd.512";
+    break;
+  }
+
+  auto cmpResultTy = cir::VectorType::get(builder.getSIntNTy(1), numElts);
+  mlir::Value fpclass =
+      emitIntrinsicCallOp(builder, loc, intrinsicName, cmpResultTy, ops);
+  return emitX86MaskedCompareResult(builder, fpclass, numElts, maskIn, loc);
+}
+
 std::optional<mlir::Value>
 CIRGenFunction::emitX86BuiltinExpr(unsigned builtinID, const CallExpr *expr) {
   if (builtinID == Builtin::BI__builtin_cpu_is) {
@@ -1848,6 +1903,10 @@ CIRGenFunction::emitX86BuiltinExpr(unsigned builtinID, 
const CallExpr *expr) {
   case X86::BI__builtin_ia32_addcarryx_u64:
   case X86::BI__builtin_ia32_subborrow_u32:
   case X86::BI__builtin_ia32_subborrow_u64:
+    cgm.errorNYI(expr->getSourceRange(),
+                 std::string("unimplemented X86 builtin call: ") +
+                     getContext().BuiltinInfo.getName(builtinID));
+    return mlir::Value{};
   case X86::BI__builtin_ia32_fpclassps128_mask:
   case X86::BI__builtin_ia32_fpclassps256_mask:
   case X86::BI__builtin_ia32_fpclassps512_mask:
@@ -1860,10 +1919,7 @@ CIRGenFunction::emitX86BuiltinExpr(unsigned builtinID, 
const CallExpr *expr) {
   case X86::BI__builtin_ia32_fpclasspd128_mask:
   case X86::BI__builtin_ia32_fpclasspd256_mask:
   case X86::BI__builtin_ia32_fpclasspd512_mask:
-    cgm.errorNYI(expr->getSourceRange(),
-                 std::string("unimplemented X86 builtin call: ") +
-                     getContext().BuiltinInfo.getName(builtinID));
-    return mlir::Value{};
+    return emitX86Fpclass(builder, getLoc(expr->getExprLoc()), builtinID, ops);
   case X86::BI__builtin_ia32_vp2intersect_q_512:
   case X86::BI__builtin_ia32_vp2intersect_q_256:
   case X86::BI__builtin_ia32_vp2intersect_q_128:

diff  --git a/clang/test/CIR/CodeGenBuiltins/X86/avx10_2_512bf16-builtins.c 
b/clang/test/CIR/CodeGenBuiltins/X86/avx10_2_512bf16-builtins.c
index e4501889c2d60..f0482e110fc32 100644
--- a/clang/test/CIR/CodeGenBuiltins/X86/avx10_2_512bf16-builtins.c
+++ b/clang/test/CIR/CodeGenBuiltins/X86/avx10_2_512bf16-builtins.c
@@ -26,3 +26,39 @@ __m512bh test_mm512_undefined_pbh(void) {
   // OGCG: ret <32 x bfloat> zeroinitializer
   return _mm512_undefined_pbh();
 }
+
+__mmask32 test_mm512_mask_fpclass_pbh_mask(__mmask32 __U, __m512bh __A) {
+  // CIR-LABEL: _mm512_mask_fpclass_pbh_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx10.fpclass.bf16.512"
+  // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u32i -> !cir.vector<32 x 
!cir.int<s, 1>>
+  // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[B]]) : !cir.vector<32 x 
!cir.int<s, 1>>
+  // CIR: cir.cast bitcast %[[C]] : !cir.vector<32 x !cir.int<s, 1>> -> !u32i
+
+  // LLVM-LABEL: test_mm512_mask_fpclass_pbh_mask
+  // LLVM: %[[A:.*]] = call <32 x i1> @llvm.x86.avx10.fpclass.bf16.512
+  // LLVM: %[[B:.*]] = bitcast i32 {{.*}} to <32 x i1>
+  // LLVM: %[[C:.*]] = and <32 x i1> %[[A]], %[[B]]
+  // LLVM: bitcast <32 x i1> %[[C]] to i32
+
+  // OGCG-LABEL: test_mm512_mask_fpclass_pbh_mask
+  // OGCG: %[[A:.*]] = call <32 x i1> @llvm.x86.avx10.fpclass.bf16.512
+  // OGCG: %[[B:.*]] = bitcast i32 {{.*}} to <32 x i1>
+  // OGCG: %[[C:.*]] = and <32 x i1> %[[A]], %[[B]]
+  // OGCG: bitcast <32 x i1> %[[C]] to i32
+  return _mm512_mask_fpclass_pbh_mask(__U, __A, 4);
+}
+
+__mmask32 test_mm512_fpclass_pbh_mask(__m512bh __A) {
+  // CIR-LABEL: _mm512_fpclass_pbh_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx10.fpclass.bf16.512"
+  // CIR: cir.cast bitcast %[[A]] : !cir.vector<32 x !cir.int<s, 1>> -> !u32i
+
+  // LLVM-LABEL: test_mm512_fpclass_pbh_mask
+  // LLVM: %[[A:.*]] = call <32 x i1> @llvm.x86.avx10.fpclass.bf16.512
+  // LLVM: bitcast <32 x i1> %[[A]] to i32
+
+  // OGCG-LABEL: test_mm512_fpclass_pbh_mask
+  // OGCG: %[[A:.*]] = call <32 x i1> @llvm.x86.avx10.fpclass.bf16.512
+  // OGCG: bitcast <32 x i1> %[[A]] to i32
+  return _mm512_fpclass_pbh_mask(__A, 4);
+}

diff  --git a/clang/test/CIR/CodeGenBuiltins/X86/avx10_2bf16-builtins.c 
b/clang/test/CIR/CodeGenBuiltins/X86/avx10_2bf16-builtins.c
index 4dac4fa2fe811..86dd04ffdc7b6 100644
--- a/clang/test/CIR/CodeGenBuiltins/X86/avx10_2bf16-builtins.c
+++ b/clang/test/CIR/CodeGenBuiltins/X86/avx10_2bf16-builtins.c
@@ -44,4 +44,76 @@ __m256bh test_mm256_undefined_pbh(void) {
   // OGCG-LABEL: test_mm256_undefined_pbh
   // OGCG: ret <16 x bfloat> zeroinitializer
   return _mm256_undefined_pbh();
+}
+
+__mmask16 test_mm256_mask_fpclass_pbh_mask(__mmask16 __U, __m256bh __A) {
+  // CIR-LABEL: _mm256_mask_fpclass_pbh_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx10.fpclass.bf16.256"
+  // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u16i -> !cir.vector<16 x 
!cir.int<s, 1>>
+  // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[B]]) : !cir.vector<16 x 
!cir.int<s, 1>>
+  // CIR: cir.cast bitcast %[[C]] : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+
+  // LLVM-LABEL: test_mm256_mask_fpclass_pbh_mask
+  // LLVM: %[[A:.*]] = call <16 x i1> @llvm.x86.avx10.fpclass.bf16.256
+  // LLVM: %[[B:.*]] = bitcast i16 {{.*}} to <16 x i1>
+  // LLVM: %[[C:.*]] = and <16 x i1> %[[A]], %[[B]]
+  // LLVM: bitcast <16 x i1> %[[C]] to i16
+
+  // OGCG-LABEL: test_mm256_mask_fpclass_pbh_mask
+  // OGCG: %[[A:.*]] = call <16 x i1> @llvm.x86.avx10.fpclass.bf16.256
+  // OGCG: %[[B:.*]] = bitcast i16 {{.*}} to <16 x i1>
+  // OGCG: %[[C:.*]] = and <16 x i1> %[[A]], %[[B]]
+  // OGCG: bitcast <16 x i1> %[[C]] to i16
+  return _mm256_mask_fpclass_pbh_mask(__U, __A, 4);
+}
+
+__mmask16 test_mm256_fpclass_pbh_mask(__m256bh __A) {
+  // CIR-LABEL: _mm256_fpclass_pbh_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx10.fpclass.bf16.256"
+  // CIR: cir.cast bitcast %[[A]] : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+
+  // LLVM-LABEL: test_mm256_fpclass_pbh_mask
+  // LLVM: %[[A:.*]] = call <16 x i1> @llvm.x86.avx10.fpclass.bf16.256
+  // LLVM: bitcast <16 x i1> %[[A]] to i16
+
+  // OGCG-LABEL: test_mm256_fpclass_pbh_mask
+  // OGCG: %[[A:.*]] = call <16 x i1> @llvm.x86.avx10.fpclass.bf16.256
+  // OGCG: bitcast <16 x i1> %[[A]] to i16
+  return _mm256_fpclass_pbh_mask(__A, 4);
+}
+
+__mmask8 test_mm_mask_fpclass_pbh_mask(__mmask8 __U, __m128bh __A) {
+  // CIR-LABEL: _mm_mask_fpclass_pbh_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx10.fpclass.bf16.128"
+  // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u8i -> !cir.vector<8 x 
!cir.int<s, 1>>
+  // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[B]]) : !cir.vector<8 x 
!cir.int<s, 1>>
+  // CIR: cir.cast bitcast %[[C]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+
+  // LLVM-LABEL: test_mm_mask_fpclass_pbh_mask
+  // LLVM: %[[A:.*]] = call <8 x i1> @llvm.x86.avx10.fpclass.bf16.128
+  // LLVM: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1>
+  // LLVM: %[[C:.*]] = and <8 x i1> %[[A]], %[[B]]
+  // LLVM: bitcast <8 x i1> %[[C]] to i8
+
+  // OGCG-LABEL: test_mm_mask_fpclass_pbh_mask
+  // OGCG: %[[A:.*]] = call <8 x i1> @llvm.x86.avx10.fpclass.bf16.128
+  // OGCG: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1>
+  // OGCG: %[[C:.*]] = and <8 x i1> %[[A]], %[[B]]
+  // OGCG: bitcast <8 x i1> %[[C]] to i8
+  return _mm_mask_fpclass_pbh_mask(__U, __A, 4);
+}
+
+__mmask8 test_mm_fpclass_pbh_mask(__m128bh __A) {
+  // CIR-LABEL: _mm_fpclass_pbh_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx10.fpclass.bf16.128"
+  // CIR: cir.cast bitcast %[[A]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+
+  // LLVM-LABEL: test_mm_fpclass_pbh_mask
+  // LLVM: %[[A:.*]] = call <8 x i1> @llvm.x86.avx10.fpclass.bf16.128
+  // LLVM: bitcast <8 x i1> %[[A]] to i8
+
+  // OGCG-LABEL: test_mm_fpclass_pbh_mask
+  // OGCG: %[[A:.*]] = call <8 x i1> @llvm.x86.avx10.fpclass.bf16.128
+  // OGCG: bitcast <8 x i1> %[[A]] to i8
+  return _mm_fpclass_pbh_mask(__A, 4);
 }
\ No newline at end of file

diff  --git a/clang/test/CIR/CodeGenBuiltins/X86/avx512dq-builtins.c 
b/clang/test/CIR/CodeGenBuiltins/X86/avx512dq-builtins.c
index 49b3e7e642405..7e298a3e321f6 100644
--- a/clang/test/CIR/CodeGenBuiltins/X86/avx512dq-builtins.c
+++ b/clang/test/CIR/CodeGenBuiltins/X86/avx512dq-builtins.c
@@ -417,3 +417,75 @@ __m512i test_mm512_inserti64x2(__m512i __A, __m128i __B) {
   // OGCG: shufflevector <8 x i64> %{{.*}}, <8 x i64> %{{.*}}, <8 x i32> <i32 
0, i32 1, i32 8, i32 9, i32 4, i32 5, i32 6, i32 7>
   return _mm512_inserti64x2(__A, __B, 1);
 }
+
+__mmask8 test_mm512_mask_fpclass_pd_mask(__mmask8 __U, __m512d __A) {
+  // CIR-LABEL: _mm512_mask_fpclass_pd_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.pd.512"
+  // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u8i -> !cir.vector<8 x 
!cir.int<s, 1>>
+  // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[B]]) : !cir.vector<8 x 
!cir.int<s, 1>>
+  // CIR: cir.cast bitcast %[[C]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+
+  // LLVM-LABEL: test_mm512_mask_fpclass_pd_mask
+  // LLVM: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.pd.512
+  // LLVM: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1>
+  // LLVM: %[[C:.*]] = and <8 x i1> %[[A]], %[[B]]
+  // LLVM: bitcast <8 x i1> %[[C]] to i8
+
+  // OGCG-LABEL: test_mm512_mask_fpclass_pd_mask
+  // OGCG: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.pd.512
+  // OGCG: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1>
+  // OGCG: %[[C:.*]] = and <8 x i1> %[[A]], %[[B]]
+  // OGCG: bitcast <8 x i1> %[[C]] to i8
+  return _mm512_mask_fpclass_pd_mask(__U, __A, 4);
+}
+
+__mmask8 test_mm512_fpclass_pd_mask(__m512d __A) {
+  // CIR-LABEL: _mm512_fpclass_pd_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.pd.512"
+  // CIR: cir.cast bitcast %[[A]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+
+  // LLVM-LABEL: test_mm512_fpclass_pd_mask
+  // LLVM: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.pd.512
+  // LLVM: bitcast <8 x i1> %[[A]] to i8
+
+  // OGCG-LABEL: test_mm512_fpclass_pd_mask
+  // OGCG: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.pd.512
+  // OGCG: bitcast <8 x i1> %[[A]] to i8
+  return _mm512_fpclass_pd_mask(__A, 4);
+}
+
+__mmask16 test_mm512_mask_fpclass_ps_mask(__mmask16 __U, __m512 __A) {
+  // CIR-LABEL: _mm512_mask_fpclass_ps_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.ps.512"
+  // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u16i -> !cir.vector<16 x 
!cir.int<s, 1>>
+  // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[B]]) : !cir.vector<16 x 
!cir.int<s, 1>>
+  // CIR: cir.cast bitcast %[[C]] : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+
+  // LLVM-LABEL: test_mm512_mask_fpclass_ps_mask
+  // LLVM: %[[A:.*]] = call <16 x i1> @llvm.x86.avx512.fpclass.ps.512
+  // LLVM: %[[B:.*]] = bitcast i16 {{.*}} to <16 x i1>
+  // LLVM: %[[C:.*]] = and <16 x i1> %[[A]], %[[B]]
+  // LLVM: bitcast <16 x i1> %[[C]] to i16
+
+  // OGCG-LABEL: test_mm512_mask_fpclass_ps_mask
+  // OGCG: %[[A:.*]] = call <16 x i1> @llvm.x86.avx512.fpclass.ps.512
+  // OGCG: %[[B:.*]] = bitcast i16 {{.*}} to <16 x i1>
+  // OGCG: %[[C:.*]] = and <16 x i1> %[[A]], %[[B]]
+  // OGCG: bitcast <16 x i1> %[[C]] to i16
+  return _mm512_mask_fpclass_ps_mask(__U, __A, 4);
+}
+
+__mmask16 test_mm512_fpclass_ps_mask(__m512 __A) {
+  // CIR-LABEL: _mm512_fpclass_ps_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.ps.512"
+  // CIR: cir.cast bitcast %[[A]] : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+
+  // LLVM-LABEL: test_mm512_fpclass_ps_mask
+  // LLVM: %[[A:.*]] = call <16 x i1> @llvm.x86.avx512.fpclass.ps.512
+  // LLVM: bitcast <16 x i1> %[[A]] to i16
+
+  // OGCG-LABEL: test_mm512_fpclass_ps_mask
+  // OGCG: %[[A:.*]] = call <16 x i1> @llvm.x86.avx512.fpclass.ps.512
+  // OGCG: bitcast <16 x i1> %[[A]] to i16
+  return _mm512_fpclass_ps_mask(__A, 4);
+}

diff  --git a/clang/test/CIR/CodeGenBuiltins/X86/avx512fp16-builtins.c 
b/clang/test/CIR/CodeGenBuiltins/X86/avx512fp16-builtins.c
index 464fa29fffc20..74e40c0d5a76e 100644
--- a/clang/test/CIR/CodeGenBuiltins/X86/avx512fp16-builtins.c
+++ b/clang/test/CIR/CodeGenBuiltins/X86/avx512fp16-builtins.c
@@ -124,3 +124,40 @@ _Float16 test_mm512_reduce_min_ph(__m512h __W) {
   // OGCG: call nnan {{.*}}half @llvm.vector.reduce.fmin.v32f16(<32 x half> 
%{{.*}})
   return _mm512_reduce_min_ph(__W);
 }
+
+
+__mmask32 test_mm512_mask_fpclass_ph_mask(__mmask32 __U, __m512h __A) {
+  // CIR-LABEL: _mm512_mask_fpclass_ph_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512fp16.fpclass.ph.512"
+  // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u32i -> !cir.vector<32 x 
!cir.int<s, 1>>
+  // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[B]]) : !cir.vector<32 x 
!cir.int<s, 1>>
+  // CIR: cir.cast bitcast %[[C]] : !cir.vector<32 x !cir.int<s, 1>> -> !u32i
+
+  // LLVM-LABEL: test_mm512_mask_fpclass_ph_mask
+  // LLVM: %[[A:.*]] = call <32 x i1> @llvm.x86.avx512fp16.fpclass.ph.512
+  // LLVM: %[[B:.*]] = bitcast i32 {{.*}} to <32 x i1>
+  // LLVM: %[[C:.*]] = and <32 x i1> %[[A]], %[[B]]
+  // LLVM: bitcast <32 x i1> %[[C]] to i32
+
+  // OGCG-LABEL: test_mm512_mask_fpclass_ph_mask
+  // OGCG: %[[A:.*]] = call <32 x i1> @llvm.x86.avx512fp16.fpclass.ph.512
+  // OGCG: %[[B:.*]] = bitcast i32 {{.*}} to <32 x i1>
+  // OGCG: %[[C:.*]] = and <32 x i1> %[[A]], %[[B]]
+  // OGCG: bitcast <32 x i1> %[[C]] to i32
+  return _mm512_mask_fpclass_ph_mask(__U, __A, 4);
+}
+
+__mmask32 test_mm512_fpclass_ph_mask(__m512h __A) {
+  // CIR-LABEL: _mm512_fpclass_ph_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512fp16.fpclass.ph.512"
+  // CIR: cir.cast bitcast %[[A]] : !cir.vector<32 x !cir.int<s, 1>> -> !u32i
+
+  // LLVM-LABEL: test_mm512_fpclass_ph_mask
+  // LLVM: %[[A:.*]] = call <32 x i1> @llvm.x86.avx512fp16.fpclass.ph.512
+  // LLVM: bitcast <32 x i1> %[[A]] to i32
+
+  // OGCG-LABEL: test_mm512_fpclass_ph_mask
+  // OGCG: %[[A:.*]] = call <32 x i1> @llvm.x86.avx512fp16.fpclass.ph.512
+  // OGCG: bitcast <32 x i1> %[[A]] to i32
+  return _mm512_fpclass_ph_mask(__A, 4);
+}

diff  --git a/clang/test/CIR/CodeGenBuiltins/X86/avx512vl-builtins.c 
b/clang/test/CIR/CodeGenBuiltins/X86/avx512vl-builtins.c
index d61d1a5be7dc0..c3f60be490736 100644
--- a/clang/test/CIR/CodeGenBuiltins/X86/avx512vl-builtins.c
+++ b/clang/test/CIR/CodeGenBuiltins/X86/avx512vl-builtins.c
@@ -310,3 +310,4 @@ __m128d test_mm_maskz_expand_pd(__mmask8 __U, __m128d __A) {
 
   return _mm_maskz_expand_pd(__U,__A);
 }
+

diff  --git a/clang/test/CIR/CodeGenBuiltins/X86/avx512vldq-builtins.c 
b/clang/test/CIR/CodeGenBuiltins/X86/avx512vldq-builtins.c
index 2e3ec00558bf7..84cbc387032a8 100644
--- a/clang/test/CIR/CodeGenBuiltins/X86/avx512vldq-builtins.c
+++ b/clang/test/CIR/CodeGenBuiltins/X86/avx512vldq-builtins.c
@@ -165,3 +165,176 @@ __m256i test_mm256_inserti64x2(__m256i __A, __m128i __B) {
   // OGCG: shufflevector <4 x i64> %{{.*}}, <4 x i64> %{{.*}}, <4 x i32> <i32 
0, i32 1, i32 4, i32 5>
   return _mm256_inserti64x2(__A, __B, 1);
 }
+
+
+__mmask8 test_mm_mask_fpclass_pd_mask(__mmask8 __U, __m128d __A) {
+  // CIR-LABEL: _mm_mask_fpclass_pd_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.pd.128"
+  // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u8i -> !cir.vector<8 x 
!cir.int<s, 1>>
+  // CIR: %[[SHUF:.*]] = cir.vec.shuffle(%[[B]], %[[B]] : !cir.vector<8 x 
!cir.int<s, 1>>) [#cir.int<0> : !s32i, #cir.int<1> : !s32i] : !cir.vector<2 x 
!cir.int<s, 1>>
+  // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[SHUF]]) : !cir.vector<2 x 
!cir.int<s, 1>>
+  // CIR: %[[D:.*]] = cir.const #cir.zero : !cir.vector<2 x !cir.int<s, 1>>
+  // CIR: %[[E:.*]] = cir.vec.shuffle(%[[C]], %[[D]] : !cir.vector<2 x 
!cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : 
!s64i, #cir.int<3> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, 
#cir.int<2> : !s64i, #cir.int<3> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+  // CIR: cir.cast bitcast %[[E]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+
+  // LLVM-LABEL: test_mm_mask_fpclass_pd_mask
+  // LLVM: %[[A:.*]] = call <2 x i1> @llvm.x86.avx512.fpclass.pd.128
+  // LLVM: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1>
+  // LLVM: %[[C:.*]] = shufflevector <8 x i1> %[[B]], <8 x i1> %[[B]], <2 x 
i32> <i32 0, i32 1>
+  // LLVM: %[[D:.*]] = and <2 x i1> %[[A]], %[[C]]
+  // LLVM: %[[E:.*]] = shufflevector <2 x i1> %[[D]], <2 x i1> 
zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 2, i32 3, i32 2, 
i32 3>
+  // LLVM: bitcast <8 x i1> %[[E]] to i8
+
+  // OGCG-LABEL: test_mm_mask_fpclass_pd_mask
+  // OGCG: %[[A:.*]] = call <2 x i1> @llvm.x86.avx512.fpclass.pd.128
+  // OGCG: and <2 x i1>
+  // OGCG: shufflevector
+  // OGCG: bitcast <8 x i1> {{.*}} to i8
+  return _mm_mask_fpclass_pd_mask(__U, __A, 2);
+}
+
+__mmask8 test_mm_fpclass_pd_mask(__m128d __A) {
+  // CIR-LABEL: _mm_fpclass_pd_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.pd.128"
+  // CIR: %[[B:.*]] = cir.const #cir.zero : !cir.vector<2 x !cir.int<s, 1>>
+  // CIR: %[[C:.*]] = cir.vec.shuffle(%[[A]], %[[B]] : !cir.vector<2 x 
!cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : 
!s64i, #cir.int<3> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, 
#cir.int<2> : !s64i, #cir.int<3> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+  // CIR: cir.cast bitcast %[[C]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+
+  // LLVM-LABEL: test_mm_fpclass_pd_mask
+  // LLVM: %[[A:.*]] = call <2 x i1> @llvm.x86.avx512.fpclass.pd.128
+  // LLVM: %[[B:.*]] = shufflevector <2 x i1> %[[A]], <2 x i1> 
zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 2, i32 3, i32 2, 
i32 3>
+  // LLVM: bitcast <8 x i1> %[[B]] to i8
+
+  // OGCG-LABEL: test_mm_fpclass_pd_mask
+  // OGCG: %[[A:.*]] = call <2 x i1> @llvm.x86.avx512.fpclass.pd.128
+  // OGCG: shufflevector
+  // OGCG: bitcast <8 x i1> {{.*}} to i8
+  return _mm_fpclass_pd_mask(__A, 2);
+}
+
+__mmask8 test_mm256_mask_fpclass_pd_mask(__mmask8 __U, __m256d __A) {
+  // CIR-LABEL: _mm256_mask_fpclass_pd_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.pd.256"
+  // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u8i -> !cir.vector<8 x 
!cir.int<s, 1>>
+  // CIR: %[[SHUF:.*]] = cir.vec.shuffle(%[[B]], %[[B]] : !cir.vector<8 x 
!cir.int<s, 1>>) [#cir.int<0> : !s32i, #cir.int<1> : !s32i, #cir.int<2> : 
!s32i, #cir.int<3> : !s32i] : !cir.vector<4 x !cir.int<s, 1>>
+  // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[SHUF]]) : !cir.vector<4 x 
!cir.int<s, 1>>
+  // CIR: %[[D:.*]] = cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>>
+  // CIR: %[[E:.*]] = cir.vec.shuffle(%[[C]], %[[D]] : !cir.vector<4 x 
!cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : 
!s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, 
#cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+  // CIR: cir.cast bitcast %[[E]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+
+  // LLVM-LABEL: test_mm256_mask_fpclass_pd_mask
+  // LLVM: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.pd.256
+  // LLVM: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1>
+  // LLVM: %[[C:.*]] = shufflevector <8 x i1> %[[B]], <8 x i1> %[[B]], <4 x 
i32> <i32 0, i32 1, i32 2, i32 3>
+  // LLVM: %[[D:.*]] = and <4 x i1> %[[A]], %[[C]]
+  // LLVM: %[[E:.*]] = shufflevector <4 x i1> %[[D]], <4 x i1> 
zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, 
i32 7>
+  // LLVM: bitcast <8 x i1> %[[E]] to i8
+
+  // OGCG-LABEL: test_mm256_mask_fpclass_pd_mask
+  // OGCG: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.pd.256
+  // OGCG: and <4 x i1>
+  // OGCG: shufflevector
+  // OGCG: bitcast <8 x i1> {{.*}} to i8
+  return _mm256_mask_fpclass_pd_mask(__U, __A, 2);
+}
+
+__mmask8 test_mm256_fpclass_pd_mask(__m256d __A) {
+  // CIR-LABEL: _mm256_fpclass_pd_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.pd.256"
+  // CIR: %[[B:.*]] = cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>>
+  // CIR: %[[C:.*]] = cir.vec.shuffle(%[[A]], %[[B]] : !cir.vector<4 x 
!cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : 
!s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, 
#cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+  // CIR: cir.cast bitcast %[[C]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+
+  // LLVM-LABEL: test_mm256_fpclass_pd_mask
+  // LLVM: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.pd.256
+  // LLVM: %[[B:.*]] = shufflevector <4 x i1> %[[A]], <4 x i1> 
zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, 
i32 7>
+  // LLVM: bitcast <8 x i1> %[[B]] to i8
+
+  // OGCG-LABEL: test_mm256_fpclass_pd_mask
+  // OGCG: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.pd.256
+  // OGCG: shufflevector
+  // OGCG: bitcast <8 x i1> {{.*}} to i8
+  return _mm256_fpclass_pd_mask(__A, 2);
+}
+
+__mmask8 test_mm_mask_fpclass_ps_mask(__mmask8 __U, __m128 __A) {
+  // CIR-LABEL: _mm_mask_fpclass_ps_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.ps.128"
+  // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u8i -> !cir.vector<8 x 
!cir.int<s, 1>>
+  // CIR: %[[SHUF:.*]] = cir.vec.shuffle(%[[B]], %[[B]] : !cir.vector<8 x 
!cir.int<s, 1>>) [#cir.int<0> : !s32i, #cir.int<1> : !s32i, #cir.int<2> : 
!s32i, #cir.int<3> : !s32i] : !cir.vector<4 x !cir.int<s, 1>>
+  // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[SHUF]]) : !cir.vector<4 x 
!cir.int<s, 1>>
+  // CIR: %[[D:.*]] = cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>>
+  // CIR: %[[E:.*]] = cir.vec.shuffle(%[[C]], %[[D]] : !cir.vector<4 x 
!cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : 
!s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, 
#cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+  // CIR: cir.cast bitcast %[[E]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+
+  // LLVM-LABEL: test_mm_mask_fpclass_ps_mask
+  // LLVM: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.ps.128
+  // LLVM: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1>
+  // LLVM: %[[C:.*]] = shufflevector <8 x i1> %[[B]], <8 x i1> %[[B]], <4 x 
i32> <i32 0, i32 1, i32 2, i32 3>
+  // LLVM: %[[D:.*]] = and <4 x i1> %[[A]], %[[C]]
+  // LLVM: %[[E:.*]] = shufflevector <4 x i1> %[[D]], <4 x i1> 
zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, 
i32 7>
+  // LLVM: bitcast <8 x i1> %[[E]] to i8
+
+  // OGCG-LABEL: test_mm_mask_fpclass_ps_mask
+  // OGCG: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.ps.128
+  // OGCG: and <4 x i1>
+  // OGCG: shufflevector
+  // OGCG: bitcast <8 x i1> {{.*}} to i8
+  return _mm_mask_fpclass_ps_mask(__U, __A, 2);
+}
+
+__mmask8 test_mm_fpclass_ps_mask(__m128 __A) {
+  // CIR-LABEL: _mm_fpclass_ps_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.ps.128"
+  // CIR: %[[B:.*]] = cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>>
+  // CIR: %[[C:.*]] = cir.vec.shuffle(%[[A]], %[[B]] : !cir.vector<4 x 
!cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : 
!s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, 
#cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+  // CIR: cir.cast bitcast %[[C]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+
+  // LLVM-LABEL: test_mm_fpclass_ps_mask
+  // LLVM: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.ps.128
+  // LLVM: %[[B:.*]] = shufflevector <4 x i1> %[[A]], <4 x i1> 
zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, 
i32 7>
+  // LLVM: bitcast <8 x i1> %[[B]] to i8
+
+  // OGCG-LABEL: test_mm_fpclass_ps_mask
+  // OGCG: %[[A:.*]] = call <4 x i1> @llvm.x86.avx512.fpclass.ps.128
+  // OGCG: shufflevector
+  // OGCG: bitcast <8 x i1> {{.*}} to i8
+  return _mm_fpclass_ps_mask(__A, 2);
+}
+
+__mmask8 test_mm256_mask_fpclass_ps_mask(__mmask8 __U, __m256 __A) {
+  // CIR-LABEL: _mm256_mask_fpclass_ps_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.ps.256"
+  // CIR: %[[B:.*]] = cir.cast bitcast {{.*}} : !u8i -> !cir.vector<8 x 
!cir.int<s, 1>>
+  // CIR: %[[C:.*]] = cir.binop(and, %[[A]], %[[B]]) : !cir.vector<8 x 
!cir.int<s, 1>>
+  // CIR: cir.cast bitcast %[[C]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+
+  // LLVM-LABEL: test_mm256_mask_fpclass_ps_mask
+  // LLVM: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.ps.256
+  // LLVM: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1>
+  // LLVM: %[[C:.*]] = and <8 x i1> %[[A]], %[[B]]
+  // LLVM: bitcast <8 x i1> %[[C]] to i8
+
+  // OGCG-LABEL: test_mm256_mask_fpclass_ps_mask
+  // OGCG: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.ps.256
+  // OGCG: %[[B:.*]] = bitcast i8 {{.*}} to <8 x i1>
+  // OGCG: %[[C:.*]] = and <8 x i1> %[[A]], %[[B]]
+  // OGCG: bitcast <8 x i1> %[[C]] to i8
+  return _mm256_mask_fpclass_ps_mask(__U, __A, 2);
+}
+
+__mmask8 test_mm256_fpclass_ps_mask(__m256 __A) {
+  // CIR-LABEL: _mm256_fpclass_ps_mask
+  // CIR: %[[A:.*]] = cir.call_llvm_intrinsic "x86.avx512.fpclass.ps.256"
+  // CIR: cir.cast bitcast %[[A]] : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+
+  // LLVM-LABEL: test_mm256_fpclass_ps_mask
+  // LLVM: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.ps.256
+  // LLVM: bitcast <8 x i1> %[[A]] to i8
+
+  // OGCG-LABEL: test_mm256_fpclass_ps_mask
+  // OGCG: %[[A:.*]] = call <8 x i1> @llvm.x86.avx512.fpclass.ps.256
+  // OGCG: bitcast <8 x i1> %[[A]] to i8
+  return _mm256_fpclass_ps_mask(__A, 2);
+}
+


        
_______________________________________________
cfe-commits mailing list
[email protected]
https://lists.llvm.org/cgi-bin/mailman/listinfo/cfe-commits

Reply via email to