https://gcc.gnu.org/bugzilla/show_bug.cgi?id=99408

--- Comment #3 from Jan Hubicka <hubicka at gcc dot gnu.org> ---
with zen4 gcc build loop takes 19s, while aocc 6.6.

aocc:

.LBB0_1:                                # %for.cond22.preheader
                                        # =>This Loop Header: Depth=1
                                        #     Child Loop BB0_2 Depth 2
        vbroadcastss    a(%rip), %zmm20
        xorl    %ecx, %ecx
        .p2align        4, 0x90
.LBB0_2:                                # %vector.body
                                        #   Parent Loop BB0_1 Depth=1
                                        # =>  This Inner Loop Header: Depth=2
        vmovups c(%rcx), %zmm13
        vmovaps %zmm20, %zmm12
        vmovups e(%rcx), %zmm0
        vaddps  b(%rcx), %zmm13, %zmm20
        vmulps  %zmm13, %zmm0, %zmm13
        vmovaps %zmm20, %zmm15
        vpermt2ps       %zmm12, %zmm29, %zmm15
        vmovups %zmm20, a+4(%rcx)
        vmovups %zmm13, b(%rcx)
        vmulps  %zmm0, %zmm15, %zmm12
        vmovups %zmm12, d(%rcx)
        addq    $64, %rcx
        cmpq    $127936, %rcx                   # imm = 0x1F3C0
        jne     .LBB0_2
# %bb.3:                                # %middle.block

        vextractf32x4   $3, %zmm20, %xmm5
        vmovss  -4(%rsp), %xmm2                 # 4-byte Reload
                                        # xmm2 = mem[0],zero,zero,zero
        vmovss  -12(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        incl    %eax
        vaddss  b+127936(%rip), %xmm2, %xmm2
        vpermilps       $231, %xmm5, %xmm5      # xmm5 = xmm5[3,1,2,3]
        vmulss  -8(%rsp), %xmm5, %xmm5          # 4-byte Folded Reload
        vmovss  %xmm0, b+127936(%rip)
        vmovss  -16(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vmovss  %xmm2, a+127940(%rip)
        vmulss  -20(%rsp), %xmm2, %xmm2         # 4-byte Folded Reload
        vmovss  %xmm5, d+127936(%rip)
        vaddss  b+127940(%rip), %xmm0, %xmm5
        vmovss  -24(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vmovss  %xmm0, b+127940(%rip)
        vmovss  -28(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vmovss  %xmm2, d+127940(%rip)
        vaddss  b+127944(%rip), %xmm0, %xmm2
        vmovss  -36(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vmovss  %xmm5, a+127944(%rip)
        vmulss  -32(%rsp), %xmm5, %xmm5         # 4-byte Folded Reload
        vmovss  %xmm0, b+127944(%rip)
        vmovss  -40(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vmovss  %xmm2, a+127948(%rip)
        vmulss  %xmm22, %xmm2, %xmm2
        vmovss  %xmm5, d+127944(%rip)
        vaddss  b+127948(%rip), %xmm21, %xmm5
        vmovss  %xmm2, d+127948(%rip)
        vmovss  %xmm0, b+127948(%rip)
        vmovss  -44(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vaddss  b+127952(%rip), %xmm24, %xmm2
        vmovss  %xmm5, a+127952(%rip)
        vmulss  %xmm25, %xmm5, %xmm5
        vmovss  %xmm0, b+127952(%rip)
        vmovss  -48(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vmovss  %xmm5, d+127952(%rip)
        vaddss  b+127956(%rip), %xmm27, %xmm5
        vmovss  %xmm2, a+127956(%rip)
        vmulss  %xmm28, %xmm2, %xmm2
        vmovss  %xmm2, d+127956(%rip)
        vmovss  %xmm0, b+127956(%rip)
        vmovss  -52(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vaddss  b+127960(%rip), %xmm30, %xmm2
        vmovss  %xmm5, a+127960(%rip)
        vmulss  %xmm31, %xmm5, %xmm5
        vmovss  %xmm5, d+127960(%rip)
        vmovss  %xmm0, b+127960(%rip)
        vmovss  -56(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vaddss  b+127964(%rip), %xmm16, %xmm5
        vmovss  %xmm2, a+127964(%rip)
        vmulss  %xmm18, %xmm2, %xmm2
        vmovss  %xmm2, d+127964(%rip)
        vmovss  %xmm0, b+127964(%rip)
        vmovss  -60(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vaddss  b+127968(%rip), %xmm19, %xmm2
        vmovss  %xmm5, a+127968(%rip)
        vmulss  %xmm1, %xmm5, %xmm5
        vmovss  %xmm5, d+127968(%rip)
        vmovss  %xmm0, b+127968(%rip)
        vmovss  -64(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vaddss  b+127972(%rip), %xmm3, %xmm5
        vmovss  %xmm2, a+127972(%rip)
        vmulss  %xmm4, %xmm2, %xmm2
        vmovss  %xmm2, d+127972(%rip)
        vmovss  %xmm0, b+127972(%rip)
        vmovss  -68(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vaddss  b+127976(%rip), %xmm6, %xmm2
        vmovss  %xmm5, a+127976(%rip)
        vmulss  %xmm7, %xmm5, %xmm5
        vmovss  %xmm5, d+127976(%rip)
        vmovss  %xmm0, b+127976(%rip)
        vmovss  -72(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vaddss  b+127980(%rip), %xmm9, %xmm5
        vmovss  %xmm2, a+127980(%rip)
        vmulss  %xmm2, %xmm10, %xmm2
        vmovss  %xmm2, d+127980(%rip)
        vmovss  %xmm0, b+127980(%rip)
        vmovss  -76(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vaddss  b+127984(%rip), %xmm14, %xmm2
        vmovss  %xmm5, a+127984(%rip)
        vmulss  %xmm17, %xmm5, %xmm5
        vmovss  %xmm5, d+127984(%rip)
        vmovss  %xmm0, b+127984(%rip)
        vmovss  -80(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vaddss  b+127988(%rip), %xmm23, %xmm5
        vmovss  %xmm2, a+127988(%rip)
        vmulss  %xmm26, %xmm2, %xmm2
        vmovss  %xmm2, d+127988(%rip)
        vmovss  %xmm0, b+127988(%rip)
        vaddss  b+127992(%rip), %xmm8, %xmm2
        vmulss  %xmm5, %xmm11, %xmm0
        vmovss  %xmm5, a+127992(%rip)
        vmovss  %xmm0, d+127992(%rip)
        vmovss  -84(%rsp), %xmm0                # 4-byte Reload
                                        # xmm0 = mem[0],zero,zero,zero
        vmovss  %xmm2, a+127996(%rip)
        vmovss  %xmm0, b+127992(%rip)
        cmpl    $1000000, %eax                  # imm = 0xF4240
        jne     .LBB0_1

gcc:
.L2:
        vmovdqa32       %zmm5, %zmm1
        addq    $320, %rax
        vpaddd  %zmm2, %zmm5, %zmm5
        vmovdqa32       %zmm6, %zmm0
        vpaddd  %zmm2, %zmm6, %zmm6
        vpaddd  %zmm24, %zmm1, %zmm25
        vpaddd  %zmm23, %zmm1, %zmm1
        valignq $3, %ymm25, %ymm25, %ymm26
        vmovq   %xmm25, -320(%rax)
        vpextrq $1, %xmm25, -300(%rax)
        vmovq   %xmm1, -160(%rax)
        vpextrq $1, %xmm1, -140(%rax)
        vextracti64x2   $1, %ymm25, %xmm27
        vextracti64x4   $0x1, %zmm25, %ymm25
        vmovq   %xmm26, -260(%rax)
        vmovq   %xmm25, -240(%rax)
        vpextrq $1, %xmm25, -220(%rax)
        vextracti64x2   $1, %ymm25, %xmm26
        vmovq   %xmm27, -280(%rax)
        valignq $3, %ymm25, %ymm25, %ymm25
        vmovq   %xmm26, -200(%rax)
        vmovq   %xmm25, -180(%rax)
        valignq $3, %ymm1, %ymm1, %ymm25
        vextracti64x2   $1, %ymm1, %xmm26
        vextracti64x4   $0x1, %zmm1, %ymm1
        vmovq   %xmm25, -100(%rax)
        vmovq   %xmm1, -80(%rax)
        vpextrq $1, %xmm1, -60(%rax)
        vextracti64x2   $1, %ymm1, %xmm25
        vmovq   %xmm26, -120(%rax)
        vmovdqa32       %zmm0, %zmm26
        valignq $3, %ymm1, %ymm1, %ymm1
        vmovq   %xmm25, -40(%rax)
        vpaddd  %zmm3, %zmm0, %zmm25
        vmovq   %xmm1, -20(%rax)
        vpaddd  %zmm4, %zmm0, %zmm1
        vpermt2d        %zmm1, %zmm22, %zmm26
        vmovq   %xmm26, -312(%rax)
        vmovdqa32       %zmm0, %zmm26
        vpermt2d        %zmm1, %zmm21, %zmm26
        vmovq   %xmm26, %rdx
        vmovdqa32       %zmm0, %zmm26
        movq    %rdx, -292(%rax)
        vpermt2d        %zmm1, %zmm20, %zmm26
        vmovq   %xmm26, -272(%rax)
        vmovdqa32       %zmm0, %zmm26
        vpermt2d        %zmm1, %zmm19, %zmm26
        vmovq   %xmm26, %rdx
        vmovdqa32       %zmm0, %zmm26
        movq    %rdx, -252(%rax)
        vpermt2d        %zmm1, %zmm18, %zmm26
        vmovq   %xmm26, -232(%rax)
        vmovdqa32       %zmm0, %zmm26
        vpermt2d        %zmm1, %zmm17, %zmm26
        vmovq   %xmm26, %rdx
        vmovdqa32       %zmm0, %zmm26
        movq    %rdx, -212(%rax)
        vpermt2d        %zmm1, %zmm16, %zmm26
        vmovq   %xmm26, -192(%rax)
        vmovdqa32       %zmm0, %zmm26
        vpermt2d        %zmm1, %zmm15, %zmm26
        vmovq   %xmm26, %rdx
        vmovdqa32       %zmm0, %zmm26
        movq    %rdx, -172(%rax)
        vpermt2d        %zmm1, %zmm14, %zmm26
        vmovq   %xmm26, -152(%rax)
        vmovdqa32       %zmm0, %zmm26
        vpermt2d        %zmm1, %zmm13, %zmm26
        vmovq   %xmm26, %rdx
        vmovdqa32       %zmm0, %zmm26
        movq    %rdx, -132(%rax)
        vpermt2d        %zmm1, %zmm12, %zmm26
        vmovq   %xmm26, -112(%rax)
        vmovdqa32       %zmm0, %zmm26
        vpermt2d        %zmm1, %zmm11, %zmm26
        vmovq   %xmm26, %rdx
        vmovdqa32       %zmm0, %zmm26
        movq    %rdx, -92(%rax)
        vpermt2d        %zmm1, %zmm10, %zmm26
        vmovq   %xmm26, -72(%rax)
        vmovdqa32       %zmm0, %zmm26
        vpermt2d        %zmm1, %zmm9, %zmm26
        vmovq   %xmm26, %rdx
        vmovdqa32       %zmm0, %zmm26
        vpermt2d        %zmm1, %zmm7, %zmm0
        vmovq   %xmm0, -12(%rax)
        movq    %rdx, -52(%rax)
        vmovdqa32       %ymm25, %ymm0
        vpermt2d        %zmm1, %zmm8, %zmm26
        vextracti32x4   $1, %ymm25, %xmm1
        vmovq   %xmm26, -32(%rax)
        vmovd   %xmm25, -304(%rax)
        vpextrd $1, %xmm0, -284(%rax)
        vpextrd $2, %xmm0, -264(%rax)
        vmovd   %xmm1, -224(%rax)
        valignd $5, %ymm25, %ymm25, %ymm1
        vpextrd $3, %xmm0, -244(%rax)
        valignd $7, %ymm25, %ymm25, %ymm0
        vmovd   %xmm1, -204(%rax)
        valignd $6, %ymm25, %ymm25, %ymm1
        vmovd   %xmm0, -164(%rax)
        vextracti32x8   $0x1, %zmm25, %ymm0
        vmovd   %xmm0, -144(%rax)
        vpextrd $1, %xmm0, -124(%rax)
        vmovd   %xmm1, -184(%rax)
        vextracti32x4   $1, %ymm0, %xmm1
        vpextrd $2, %xmm0, -104(%rax)
        vpextrd $3, %xmm0, -84(%rax)
        vmovd   %xmm1, -64(%rax)
        valignd $5, %ymm0, %ymm0, %ymm1
        vmovd   %xmm1, -44(%rax)
        valignd $6, %ymm0, %ymm0, %ymm1
        valignd $7, %ymm0, %ymm0, %ymm0
        vmovd   %xmm1, -24(%rax)
        vmovd   %xmm0, -4(%rax)
        cmpq    %rcx, %rax
        jne     .L2

Reply via email to