On Sun, Apr 20, 2025 at 4:19 AM Jan Hubicka <[email protected]> wrote:
>
> > On Tue, Apr 8, 2025 at 3:52 AM H.J. Lu <[email protected]> wrote:
> > >
> > > Simplify memcpy and memset inline strategies to avoid branches for
> > > -mtune=generic:
> > >
> > > 1. With MOVE_RATIO and CLEAR_RATIO == 17, GCC will use integer/vector
> > > load and store for up to 16 * 16 (256) bytes when the data size is
> > > fixed and known.
>
> Originally we set CLEAR_RATION smaller than MOVE_RATIO because to store
> zeros we use:
>
> 0: 48 c7 07 00 00 00 00 movq $0x0,(%rdi)
> 7: 48 c7 47 08 00 00 00 movq $0x0,0x8(%rdi)
> e: 00
> f: 48 c7 47 10 00 00 00 movq $0x0,0x10(%rdi)
> 16: 00
> 17: 48 c7 47 18 00 00 00 movq $0x0,0x18(%rdi)
> 1e: 00
>
> so about 8 bytes per instructions. We could optimize it by loading 0
This is orthogonal to this patch.
> to scratch register but we don't. SSE variant is shorter:
>
> 4: 0f 11 07 movups %xmm0,(%rdi)
> 7: 0f 11 47 10 movups %xmm0,0x10(%rdi)
>
> So I wonder if we care about code size with -mno-sse (i.e. for building
> kernel).
This patch doesn't change -Os behavior which uses x86_size_cost,
not generic_cost.
> > > static stringop_algs generic_memcpy[2] = {
> > > - {libcall, {{32, loop, false}, {8192, rep_prefix_4_byte, false},
> > > - {-1, libcall, false}}},
> > > - {libcall, {{32, loop, false}, {8192, rep_prefix_8_byte, false},
> > > - {-1, libcall, false}}}};
> > > + {libcall,
> > > + {{256, rep_prefix_1_byte, true},
> > > + {256, loop, false},
> False/true here is stringop_algs->noalign field which is used to control
> enable/siable alignment prologue. For rep_prefix_1_byte it should be
> noop except for pentiumpro which preferred alignment of 8.
>
> decide_alg picks first useable algorithm with size greater than expected
> size of the block. rep_prefix_1_byte may become unuseable if user fixes
> AX/CX/SI/DI, but it won't pick loop if size is known.
>
> A reason why we use loop for small blocks is that Buldozers were quite
> poor on handling rep movsb for very small blocks. We probably want to
> retune generic w/o too much of buldozer specific considerations.
> There is a simple microbenchmark in contrib/bench-stringops that cycles
> through different algs and different average sizes
>
> on znver5 and memcpy I get:
> memcpy
> block size libcall rep1 noalg rep4 noalg rep8 noalg loop
> noalg unrl noalg sse noalg byte PGO dynamic BEST
> 8192000 0:00.07 0:00.11 0:00.11 0:00.11 0:00.09 0:00.11 0:00.08 0:00.15
> 0:00.15 0:00.10 0:00.11 0:00.10 0:00.08 0:01.18 0:00.07 0:00.07 0:00.07
> libcall
> 819200 0:00.07 0:00.07 0:00.07 0:00.07 0:00.07 0:00.07 0:00.07 0:00.15
> 0:00.15 0:00.09 0:00.10 0:00.09 0:00.09 0:01.17 0:00.07 0:00.07 0:00.07
> libcall
> 81920 0:00.08 0:00.08 0:00.11 0:00.05 0:00.06 0:00.07 0:00.06 0:00.20
> 0:00.20 0:00.12 0:00.13 0:00.10 0:00.10 0:01.57 0:00.08 0:00.08 0:00.05
> rep4
> 20480 0:00.06 0:00.05 0:00.05 0:00.05 0:00.05 0:00.05 0:00.05 0:00.15
> 0:00.15 0:00.08 0:00.10 0:00.06 0:00.06 0:01.18 0:00.05 0:00.06 0:00.05
> rep1
> 8192 0:00.05 0:00.04 0:00.04 0:00.03 0:00.05 0:00.03 0:00.05 0:00.15
> 0:00.16 0:00.09 0:00.10 0:00.06 0:00.07 0:01.17 0:00.03 0:00.05 0:00.03
> rep4
> 4096 0:00.03 0:00.04 0:00.04 0:00.04 0:00.05 0:00.04 0:00.05 0:00.16
> 0:00.17 0:00.09 0:00.10 0:00.07 0:00.07 0:01.18 0:00.04 0:00.04 0:00.03
> libcall
> 2048 0:00.03 0:00.05 0:00.05 0:00.05 0:00.06 0:00.05 0:00.05 0:00.18
> 0:00.18 0:00.08 0:00.10 0:00.09 0:00.08 0:01.20 0:00.05 0:00.05 0:00.03
> libcall
> 1024 0:00.04 0:00.07 0:00.06 0:00.07 0:00.07 0:00.07 0:00.06 0:00.19
> 0:00.19 0:00.09 0:00.10 0:00.09 0:00.10 0:01.23 0:00.07 0:00.07 0:00.04
> libcall
> 512 0:00.06 0:00.11 0:00.11 0:00.11 0:00.11 0:00.11 0:00.10 0:00.18
> 0:00.19 0:00.10 0:00.11 0:00.12 0:00.13 0:01.30 0:00.11 0:00.11 0:00.06
> libcall
> 256 0:00.11 0:00.18 0:00.18 0:00.17 0:00.17 0:00.17 0:00.16 0:00.17
> 0:00.19 0:00.12 0:00.13 0:00.17 0:00.20 0:01.40 0:00.17 0:00.17 0:00.11
> libcall
> 128 0:00.16 0:00.27 0:00.27 0:00.20 0:00.18 0:00.19 0:00.18 0:00.20
> 0:00.21 0:00.17 0:00.18 0:00.31 0:00.48 0:01.41 0:00.19 0:00.19 0:00.16
> libcall
> 64 0:00.24 0:00.23 0:00.23 0:00.39 0:00.36 0:00.37 0:00.34 0:00.26
> 0:00.26 0:00.26 0:00.27 0:00.68 0:00.81 0:01.57 0:00.36 0:00.37 0:00.23
> rep1
> 48 0:00.30 0:00.34 0:00.34 0:00.51 0:00.50 0:00.49 0:00.47 0:00.33
> 0:00.32 0:00.32 0:00.33 0:00.84 0:00.96 0:01.48 0:00.49 0:00.49 0:00.30
> libcall
> 32 0:00.40 0:00.46 0:00.47 0:00.76 0:00.71 0:00.71 0:00.65 0:00.43
> 0:00.42 0:00.43 0:00.42 0:01.26 0:01.13 0:01.26 0:00.71 0:00.43 0:00.40
> libcall
> 24 0:00.54 0:00.67 0:00.65 0:01.01 0:00.98 0:00.95 0:00.89 0:00.57
> 0:00.52 0:00.53 0:00.52 0:01.21 0:01.21 0:01.18 0:00.95 0:00.57 0:00.52
> loopnoalign
> 16 0:00.71 0:00.90 0:00.91 0:01.48 0:01.36 0:01.39 0:01.17 0:00.71
> 0:00.66 0:00.59 0:00.59 0:01.21 0:01.14 0:01.21 0:00.72 0:00.72 0:00.59
> unrl
> 14 0:00.86 0:01.13 0:01.15 0:01.73 0:01.64 0:01.62 0:01.41 0:00.83
> 0:00.74 0:00.70 0:00.66 0:01.40 0:01.40 0:01.29 0:00.83 0:00.83 0:00.66
> unrlnoalign
> 12 0:01.02 0:01.31 0:01.30 0:01.98 0:01.88 0:01.87 0:01.58 0:00.93
> 0:00.82 0:00.80 0:00.74 0:01.31 0:01.33 0:01.31 0:00.93 0:00.94 0:00.74
> unrlnoalign
> 10 0:01.19 0:01.57 0:01.55 0:02.37 0:02.20 0:02.21 0:01.79 0:01.06
> 0:00.92 0:00.94 0:00.87 0:01.40 0:01.37 0:01.38 0:01.06 0:01.05 0:00.87
> unrlnoalign
> 8 0:01.47 0:01.79 0:01.78 0:02.87 0:02.55 0:02.60 0:01.92 0:01.25
> 0:01.13 0:01.13 0:01.13 0:01.49 0:01.49 0:01.48 0:01.26 0:01.26 0:01.13
> loopnoalign
> 6 0:01.94 0:02.59 0:02.55 0:03.87 0:03.40 0:03.09 0:02.39 0:01.54
> 0:01.44 0:01.50 0:01.44 0:01.73 0:01.73 0:01.71 0:01.53 0:01.54 0:01.44
> loopnoalign
> 4 0:02.55 0:03.56 0:03.57 0:05.30 0:04.35 0:02.11 0:02.12 0:02.10
> 0:02.11 0:02.10 0:02.13 0:02.08 0:02.07 0:02.06 0:02.11 0:02.07 0:02.06
> byte
>
> so while rep stosb improved, it is still slower than the open-coded version
> for blocks of average size <32
>
> SPEC is not very sensitive to string op implementation. I wonder if you
> have specific testcases where using loop variant for very small blocks
> is a loss?
For small blocks with known sizes, loop is slower because of branches.
> We are also better on picking codegen choice with PGO since we
> value-profile size of the block.
>
> Inlining memcpy is bigger win in situation where it prevents spilling
> data from caller saved registers. This makes it a bit hard to guess how
> microbenchmarks relate to more real-world situations where the
> surrounding code may need to hold data in SSE regs etc.
> If we had a special entry-point to memcpy/memset that does not clobber
> registers and does its own callee save, this problem would go away...
>
> Honza
--
H.J.