Module Name: src Committed By: martin Date: Tue Mar 17 19:41:43 UTC 2015
Modified Files: src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm: aesv8-armx.S armv4cpuid.S ghashv8-armx.S sha1-armv4-large.S sha256-armv4.S Log Message: Use .inst for hard coded instructions (instead of .byte and endian dependend represenation) To generate a diff of this commit: cvs rdiff -u -r1.1 -r1.2 \ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/aesv8-armx.S \ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/armv4cpuid.S \ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ghashv8-armx.S \ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha1-armv4-large.S \ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha256-armv4.S Please note that diffs are not public domain; they are subject to the copyright notices on the relevant files.
Modified files: Index: src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/aesv8-armx.S diff -u src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/aesv8-armx.S:1.1 src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/aesv8-armx.S:1.2 --- src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/aesv8-armx.S:1.1 Tue Mar 10 13:28:47 2015 +++ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/aesv8-armx.S Tue Mar 17 19:41:42 2015 @@ -48,7 +48,7 @@ aes_v8_set_encrypt_key: vtbl.8 d21,{q3},d5 vext.8 q9,q0,q3,#12 vst1.32 {q3},[r2]! - .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 + .inst 0xf3f04300 @ aese q10,q0 subs r1,r1,#1 veor q3,q3,q9 @@ -67,7 +67,7 @@ aes_v8_set_encrypt_key: vtbl.8 d21,{q3},d5 vext.8 q9,q0,q3,#12 vst1.32 {q3},[r2]! - .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 + .inst 0xf3f04300 @ aese q10,q0 veor q3,q3,q9 vext.8 q9,q0,q9,#12 @@ -82,7 +82,7 @@ aes_v8_set_encrypt_key: vtbl.8 d21,{q3},d5 vext.8 q9,q0,q3,#12 vst1.32 {q3},[r2]! - .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 + .inst 0xf3f04300 @ aese q10,q0 veor q3,q3,q9 vext.8 q9,q0,q9,#12 @@ -109,7 +109,7 @@ aes_v8_set_encrypt_key: vtbl.8 d21,{q8},d5 vext.8 q9,q0,q3,#12 vst1.32 {d16},[r2]! - .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 + .inst 0xf3f04300 @ aese q10,q0 subs r1,r1,#1 veor q3,q3,q9 @@ -145,7 +145,7 @@ aes_v8_set_encrypt_key: vtbl.8 d21,{q8},d5 vext.8 q9,q0,q3,#12 vst1.32 {q8},[r2]! - .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 + .inst 0xf3f04300 @ aese q10,q0 subs r1,r1,#1 veor q3,q3,q9 @@ -161,7 +161,7 @@ aes_v8_set_encrypt_key: vdup.32 q10,d7[1] vext.8 q9,q0,q8,#12 - .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 + .inst 0xf3f04300 @ aese q10,q0 veor q8,q8,q9 vext.8 q9,q0,q9,#12 @@ -204,15 +204,15 @@ aes_v8_set_decrypt_key: .Loop_imc: vld1.32 {q0},[r2] vld1.32 {q1},[r0] - .byte 0xc0,0x03,0xb0,0xf3 @ aesimc q0,q0 - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 + .inst 0xf3b003c0 @ aesimc q0,q0 + .inst 0xf3b023c2 @ aesimc q1,q1 vst1.32 {q0},[r0],r4 vst1.32 {q1},[r2]! cmp r0,r2 bhi .Loop_imc vld1.32 {q0},[r2] - .byte 0xc0,0x03,0xb0,0xf3 @ aesimc q0,q0 + .inst 0xf3b003c0 @ aesimc q0,q0 vst1.32 {q0},[r0] eor r0,r0,r0 @ return value @@ -230,19 +230,19 @@ aes_v8_encrypt: vld1.32 {q1},[r2]! .Loop_enc: - .byte 0x00,0x43,0xb0,0xf3 @ aese q2,q0 + .inst 0xf3b04300 @ aese q2,q0 vld1.32 {q0},[r2]! - .byte 0x84,0x43,0xb0,0xf3 @ aesmc q2,q2 + .inst 0xf3b04384 @ aesmc q2,q2 subs r3,r3,#2 - .byte 0x02,0x43,0xb0,0xf3 @ aese q2,q1 + .inst 0xf3b04302 @ aese q2,q1 vld1.32 {q1},[r2]! - .byte 0x84,0x43,0xb0,0xf3 @ aesmc q2,q2 + .inst 0xf3b04384 @ aesmc q2,q2 bgt .Loop_enc - .byte 0x00,0x43,0xb0,0xf3 @ aese q2,q0 + .inst 0xf3b04300 @ aese q2,q0 vld1.32 {q0},[r2] - .byte 0x84,0x43,0xb0,0xf3 @ aesmc q2,q2 - .byte 0x02,0x43,0xb0,0xf3 @ aese q2,q1 + .inst 0xf3b04384 @ aesmc q2,q2 + .inst 0xf3b04302 @ aese q2,q1 veor q2,q2,q0 vst1.8 {q2},[r1] @@ -259,19 +259,19 @@ aes_v8_decrypt: vld1.32 {q1},[r2]! .Loop_dec: - .byte 0x40,0x43,0xb0,0xf3 @ aesd q2,q0 + .inst 0xf3b04340 @ aesd q2,q0 vld1.32 {q0},[r2]! - .byte 0xc4,0x43,0xb0,0xf3 @ aesimc q2,q2 + .inst 0xf3b043c4 @ aesimc q2,q2 subs r3,r3,#2 - .byte 0x42,0x43,0xb0,0xf3 @ aesd q2,q1 + .inst 0xf3b04342 @ aesd q2,q1 vld1.32 {q1},[r2]! - .byte 0xc4,0x43,0xb0,0xf3 @ aesimc q2,q2 + .inst 0xf3b043c4 @ aesimc q2,q2 bgt .Loop_dec - .byte 0x40,0x43,0xb0,0xf3 @ aesd q2,q0 + .inst 0xf3b04340 @ aesd q2,q0 vld1.32 {q0},[r2] - .byte 0xc4,0x43,0xb0,0xf3 @ aesimc q2,q2 - .byte 0x42,0x43,0xb0,0xf3 @ aesd q2,q1 + .inst 0xf3b043c4 @ aesimc q2,q2 + .inst 0xf3b04342 @ aesd q2,q1 veor q2,q2,q0 vst1.8 {q2},[r1] @@ -315,36 +315,36 @@ aes_v8_cbc_encrypt: beq .Lcbc_enc128 .Loop_cbc_enc: - .byte 0x20,0x03,0xb0,0xf3 @ aese q0,q8 + .inst 0xf3b00320 @ aese q0,q8 vld1.32 {q8},[r7]! - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 + .inst 0xf3b00380 @ aesmc q0,q0 subs r6,r6,#2 - .byte 0x22,0x03,0xb0,0xf3 @ aese q0,q9 + .inst 0xf3b00322 @ aese q0,q9 vld1.32 {q9},[r7]! - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 + .inst 0xf3b00380 @ aesmc q0,q0 bgt .Loop_cbc_enc - .byte 0x20,0x03,0xb0,0xf3 @ aese q0,q8 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 + .inst 0xf3b00320 @ aese q0,q8 + .inst 0xf3b00380 @ aesmc q0,q0 subs r2,r2,#16 - .byte 0x22,0x03,0xb0,0xf3 @ aese q0,q9 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 + .inst 0xf3b00322 @ aese q0,q9 + .inst 0xf3b00380 @ aesmc q0,q0 moveq r8,#0 - .byte 0x24,0x03,0xb0,0xf3 @ aese q0,q10 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 + .inst 0xf3b00324 @ aese q0,q10 + .inst 0xf3b00380 @ aesmc q0,q0 add r7,r3,#16 - .byte 0x26,0x03,0xb0,0xf3 @ aese q0,q11 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 + .inst 0xf3b00326 @ aese q0,q11 + .inst 0xf3b00380 @ aesmc q0,q0 vld1.8 {q8},[r0],r8 - .byte 0x28,0x03,0xb0,0xf3 @ aese q0,q12 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 + .inst 0xf3b00328 @ aese q0,q12 + .inst 0xf3b00380 @ aesmc q0,q0 veor q8,q8,q5 - .byte 0x2a,0x03,0xb0,0xf3 @ aese q0,q13 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 + .inst 0xf3b0032a @ aese q0,q13 + .inst 0xf3b00380 @ aesmc q0,q0 vld1.32 {q9},[r7]! @ re-pre-load rndkey[1] - .byte 0x2c,0x03,0xb0,0xf3 @ aese q0,q14 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 - .byte 0x2e,0x03,0xb0,0xf3 @ aese q0,q15 + .inst 0xf3b0032c @ aese q0,q14 + .inst 0xf3b00380 @ aesmc q0,q0 + .inst 0xf3b0032e @ aese q0,q15 mov r6,r5 veor q6,q0,q7 @@ -356,35 +356,35 @@ aes_v8_cbc_encrypt: .align 5 .Lcbc_enc128: vld1.32 {q2-q3},[r7] - .byte 0x20,0x03,0xb0,0xf3 @ aese q0,q8 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 + .inst 0xf3b00320 @ aese q0,q8 + .inst 0xf3b00380 @ aesmc q0,q0 b .Lenter_cbc_enc128 .Loop_cbc_enc128: - .byte 0x20,0x03,0xb0,0xf3 @ aese q0,q8 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 + .inst 0xf3b00320 @ aese q0,q8 + .inst 0xf3b00380 @ aesmc q0,q0 vst1.8 {q6},[r1]! .Lenter_cbc_enc128: - .byte 0x22,0x03,0xb0,0xf3 @ aese q0,q9 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 + .inst 0xf3b00322 @ aese q0,q9 + .inst 0xf3b00380 @ aesmc q0,q0 subs r2,r2,#16 - .byte 0x04,0x03,0xb0,0xf3 @ aese q0,q2 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 + .inst 0xf3b00304 @ aese q0,q2 + .inst 0xf3b00380 @ aesmc q0,q0 moveq r8,#0 - .byte 0x06,0x03,0xb0,0xf3 @ aese q0,q3 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 - .byte 0x24,0x03,0xb0,0xf3 @ aese q0,q10 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 - .byte 0x26,0x03,0xb0,0xf3 @ aese q0,q11 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 + .inst 0xf3b00306 @ aese q0,q3 + .inst 0xf3b00380 @ aesmc q0,q0 + .inst 0xf3b00324 @ aese q0,q10 + .inst 0xf3b00380 @ aesmc q0,q0 + .inst 0xf3b00326 @ aese q0,q11 + .inst 0xf3b00380 @ aesmc q0,q0 vld1.8 {q8},[r0],r8 - .byte 0x28,0x03,0xb0,0xf3 @ aese q0,q12 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 - .byte 0x2a,0x03,0xb0,0xf3 @ aese q0,q13 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 - .byte 0x2c,0x03,0xb0,0xf3 @ aese q0,q14 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 + .inst 0xf3b00328 @ aese q0,q12 + .inst 0xf3b00380 @ aesmc q0,q0 + .inst 0xf3b0032a @ aese q0,q13 + .inst 0xf3b00380 @ aesmc q0,q0 + .inst 0xf3b0032c @ aese q0,q14 + .inst 0xf3b00380 @ aesmc q0,q0 veor q8,q8,q5 - .byte 0x2e,0x03,0xb0,0xf3 @ aese q0,q15 + .inst 0xf3b0032e @ aese q0,q15 veor q6,q0,q7 bhs .Loop_cbc_enc128 @@ -407,70 +407,70 @@ aes_v8_cbc_encrypt: vorr q11,q10,q10 .Loop3x_cbc_dec: - .byte 0x60,0x03,0xb0,0xf3 @ aesd q0,q8 - .byte 0x60,0x23,0xb0,0xf3 @ aesd q1,q8 - .byte 0x60,0x43,0xf0,0xf3 @ aesd q10,q8 + .inst 0xf3b00360 @ aesd q0,q8 + .inst 0xf3b02360 @ aesd q1,q8 + .inst 0xf3f04360 @ aesd q10,q8 vld1.32 {q8},[r7]! - .byte 0xc0,0x03,0xb0,0xf3 @ aesimc q0,q0 - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 - .byte 0xe4,0x43,0xf0,0xf3 @ aesimc q10,q10 + .inst 0xf3b003c0 @ aesimc q0,q0 + .inst 0xf3b023c2 @ aesimc q1,q1 + .inst 0xf3f043e4 @ aesimc q10,q10 subs r6,r6,#2 - .byte 0x62,0x03,0xb0,0xf3 @ aesd q0,q9 - .byte 0x62,0x23,0xb0,0xf3 @ aesd q1,q9 - .byte 0x62,0x43,0xf0,0xf3 @ aesd q10,q9 + .inst 0xf3b00362 @ aesd q0,q9 + .inst 0xf3b02362 @ aesd q1,q9 + .inst 0xf3f04362 @ aesd q10,q9 vld1.32 {q9},[r7]! - .byte 0xc0,0x03,0xb0,0xf3 @ aesimc q0,q0 - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 - .byte 0xe4,0x43,0xf0,0xf3 @ aesimc q10,q10 + .inst 0xf3b003c0 @ aesimc q0,q0 + .inst 0xf3b023c2 @ aesimc q1,q1 + .inst 0xf3f043e4 @ aesimc q10,q10 bgt .Loop3x_cbc_dec - .byte 0x60,0x03,0xb0,0xf3 @ aesd q0,q8 - .byte 0x60,0x23,0xb0,0xf3 @ aesd q1,q8 - .byte 0x60,0x43,0xf0,0xf3 @ aesd q10,q8 + .inst 0xf3b00360 @ aesd q0,q8 + .inst 0xf3b02360 @ aesd q1,q8 + .inst 0xf3f04360 @ aesd q10,q8 veor q4,q6,q7 - .byte 0xc0,0x03,0xb0,0xf3 @ aesimc q0,q0 - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 - .byte 0xe4,0x43,0xf0,0xf3 @ aesimc q10,q10 + .inst 0xf3b003c0 @ aesimc q0,q0 + .inst 0xf3b023c2 @ aesimc q1,q1 + .inst 0xf3f043e4 @ aesimc q10,q10 veor q5,q2,q7 - .byte 0x62,0x03,0xb0,0xf3 @ aesd q0,q9 - .byte 0x62,0x23,0xb0,0xf3 @ aesd q1,q9 - .byte 0x62,0x43,0xf0,0xf3 @ aesd q10,q9 + .inst 0xf3b00362 @ aesd q0,q9 + .inst 0xf3b02362 @ aesd q1,q9 + .inst 0xf3f04362 @ aesd q10,q9 veor q9,q3,q7 subs r2,r2,#0x30 - .byte 0xc0,0x03,0xb0,0xf3 @ aesimc q0,q0 - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 - .byte 0xe4,0x43,0xf0,0xf3 @ aesimc q10,q10 + .inst 0xf3b003c0 @ aesimc q0,q0 + .inst 0xf3b023c2 @ aesimc q1,q1 + .inst 0xf3f043e4 @ aesimc q10,q10 vorr q6,q11,q11 movlo r6,r2 @ r6, r6, is zero at this point - .byte 0x68,0x03,0xb0,0xf3 @ aesd q0,q12 - .byte 0x68,0x23,0xb0,0xf3 @ aesd q1,q12 - .byte 0x68,0x43,0xf0,0xf3 @ aesd q10,q12 + .inst 0xf3b00368 @ aesd q0,q12 + .inst 0xf3b02368 @ aesd q1,q12 + .inst 0xf3f04368 @ aesd q10,q12 add r0,r0,r6 @ r0 is adjusted in such way that @ at exit from the loop q1-q10 @ are loaded with last "words" - .byte 0xc0,0x03,0xb0,0xf3 @ aesimc q0,q0 - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 - .byte 0xe4,0x43,0xf0,0xf3 @ aesimc q10,q10 + .inst 0xf3b003c0 @ aesimc q0,q0 + .inst 0xf3b023c2 @ aesimc q1,q1 + .inst 0xf3f043e4 @ aesimc q10,q10 mov r7,r3 - .byte 0x6a,0x03,0xb0,0xf3 @ aesd q0,q13 - .byte 0x6a,0x23,0xb0,0xf3 @ aesd q1,q13 - .byte 0x6a,0x43,0xf0,0xf3 @ aesd q10,q13 + .inst 0xf3b0036a @ aesd q0,q13 + .inst 0xf3b0236a @ aesd q1,q13 + .inst 0xf3f0436a @ aesd q10,q13 vld1.8 {q2},[r0]! - .byte 0xc0,0x03,0xb0,0xf3 @ aesimc q0,q0 - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 - .byte 0xe4,0x43,0xf0,0xf3 @ aesimc q10,q10 + .inst 0xf3b003c0 @ aesimc q0,q0 + .inst 0xf3b023c2 @ aesimc q1,q1 + .inst 0xf3f043e4 @ aesimc q10,q10 vld1.8 {q3},[r0]! - .byte 0x6c,0x03,0xb0,0xf3 @ aesd q0,q14 - .byte 0x6c,0x23,0xb0,0xf3 @ aesd q1,q14 - .byte 0x6c,0x43,0xf0,0xf3 @ aesd q10,q14 - vld1.8 {q11},[r0]! - .byte 0xc0,0x03,0xb0,0xf3 @ aesimc q0,q0 - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 - .byte 0xe4,0x43,0xf0,0xf3 @ aesimc q10,q10 + .inst 0xf3b0036c @ aesd q0,q14 + .inst 0xf3b0236c @ aesd q1,q14 + .inst 0xf3f0436c @ aesd q10,q14 + vld1.8 {q11},[r0]! + .inst 0xf3b003c0 @ aesimc q0,q0 + .inst 0xf3b023c2 @ aesimc q1,q1 + .inst 0xf3f043e4 @ aesimc q10,q10 vld1.32 {q8},[r7]! @ re-pre-load rndkey[0] - .byte 0x6e,0x03,0xb0,0xf3 @ aesd q0,q15 - .byte 0x6e,0x23,0xb0,0xf3 @ aesd q1,q15 - .byte 0x6e,0x43,0xf0,0xf3 @ aesd q10,q15 + .inst 0xf3b0036e @ aesd q0,q15 + .inst 0xf3b0236e @ aesd q1,q15 + .inst 0xf3f0436e @ aesd q10,q15 add r6,r5,#2 veor q4,q4,q0 @@ -490,44 +490,44 @@ aes_v8_cbc_encrypt: nop .Lcbc_dec_tail: - .byte 0x60,0x23,0xb0,0xf3 @ aesd q1,q8 - .byte 0x60,0x43,0xf0,0xf3 @ aesd q10,q8 + .inst 0xf3b02360 @ aesd q1,q8 + .inst 0xf3f04360 @ aesd q10,q8 vld1.32 {q8},[r7]! - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 - .byte 0xe4,0x43,0xf0,0xf3 @ aesimc q10,q10 + .inst 0xf3b023c2 @ aesimc q1,q1 + .inst 0xf3f043e4 @ aesimc q10,q10 subs r6,r6,#2 - .byte 0x62,0x23,0xb0,0xf3 @ aesd q1,q9 - .byte 0x62,0x43,0xf0,0xf3 @ aesd q10,q9 + .inst 0xf3b02362 @ aesd q1,q9 + .inst 0xf3f04362 @ aesd q10,q9 vld1.32 {q9},[r7]! - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 - .byte 0xe4,0x43,0xf0,0xf3 @ aesimc q10,q10 + .inst 0xf3b023c2 @ aesimc q1,q1 + .inst 0xf3f043e4 @ aesimc q10,q10 bgt .Lcbc_dec_tail - .byte 0x60,0x23,0xb0,0xf3 @ aesd q1,q8 - .byte 0x60,0x43,0xf0,0xf3 @ aesd q10,q8 - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 - .byte 0xe4,0x43,0xf0,0xf3 @ aesimc q10,q10 - .byte 0x62,0x23,0xb0,0xf3 @ aesd q1,q9 - .byte 0x62,0x43,0xf0,0xf3 @ aesd q10,q9 - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 - .byte 0xe4,0x43,0xf0,0xf3 @ aesimc q10,q10 - .byte 0x68,0x23,0xb0,0xf3 @ aesd q1,q12 - .byte 0x68,0x43,0xf0,0xf3 @ aesd q10,q12 - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 - .byte 0xe4,0x43,0xf0,0xf3 @ aesimc q10,q10 + .inst 0xf3b02360 @ aesd q1,q8 + .inst 0xf3f04360 @ aesd q10,q8 + .inst 0xf3b023c2 @ aesimc q1,q1 + .inst 0xf3f043e4 @ aesimc q10,q10 + .inst 0xf3b02362 @ aesd q1,q9 + .inst 0xf3f04362 @ aesd q10,q9 + .inst 0xf3b023c2 @ aesimc q1,q1 + .inst 0xf3f043e4 @ aesimc q10,q10 + .inst 0xf3b02368 @ aesd q1,q12 + .inst 0xf3f04368 @ aesd q10,q12 + .inst 0xf3b023c2 @ aesimc q1,q1 + .inst 0xf3f043e4 @ aesimc q10,q10 cmn r2,#0x20 - .byte 0x6a,0x23,0xb0,0xf3 @ aesd q1,q13 - .byte 0x6a,0x43,0xf0,0xf3 @ aesd q10,q13 - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 - .byte 0xe4,0x43,0xf0,0xf3 @ aesimc q10,q10 + .inst 0xf3b0236a @ aesd q1,q13 + .inst 0xf3f0436a @ aesd q10,q13 + .inst 0xf3b023c2 @ aesimc q1,q1 + .inst 0xf3f043e4 @ aesimc q10,q10 veor q5,q6,q7 - .byte 0x6c,0x23,0xb0,0xf3 @ aesd q1,q14 - .byte 0x6c,0x43,0xf0,0xf3 @ aesd q10,q14 - .byte 0xc2,0x23,0xb0,0xf3 @ aesimc q1,q1 - .byte 0xe4,0x43,0xf0,0xf3 @ aesimc q10,q10 + .inst 0xf3b0236c @ aesd q1,q14 + .inst 0xf3f0436c @ aesd q10,q14 + .inst 0xf3b023c2 @ aesimc q1,q1 + .inst 0xf3f043e4 @ aesimc q10,q10 veor q9,q3,q7 - .byte 0x6e,0x23,0xb0,0xf3 @ aesd q1,q15 - .byte 0x6e,0x43,0xf0,0xf3 @ aesd q10,q15 + .inst 0xf3b0236e @ aesd q1,q15 + .inst 0xf3f0436e @ aesd q10,q15 beq .Lcbc_dec_one veor q5,q5,q1 veor q9,q9,q10 @@ -590,77 +590,77 @@ aes_v8_ctr32_encrypt_blocks: .align 4 .Loop3x_ctr32: - .byte 0x20,0x03,0xb0,0xf3 @ aese q0,q8 - .byte 0x20,0x23,0xb0,0xf3 @ aese q1,q8 - .byte 0x20,0x43,0xf0,0xf3 @ aese q10,q8 + .inst 0xf3b00320 @ aese q0,q8 + .inst 0xf3b02320 @ aese q1,q8 + .inst 0xf3f04320 @ aese q10,q8 vld1.32 {q8},[r7]! - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 - .byte 0x82,0x23,0xb0,0xf3 @ aesmc q1,q1 - .byte 0xa4,0x43,0xf0,0xf3 @ aesmc q10,q10 + .inst 0xf3b00380 @ aesmc q0,q0 + .inst 0xf3b02382 @ aesmc q1,q1 + .inst 0xf3f043a4 @ aesmc q10,q10 subs r6,r6,#2 - .byte 0x22,0x03,0xb0,0xf3 @ aese q0,q9 - .byte 0x22,0x23,0xb0,0xf3 @ aese q1,q9 - .byte 0x22,0x43,0xf0,0xf3 @ aese q10,q9 + .inst 0xf3b00322 @ aese q0,q9 + .inst 0xf3b02322 @ aese q1,q9 + .inst 0xf3f04322 @ aese q10,q9 vld1.32 {q9},[r7]! - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 - .byte 0x82,0x23,0xb0,0xf3 @ aesmc q1,q1 - .byte 0xa4,0x43,0xf0,0xf3 @ aesmc q10,q10 + .inst 0xf3b00380 @ aesmc q0,q0 + .inst 0xf3b02382 @ aesmc q1,q1 + .inst 0xf3f043a4 @ aesmc q10,q10 bgt .Loop3x_ctr32 - .byte 0x20,0x03,0xb0,0xf3 @ aese q0,q8 - .byte 0x20,0x23,0xb0,0xf3 @ aese q1,q8 - .byte 0x20,0x43,0xf0,0xf3 @ aese q10,q8 + .inst 0xf3b00320 @ aese q0,q8 + .inst 0xf3b02320 @ aese q1,q8 + .inst 0xf3f04320 @ aese q10,q8 mov r7,r3 - .byte 0x80,0x83,0xb0,0xf3 @ aesmc q4,q0 + .inst 0xf3b08380 @ aesmc q4,q0 vld1.8 {q2},[r0]! - .byte 0x82,0xa3,0xb0,0xf3 @ aesmc q5,q1 - .byte 0xa4,0x43,0xf0,0xf3 @ aesmc q10,q10 + .inst 0xf3b0a382 @ aesmc q5,q1 + .inst 0xf3f043a4 @ aesmc q10,q10 vorr q0,q6,q6 - .byte 0x22,0x83,0xb0,0xf3 @ aese q4,q9 + .inst 0xf3b08322 @ aese q4,q9 vld1.8 {q3},[r0]! - .byte 0x22,0xa3,0xb0,0xf3 @ aese q5,q9 - .byte 0x22,0x43,0xf0,0xf3 @ aese q10,q9 + .inst 0xf3b0a322 @ aese q5,q9 + .inst 0xf3f04322 @ aese q10,q9 vorr q1,q6,q6 - .byte 0x88,0x83,0xb0,0xf3 @ aesmc q4,q4 + .inst 0xf3b08388 @ aesmc q4,q4 vld1.8 {q11},[r0]! - .byte 0x8a,0xa3,0xb0,0xf3 @ aesmc q5,q5 - .byte 0xa4,0x23,0xf0,0xf3 @ aesmc q9,q10 + .inst 0xf3b0a38a @ aesmc q5,q5 + .inst 0xf3f023a4 @ aesmc q9,q10 vorr q10,q6,q6 add r9,r8,#1 - .byte 0x28,0x83,0xb0,0xf3 @ aese q4,q12 - .byte 0x28,0xa3,0xb0,0xf3 @ aese q5,q12 - .byte 0x28,0x23,0xf0,0xf3 @ aese q9,q12 + .inst 0xf3b08328 @ aese q4,q12 + .inst 0xf3b0a328 @ aese q5,q12 + .inst 0xf3f02328 @ aese q9,q12 veor q2,q2,q7 add r10,r8,#2 - .byte 0x88,0x83,0xb0,0xf3 @ aesmc q4,q4 - .byte 0x8a,0xa3,0xb0,0xf3 @ aesmc q5,q5 - .byte 0xa2,0x23,0xf0,0xf3 @ aesmc q9,q9 + .inst 0xf3b08388 @ aesmc q4,q4 + .inst 0xf3b0a38a @ aesmc q5,q5 + .inst 0xf3f023a2 @ aesmc q9,q9 veor q3,q3,q7 add r8,r8,#3 - .byte 0x2a,0x83,0xb0,0xf3 @ aese q4,q13 - .byte 0x2a,0xa3,0xb0,0xf3 @ aese q5,q13 - .byte 0x2a,0x23,0xf0,0xf3 @ aese q9,q13 + .inst 0xf3b0832a @ aese q4,q13 + .inst 0xf3b0a32a @ aese q5,q13 + .inst 0xf3f0232a @ aese q9,q13 veor q11,q11,q7 rev r9,r9 - .byte 0x88,0x83,0xb0,0xf3 @ aesmc q4,q4 + .inst 0xf3b08388 @ aesmc q4,q4 vld1.32 {q8},[r7]! @ re-pre-load rndkey[0] - .byte 0x8a,0xa3,0xb0,0xf3 @ aesmc q5,q5 - .byte 0xa2,0x23,0xf0,0xf3 @ aesmc q9,q9 + .inst 0xf3b0a38a @ aesmc q5,q5 + .inst 0xf3f023a2 @ aesmc q9,q9 vmov.32 d1[1], r9 rev r10,r10 - .byte 0x2c,0x83,0xb0,0xf3 @ aese q4,q14 - .byte 0x2c,0xa3,0xb0,0xf3 @ aese q5,q14 - .byte 0x2c,0x23,0xf0,0xf3 @ aese q9,q14 + .inst 0xf3b0832c @ aese q4,q14 + .inst 0xf3b0a32c @ aese q5,q14 + .inst 0xf3f0232c @ aese q9,q14 vmov.32 d3[1], r10 rev r12,r8 - .byte 0x88,0x83,0xb0,0xf3 @ aesmc q4,q4 - .byte 0x8a,0xa3,0xb0,0xf3 @ aesmc q5,q5 - .byte 0xa2,0x23,0xf0,0xf3 @ aesmc q9,q9 + .inst 0xf3b08388 @ aesmc q4,q4 + .inst 0xf3b0a38a @ aesmc q5,q5 + .inst 0xf3f023a2 @ aesmc q9,q9 vmov.32 d21[1], r12 subs r2,r2,#3 - .byte 0x2e,0x83,0xb0,0xf3 @ aese q4,q15 - .byte 0x2e,0xa3,0xb0,0xf3 @ aese q5,q15 - .byte 0x2e,0x23,0xf0,0xf3 @ aese q9,q15 + .inst 0xf3b0832e @ aese q4,q15 + .inst 0xf3b0a32e @ aese q5,q15 + .inst 0xf3f0232e @ aese q9,q15 mov r6,r5 veor q2,q2,q4 @@ -679,45 +679,45 @@ aes_v8_ctr32_encrypt_blocks: moveq r12,#0 .Lctr32_tail: - .byte 0x20,0x03,0xb0,0xf3 @ aese q0,q8 - .byte 0x20,0x23,0xb0,0xf3 @ aese q1,q8 + .inst 0xf3b00320 @ aese q0,q8 + .inst 0xf3b02320 @ aese q1,q8 vld1.32 {q8},[r7]! - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 - .byte 0x82,0x23,0xb0,0xf3 @ aesmc q1,q1 + .inst 0xf3b00380 @ aesmc q0,q0 + .inst 0xf3b02382 @ aesmc q1,q1 subs r6,r6,#2 - .byte 0x22,0x03,0xb0,0xf3 @ aese q0,q9 - .byte 0x22,0x23,0xb0,0xf3 @ aese q1,q9 + .inst 0xf3b00322 @ aese q0,q9 + .inst 0xf3b02322 @ aese q1,q9 vld1.32 {q9},[r7]! - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 - .byte 0x82,0x23,0xb0,0xf3 @ aesmc q1,q1 + .inst 0xf3b00380 @ aesmc q0,q0 + .inst 0xf3b02382 @ aesmc q1,q1 bgt .Lctr32_tail - .byte 0x20,0x03,0xb0,0xf3 @ aese q0,q8 - .byte 0x20,0x23,0xb0,0xf3 @ aese q1,q8 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 - .byte 0x82,0x23,0xb0,0xf3 @ aesmc q1,q1 - .byte 0x22,0x03,0xb0,0xf3 @ aese q0,q9 - .byte 0x22,0x23,0xb0,0xf3 @ aese q1,q9 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 - .byte 0x82,0x23,0xb0,0xf3 @ aesmc q1,q1 + .inst 0xf3b00320 @ aese q0,q8 + .inst 0xf3b02320 @ aese q1,q8 + .inst 0xf3b00380 @ aesmc q0,q0 + .inst 0xf3b02382 @ aesmc q1,q1 + .inst 0xf3b00322 @ aese q0,q9 + .inst 0xf3b02322 @ aese q1,q9 + .inst 0xf3b00380 @ aesmc q0,q0 + .inst 0xf3b02382 @ aesmc q1,q1 vld1.8 {q2},[r0],r12 - .byte 0x28,0x03,0xb0,0xf3 @ aese q0,q12 - .byte 0x28,0x23,0xb0,0xf3 @ aese q1,q12 + .inst 0xf3b00328 @ aese q0,q12 + .inst 0xf3b02328 @ aese q1,q12 vld1.8 {q3},[r0] - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 - .byte 0x82,0x23,0xb0,0xf3 @ aesmc q1,q1 - .byte 0x2a,0x03,0xb0,0xf3 @ aese q0,q13 - .byte 0x2a,0x23,0xb0,0xf3 @ aese q1,q13 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 - .byte 0x82,0x23,0xb0,0xf3 @ aesmc q1,q1 - .byte 0x2c,0x03,0xb0,0xf3 @ aese q0,q14 - .byte 0x2c,0x23,0xb0,0xf3 @ aese q1,q14 + .inst 0xf3b00380 @ aesmc q0,q0 + .inst 0xf3b02382 @ aesmc q1,q1 + .inst 0xf3b0032a @ aese q0,q13 + .inst 0xf3b0232a @ aese q1,q13 + .inst 0xf3b00380 @ aesmc q0,q0 + .inst 0xf3b02382 @ aesmc q1,q1 + .inst 0xf3b0032c @ aese q0,q14 + .inst 0xf3b0232c @ aese q1,q14 veor q2,q2,q7 - .byte 0x80,0x03,0xb0,0xf3 @ aesmc q0,q0 - .byte 0x82,0x23,0xb0,0xf3 @ aesmc q1,q1 + .inst 0xf3b00380 @ aesmc q0,q0 + .inst 0xf3b02382 @ aesmc q1,q1 veor q3,q3,q7 - .byte 0x2e,0x03,0xb0,0xf3 @ aese q0,q15 - .byte 0x2e,0x23,0xb0,0xf3 @ aese q1,q15 + .inst 0xf3b0032e @ aese q0,q15 + .inst 0xf3b0232e @ aese q1,q15 cmp r2,#1 veor q2,q2,q0 Index: src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/armv4cpuid.S diff -u src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/armv4cpuid.S:1.1 src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/armv4cpuid.S:1.2 --- src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/armv4cpuid.S:1.1 Tue Mar 10 13:28:47 2015 +++ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/armv4cpuid.S Tue Mar 17 19:41:42 2015 @@ -99,27 +99,27 @@ _armv7_tick: .global _armv8_aes_probe .type _armv8_aes_probe,%function _armv8_aes_probe: - .byte 0x00,0x03,0xb0,0xf3 @ aese.8 q0,q0 + .inst 0xf3b00300 @ aese.8 q0,q0 RET .size _armv8_aes_probe,.-_armv8_aes_probe .global _armv8_sha1_probe .type _armv8_sha1_probe,%function _armv8_sha1_probe: - .byte 0x40,0x0c,0x00,0xf2 @ sha1c.32 q0,q0,q0 + .inst 0xf2000c40 @ sha1c.32 q0,q0,q0 RET .size _armv8_sha1_probe,.-_armv8_sha1_probe .global _armv8_sha256_probe .type _armv8_sha256_probe,%function _armv8_sha256_probe: - .byte 0x40,0x0c,0x00,0xf3 @ sha256h.32 q0,q0,q0 + .inst 0xf3000c40 @ sha256h.32 q0,q0,q0 RET .size _armv8_sha256_probe,.-_armv8_sha256_probe .global _armv8_pmull_probe .type _armv8_pmull_probe,%function _armv8_pmull_probe: - .byte 0x00,0x0e,0xa0,0xf2 @ vmull.p64 q0,d0,d0 + .inst 0xf2a00e00 @ vmull.p64 q0,d0,d0 RET .size _armv8_pmull_probe,.-_armv8_pmull_probe #endif Index: src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ghashv8-armx.S diff -u src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ghashv8-armx.S:1.1 src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ghashv8-armx.S:1.2 --- src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ghashv8-armx.S:1.1 Tue Mar 10 13:28:47 2015 +++ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ghashv8-armx.S Tue Mar 17 19:41:42 2015 @@ -77,11 +77,11 @@ gcm_ghash_v8: veor q9,q9,q10 @ q9 is rotated inp^Xi .Lgmult_v8: - .byte 0x86,0x0e,0xa8,0xf2 @ pmull q0,q12,q3 @ H.lo·Xi.lo + .inst 0xf2a80e86 @ pmull q0,q12,q3 @ H.lo·Xi.lo veor q9,q9,q3 @ Karatsuba pre-processing - .byte 0x87,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q3 @ H.hi·Xi.hi + .inst 0xf2a94e87 @ pmull2 q2,q12,q3 @ H.hi·Xi.hi subs r3,r3,#16 - .byte 0xa2,0x2e,0xaa,0xf2 @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi) + .inst 0xf2aa2ea2 @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi) moveq r12,#0 vext.8 q9,q0,q2,#8 @ Karatsuba post-processing @@ -89,7 +89,7 @@ gcm_ghash_v8: veor q1,q1,q9 vld1.64 {q9},[r2],r12 @ load [rotated] inp veor q1,q1,q10 - .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase + .inst 0xf2e04e26 @ pmull q10,q0,q11 @ 1st phase vmov d4,d3 @ Xh|Xm - 256-bit result vmov d3,d0 @ Xm is rotated Xl @@ -100,7 +100,7 @@ gcm_ghash_v8: vext.8 q3,q9,q9,#8 vext.8 q10,q0,q0,#8 @ 2nd phase - .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 + .inst 0xf2a00e26 @ pmull q0,q0,q11 veor q10,q10,q2 veor q0,q0,q10 bhs .Loop_v8 Index: src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha1-armv4-large.S diff -u src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha1-armv4-large.S:1.1 src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha1-armv4-large.S:1.2 --- src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha1-armv4-large.S:1.1 Tue Mar 10 13:28:47 2015 +++ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha1-armv4-large.S Tue Mar 17 19:41:42 2015 @@ -1347,98 +1347,98 @@ sha1_block_data_order_armv8: vadd.i32 q13,q8,q5 vrev32.8 q7,q7 - .byte 0xc0,0x62,0xb9,0xf3 @ sha1h q3,q0 @ 0 - .byte 0x68,0x0c,0x02,0xf2 @ sha1c q0,q1,q12 + .inst 0xf3b962c0 @ sha1h q3,q0 @ 0 + .inst 0xf2020c68 @ sha1c q0,q1,q12 vadd.i32 q12,q8,q6 - .byte 0x4c,0x8c,0x3a,0xf2 @ sha1su0 q4,q5,q6 - .byte 0xc0,0x42,0xb9,0xf3 @ sha1h q2,q0 @ 1 - .byte 0x6a,0x0c,0x06,0xf2 @ sha1c q0,q3,q13 + .inst 0xf23a8c4c @ sha1su0 q4,q5,q6 + .inst 0xf3b942c0 @ sha1h q2,q0 @ 1 + .inst 0xf2060c6a @ sha1c q0,q3,q13 vadd.i32 q13,q8,q7 - .byte 0x8e,0x83,0xba,0xf3 @ sha1su1 q4,q7 - .byte 0x4e,0xac,0x3c,0xf2 @ sha1su0 q5,q6,q7 - .byte 0xc0,0x62,0xb9,0xf3 @ sha1h q3,q0 @ 2 - .byte 0x68,0x0c,0x04,0xf2 @ sha1c q0,q2,q12 + .inst 0xf3ba838e @ sha1su1 q4,q7 + .inst 0xf23cac4e @ sha1su0 q5,q6,q7 + .inst 0xf3b962c0 @ sha1h q3,q0 @ 2 + .inst 0xf2040c68 @ sha1c q0,q2,q12 vadd.i32 q12,q8,q4 - .byte 0x88,0xa3,0xba,0xf3 @ sha1su1 q5,q4 - .byte 0x48,0xcc,0x3e,0xf2 @ sha1su0 q6,q7,q4 - .byte 0xc0,0x42,0xb9,0xf3 @ sha1h q2,q0 @ 3 - .byte 0x6a,0x0c,0x06,0xf2 @ sha1c q0,q3,q13 + .inst 0xf3baa388 @ sha1su1 q5,q4 + .inst 0xf23ecc48 @ sha1su0 q6,q7,q4 + .inst 0xf3b942c0 @ sha1h q2,q0 @ 3 + .inst 0xf2060c6a @ sha1c q0,q3,q13 vadd.i32 q13,q9,q5 - .byte 0x8a,0xc3,0xba,0xf3 @ sha1su1 q6,q5 - .byte 0x4a,0xec,0x38,0xf2 @ sha1su0 q7,q4,q5 - .byte 0xc0,0x62,0xb9,0xf3 @ sha1h q3,q0 @ 4 - .byte 0x68,0x0c,0x04,0xf2 @ sha1c q0,q2,q12 + .inst 0xf3bac38a @ sha1su1 q6,q5 + .inst 0xf238ec4a @ sha1su0 q7,q4,q5 + .inst 0xf3b962c0 @ sha1h q3,q0 @ 4 + .inst 0xf2040c68 @ sha1c q0,q2,q12 vadd.i32 q12,q9,q6 - .byte 0x8c,0xe3,0xba,0xf3 @ sha1su1 q7,q6 - .byte 0x4c,0x8c,0x3a,0xf2 @ sha1su0 q4,q5,q6 - .byte 0xc0,0x42,0xb9,0xf3 @ sha1h q2,q0 @ 5 - .byte 0x6a,0x0c,0x16,0xf2 @ sha1p q0,q3,q13 + .inst 0xf3bae38c @ sha1su1 q7,q6 + .inst 0xf23a8c4c @ sha1su0 q4,q5,q6 + .inst 0xf3b942c0 @ sha1h q2,q0 @ 5 + .inst 0xf2160c6a @ sha1p q0,q3,q13 vadd.i32 q13,q9,q7 - .byte 0x8e,0x83,0xba,0xf3 @ sha1su1 q4,q7 - .byte 0x4e,0xac,0x3c,0xf2 @ sha1su0 q5,q6,q7 - .byte 0xc0,0x62,0xb9,0xf3 @ sha1h q3,q0 @ 6 - .byte 0x68,0x0c,0x14,0xf2 @ sha1p q0,q2,q12 + .inst 0xf3ba838e @ sha1su1 q4,q7 + .inst 0xf23cac4e @ sha1su0 q5,q6,q7 + .inst 0xf3b962c0 @ sha1h q3,q0 @ 6 + .inst 0xf2140c68 @ sha1p q0,q2,q12 vadd.i32 q12,q9,q4 - .byte 0x88,0xa3,0xba,0xf3 @ sha1su1 q5,q4 - .byte 0x48,0xcc,0x3e,0xf2 @ sha1su0 q6,q7,q4 - .byte 0xc0,0x42,0xb9,0xf3 @ sha1h q2,q0 @ 7 - .byte 0x6a,0x0c,0x16,0xf2 @ sha1p q0,q3,q13 + .inst 0xf3baa388 @ sha1su1 q5,q4 + .inst 0xf23ecc48 @ sha1su0 q6,q7,q4 + .inst 0xf3b942c0 @ sha1h q2,q0 @ 7 + .inst 0xf2160c6a @ sha1p q0,q3,q13 vadd.i32 q13,q9,q5 - .byte 0x8a,0xc3,0xba,0xf3 @ sha1su1 q6,q5 - .byte 0x4a,0xec,0x38,0xf2 @ sha1su0 q7,q4,q5 - .byte 0xc0,0x62,0xb9,0xf3 @ sha1h q3,q0 @ 8 - .byte 0x68,0x0c,0x14,0xf2 @ sha1p q0,q2,q12 + .inst 0xf3bac38a @ sha1su1 q6,q5 + .inst 0xf238ec4a @ sha1su0 q7,q4,q5 + .inst 0xf3b962c0 @ sha1h q3,q0 @ 8 + .inst 0xf2140c68 @ sha1p q0,q2,q12 vadd.i32 q12,q10,q6 - .byte 0x8c,0xe3,0xba,0xf3 @ sha1su1 q7,q6 - .byte 0x4c,0x8c,0x3a,0xf2 @ sha1su0 q4,q5,q6 - .byte 0xc0,0x42,0xb9,0xf3 @ sha1h q2,q0 @ 9 - .byte 0x6a,0x0c,0x16,0xf2 @ sha1p q0,q3,q13 + .inst 0xf3bae38c @ sha1su1 q7,q6 + .inst 0xf23a8c4c @ sha1su0 q4,q5,q6 + .inst 0xf3b942c0 @ sha1h q2,q0 @ 9 + .inst 0xf2160c6a @ sha1p q0,q3,q13 vadd.i32 q13,q10,q7 - .byte 0x8e,0x83,0xba,0xf3 @ sha1su1 q4,q7 - .byte 0x4e,0xac,0x3c,0xf2 @ sha1su0 q5,q6,q7 - .byte 0xc0,0x62,0xb9,0xf3 @ sha1h q3,q0 @ 10 - .byte 0x68,0x0c,0x24,0xf2 @ sha1m q0,q2,q12 + .inst 0xf3ba838e @ sha1su1 q4,q7 + .inst 0xf23cac4e @ sha1su0 q5,q6,q7 + .inst 0xf3b962c0 @ sha1h q3,q0 @ 10 + .inst 0xf2240c68 @ sha1m q0,q2,q12 vadd.i32 q12,q10,q4 - .byte 0x88,0xa3,0xba,0xf3 @ sha1su1 q5,q4 - .byte 0x48,0xcc,0x3e,0xf2 @ sha1su0 q6,q7,q4 - .byte 0xc0,0x42,0xb9,0xf3 @ sha1h q2,q0 @ 11 - .byte 0x6a,0x0c,0x26,0xf2 @ sha1m q0,q3,q13 + .inst 0xf3baa388 @ sha1su1 q5,q4 + .inst 0xf23ecc48 @ sha1su0 q6,q7,q4 + .inst 0xf3b942c0 @ sha1h q2,q0 @ 11 + .inst 0xf2260c6a @ sha1m q0,q3,q13 vadd.i32 q13,q10,q5 - .byte 0x8a,0xc3,0xba,0xf3 @ sha1su1 q6,q5 - .byte 0x4a,0xec,0x38,0xf2 @ sha1su0 q7,q4,q5 - .byte 0xc0,0x62,0xb9,0xf3 @ sha1h q3,q0 @ 12 - .byte 0x68,0x0c,0x24,0xf2 @ sha1m q0,q2,q12 + .inst 0xf3bac38a @ sha1su1 q6,q5 + .inst 0xf238ec4a @ sha1su0 q7,q4,q5 + .inst 0xf3b962c0 @ sha1h q3,q0 @ 12 + .inst 0xf2240c68 @ sha1m q0,q2,q12 vadd.i32 q12,q10,q6 - .byte 0x8c,0xe3,0xba,0xf3 @ sha1su1 q7,q6 - .byte 0x4c,0x8c,0x3a,0xf2 @ sha1su0 q4,q5,q6 - .byte 0xc0,0x42,0xb9,0xf3 @ sha1h q2,q0 @ 13 - .byte 0x6a,0x0c,0x26,0xf2 @ sha1m q0,q3,q13 + .inst 0xf3bae38c @ sha1su1 q7,q6 + .inst 0xf23a8c4c @ sha1su0 q4,q5,q6 + .inst 0xf3b942c0 @ sha1h q2,q0 @ 13 + .inst 0xf2260c6a @ sha1m q0,q3,q13 vadd.i32 q13,q11,q7 - .byte 0x8e,0x83,0xba,0xf3 @ sha1su1 q4,q7 - .byte 0x4e,0xac,0x3c,0xf2 @ sha1su0 q5,q6,q7 - .byte 0xc0,0x62,0xb9,0xf3 @ sha1h q3,q0 @ 14 - .byte 0x68,0x0c,0x24,0xf2 @ sha1m q0,q2,q12 + .inst 0xf3ba838e @ sha1su1 q4,q7 + .inst 0xf23cac4e @ sha1su0 q5,q6,q7 + .inst 0xf3b962c0 @ sha1h q3,q0 @ 14 + .inst 0xf2240c68 @ sha1m q0,q2,q12 vadd.i32 q12,q11,q4 - .byte 0x88,0xa3,0xba,0xf3 @ sha1su1 q5,q4 - .byte 0x48,0xcc,0x3e,0xf2 @ sha1su0 q6,q7,q4 - .byte 0xc0,0x42,0xb9,0xf3 @ sha1h q2,q0 @ 15 - .byte 0x6a,0x0c,0x16,0xf2 @ sha1p q0,q3,q13 + .inst 0xf3baa388 @ sha1su1 q5,q4 + .inst 0xf23ecc48 @ sha1su0 q6,q7,q4 + .inst 0xf3b942c0 @ sha1h q2,q0 @ 15 + .inst 0xf2160c6a @ sha1p q0,q3,q13 vadd.i32 q13,q11,q5 - .byte 0x8a,0xc3,0xba,0xf3 @ sha1su1 q6,q5 - .byte 0x4a,0xec,0x38,0xf2 @ sha1su0 q7,q4,q5 - .byte 0xc0,0x62,0xb9,0xf3 @ sha1h q3,q0 @ 16 - .byte 0x68,0x0c,0x14,0xf2 @ sha1p q0,q2,q12 + .inst 0xf3bac38a @ sha1su1 q6,q5 + .inst 0xf238ec4a @ sha1su0 q7,q4,q5 + .inst 0xf3b962c0 @ sha1h q3,q0 @ 16 + .inst 0xf2140c68 @ sha1p q0,q2,q12 vadd.i32 q12,q11,q6 - .byte 0x8c,0xe3,0xba,0xf3 @ sha1su1 q7,q6 - .byte 0xc0,0x42,0xb9,0xf3 @ sha1h q2,q0 @ 17 - .byte 0x6a,0x0c,0x16,0xf2 @ sha1p q0,q3,q13 + .inst 0xf3bae38c @ sha1su1 q7,q6 + .inst 0xf3b942c0 @ sha1h q2,q0 @ 17 + .inst 0xf2160c6a @ sha1p q0,q3,q13 vadd.i32 q13,q11,q7 - .byte 0xc0,0x62,0xb9,0xf3 @ sha1h q3,q0 @ 18 - .byte 0x68,0x0c,0x14,0xf2 @ sha1p q0,q2,q12 + .inst 0xf3b962c0 @ sha1h q3,q0 @ 18 + .inst 0xf2140c68 @ sha1p q0,q2,q12 - .byte 0xc0,0x42,0xb9,0xf3 @ sha1h q2,q0 @ 19 - .byte 0x6a,0x0c,0x16,0xf2 @ sha1p q0,q3,q13 + .inst 0xf3b942c0 @ sha1h q2,q0 @ 19 + .inst 0xf2160c6a @ sha1p q0,q3,q13 vadd.i32 q1,q1,q2 vadd.i32 q0,q0,q14 Index: src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha256-armv4.S diff -u src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha256-armv4.S:1.1 src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha256-armv4.S:1.2 --- src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha256-armv4.S:1.1 Tue Mar 10 13:28:47 2015 +++ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha256-armv4.S Tue Mar 17 19:41:42 2015 @@ -2574,111 +2574,111 @@ sha256_block_data_order_armv8: teq r1,r2 vld1.32 {q13},[r3]! vadd.i32 q12,q12,q8 - .byte 0xe2,0x03,0xfa,0xf3 @ sha256su0 q8,q9 + .inst 0xf3fa03e2 @ sha256su0 q8,q9 vmov q2,q0 - .byte 0x68,0x0c,0x02,0xf3 @ sha256h q0,q1,q12 - .byte 0x68,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q12 - .byte 0xe6,0x0c,0x64,0xf3 @ sha256su1 q8,q10,q11 + .inst 0xf3020c68 @ sha256h q0,q1,q12 + .inst 0xf3142c68 @ sha256h2 q1,q2,q12 + .inst 0xf3640ce6 @ sha256su1 q8,q10,q11 vld1.32 {q12},[r3]! vadd.i32 q13,q13,q9 - .byte 0xe4,0x23,0xfa,0xf3 @ sha256su0 q9,q10 + .inst 0xf3fa23e4 @ sha256su0 q9,q10 vmov q2,q0 - .byte 0x6a,0x0c,0x02,0xf3 @ sha256h q0,q1,q13 - .byte 0x6a,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q13 - .byte 0xe0,0x2c,0x66,0xf3 @ sha256su1 q9,q11,q8 + .inst 0xf3020c6a @ sha256h q0,q1,q13 + .inst 0xf3142c6a @ sha256h2 q1,q2,q13 + .inst 0xf3662ce0 @ sha256su1 q9,q11,q8 vld1.32 {q13},[r3]! vadd.i32 q12,q12,q10 - .byte 0xe6,0x43,0xfa,0xf3 @ sha256su0 q10,q11 + .inst 0xf3fa43e6 @ sha256su0 q10,q11 vmov q2,q0 - .byte 0x68,0x0c,0x02,0xf3 @ sha256h q0,q1,q12 - .byte 0x68,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q12 - .byte 0xe2,0x4c,0x60,0xf3 @ sha256su1 q10,q8,q9 + .inst 0xf3020c68 @ sha256h q0,q1,q12 + .inst 0xf3142c68 @ sha256h2 q1,q2,q12 + .inst 0xf3604ce2 @ sha256su1 q10,q8,q9 vld1.32 {q12},[r3]! vadd.i32 q13,q13,q11 - .byte 0xe0,0x63,0xfa,0xf3 @ sha256su0 q11,q8 + .inst 0xf3fa63e0 @ sha256su0 q11,q8 vmov q2,q0 - .byte 0x6a,0x0c,0x02,0xf3 @ sha256h q0,q1,q13 - .byte 0x6a,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q13 - .byte 0xe4,0x6c,0x62,0xf3 @ sha256su1 q11,q9,q10 + .inst 0xf3020c6a @ sha256h q0,q1,q13 + .inst 0xf3142c6a @ sha256h2 q1,q2,q13 + .inst 0xf3626ce4 @ sha256su1 q11,q9,q10 vld1.32 {q13},[r3]! vadd.i32 q12,q12,q8 - .byte 0xe2,0x03,0xfa,0xf3 @ sha256su0 q8,q9 + .inst 0xf3fa03e2 @ sha256su0 q8,q9 vmov q2,q0 - .byte 0x68,0x0c,0x02,0xf3 @ sha256h q0,q1,q12 - .byte 0x68,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q12 - .byte 0xe6,0x0c,0x64,0xf3 @ sha256su1 q8,q10,q11 + .inst 0xf3020c68 @ sha256h q0,q1,q12 + .inst 0xf3142c68 @ sha256h2 q1,q2,q12 + .inst 0xf3640ce6 @ sha256su1 q8,q10,q11 vld1.32 {q12},[r3]! vadd.i32 q13,q13,q9 - .byte 0xe4,0x23,0xfa,0xf3 @ sha256su0 q9,q10 + .inst 0xf3fa23e4 @ sha256su0 q9,q10 vmov q2,q0 - .byte 0x6a,0x0c,0x02,0xf3 @ sha256h q0,q1,q13 - .byte 0x6a,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q13 - .byte 0xe0,0x2c,0x66,0xf3 @ sha256su1 q9,q11,q8 + .inst 0xf3020c6a @ sha256h q0,q1,q13 + .inst 0xf3142c6a @ sha256h2 q1,q2,q13 + .inst 0xf3662ce0 @ sha256su1 q9,q11,q8 vld1.32 {q13},[r3]! vadd.i32 q12,q12,q10 - .byte 0xe6,0x43,0xfa,0xf3 @ sha256su0 q10,q11 + .inst 0xf3fa43e6 @ sha256su0 q10,q11 vmov q2,q0 - .byte 0x68,0x0c,0x02,0xf3 @ sha256h q0,q1,q12 - .byte 0x68,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q12 - .byte 0xe2,0x4c,0x60,0xf3 @ sha256su1 q10,q8,q9 + .inst 0xf3020c68 @ sha256h q0,q1,q12 + .inst 0xf3142c68 @ sha256h2 q1,q2,q12 + .inst 0xf3604ce2 @ sha256su1 q10,q8,q9 vld1.32 {q12},[r3]! vadd.i32 q13,q13,q11 - .byte 0xe0,0x63,0xfa,0xf3 @ sha256su0 q11,q8 + .inst 0xf3fa63e0 @ sha256su0 q11,q8 vmov q2,q0 - .byte 0x6a,0x0c,0x02,0xf3 @ sha256h q0,q1,q13 - .byte 0x6a,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q13 - .byte 0xe4,0x6c,0x62,0xf3 @ sha256su1 q11,q9,q10 + .inst 0xf3020c6a @ sha256h q0,q1,q13 + .inst 0xf3142c6a @ sha256h2 q1,q2,q13 + .inst 0xf3626ce4 @ sha256su1 q11,q9,q10 vld1.32 {q13},[r3]! vadd.i32 q12,q12,q8 - .byte 0xe2,0x03,0xfa,0xf3 @ sha256su0 q8,q9 + .inst 0xf3fa03e2 @ sha256su0 q8,q9 vmov q2,q0 - .byte 0x68,0x0c,0x02,0xf3 @ sha256h q0,q1,q12 - .byte 0x68,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q12 - .byte 0xe6,0x0c,0x64,0xf3 @ sha256su1 q8,q10,q11 + .inst 0xf3020c68 @ sha256h q0,q1,q12 + .inst 0xf3142c68 @ sha256h2 q1,q2,q12 + .inst 0xf3640ce6 @ sha256su1 q8,q10,q11 vld1.32 {q12},[r3]! vadd.i32 q13,q13,q9 - .byte 0xe4,0x23,0xfa,0xf3 @ sha256su0 q9,q10 + .inst 0xf3fa23e4 @ sha256su0 q9,q10 vmov q2,q0 - .byte 0x6a,0x0c,0x02,0xf3 @ sha256h q0,q1,q13 - .byte 0x6a,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q13 - .byte 0xe0,0x2c,0x66,0xf3 @ sha256su1 q9,q11,q8 + .inst 0xf3020c6a @ sha256h q0,q1,q13 + .inst 0xf3142c6a @ sha256h2 q1,q2,q13 + .inst 0xf3662ce0 @ sha256su1 q9,q11,q8 vld1.32 {q13},[r3]! vadd.i32 q12,q12,q10 - .byte 0xe6,0x43,0xfa,0xf3 @ sha256su0 q10,q11 + .inst 0xf3fa43e6 @ sha256su0 q10,q11 vmov q2,q0 - .byte 0x68,0x0c,0x02,0xf3 @ sha256h q0,q1,q12 - .byte 0x68,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q12 - .byte 0xe2,0x4c,0x60,0xf3 @ sha256su1 q10,q8,q9 + .inst 0xf3020c68 @ sha256h q0,q1,q12 + .inst 0xf3142c68 @ sha256h2 q1,q2,q12 + .inst 0xf3604ce2 @ sha256su1 q10,q8,q9 vld1.32 {q12},[r3]! vadd.i32 q13,q13,q11 - .byte 0xe0,0x63,0xfa,0xf3 @ sha256su0 q11,q8 + .inst 0xf3fa63e0 @ sha256su0 q11,q8 vmov q2,q0 - .byte 0x6a,0x0c,0x02,0xf3 @ sha256h q0,q1,q13 - .byte 0x6a,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q13 - .byte 0xe4,0x6c,0x62,0xf3 @ sha256su1 q11,q9,q10 + .inst 0xf3020c6a @ sha256h q0,q1,q13 + .inst 0xf3142c6a @ sha256h2 q1,q2,q13 + .inst 0xf3626ce4 @ sha256su1 q11,q9,q10 vld1.32 {q13},[r3]! vadd.i32 q12,q12,q8 vmov q2,q0 - .byte 0x68,0x0c,0x02,0xf3 @ sha256h q0,q1,q12 - .byte 0x68,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q12 + .inst 0xf3020c68 @ sha256h q0,q1,q12 + .inst 0xf3142c68 @ sha256h2 q1,q2,q12 vld1.32 {q12},[r3]! vadd.i32 q13,q13,q9 vmov q2,q0 - .byte 0x6a,0x0c,0x02,0xf3 @ sha256h q0,q1,q13 - .byte 0x6a,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q13 + .inst 0xf3020c6a @ sha256h q0,q1,q13 + .inst 0xf3142c6a @ sha256h2 q1,q2,q13 vld1.32 {q13},[r3] vadd.i32 q12,q12,q10 sub r3,r3,#256-16 @ rewind vmov q2,q0 - .byte 0x68,0x0c,0x02,0xf3 @ sha256h q0,q1,q12 - .byte 0x68,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q12 + .inst 0xf3020c68 @ sha256h q0,q1,q12 + .inst 0xf3142c68 @ sha256h2 q1,q2,q12 vadd.i32 q13,q13,q11 vmov q2,q0 - .byte 0x6a,0x0c,0x02,0xf3 @ sha256h q0,q1,q13 - .byte 0x6a,0x2c,0x14,0xf3 @ sha256h2 q1,q2,q13 + .inst 0xf3020c6a @ sha256h q0,q1,q13 + .inst 0xf3142c6a @ sha256h2 q1,q2,q13 vadd.i32 q0,q0,q14 vadd.i32 q1,q1,q15