Module Name:    src
Committed By:   martin
Date:           Tue Mar 17 19:41:43 UTC 2015

Modified Files:
        src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm: aesv8-armx.S
            armv4cpuid.S ghashv8-armx.S sha1-armv4-large.S sha256-armv4.S

Log Message:
Use .inst for hard coded instructions (instead of .byte and endian dependend
represenation)


To generate a diff of this commit:
cvs rdiff -u -r1.1 -r1.2 \
    src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/aesv8-armx.S \
    src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/armv4cpuid.S \
    src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ghashv8-armx.S \
    src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha1-armv4-large.S \
    src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha256-armv4.S

Please note that diffs are not public domain; they are subject to the
copyright notices on the relevant files.

Modified files:

Index: src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/aesv8-armx.S
diff -u src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/aesv8-armx.S:1.1 src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/aesv8-armx.S:1.2
--- src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/aesv8-armx.S:1.1	Tue Mar 10 13:28:47 2015
+++ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/aesv8-armx.S	Tue Mar 17 19:41:42 2015
@@ -48,7 +48,7 @@ aes_v8_set_encrypt_key:
 	vtbl.8	d21,{q3},d5
 	vext.8	q9,q0,q3,#12
 	vst1.32	{q3},[r2]!
-	.byte	0x00,0x43,0xf0,0xf3	@ aese q10,q0
+	.inst	0xf3f04300		@ aese q10,q0
 	subs	r1,r1,#1
 
 	veor	q3,q3,q9
@@ -67,7 +67,7 @@ aes_v8_set_encrypt_key:
 	vtbl.8	d21,{q3},d5
 	vext.8	q9,q0,q3,#12
 	vst1.32	{q3},[r2]!
-	.byte	0x00,0x43,0xf0,0xf3	@ aese q10,q0
+	.inst	0xf3f04300	@ aese q10,q0
 
 	veor	q3,q3,q9
 	vext.8	q9,q0,q9,#12
@@ -82,7 +82,7 @@ aes_v8_set_encrypt_key:
 	vtbl.8	d21,{q3},d5
 	vext.8	q9,q0,q3,#12
 	vst1.32	{q3},[r2]!
-	.byte	0x00,0x43,0xf0,0xf3	@ aese q10,q0
+	.inst	0xf3f04300	@ aese q10,q0
 
 	veor	q3,q3,q9
 	vext.8	q9,q0,q9,#12
@@ -109,7 +109,7 @@ aes_v8_set_encrypt_key:
 	vtbl.8	d21,{q8},d5
 	vext.8	q9,q0,q3,#12
 	vst1.32	{d16},[r2]!
-	.byte	0x00,0x43,0xf0,0xf3	@ aese q10,q0
+	.inst	0xf3f04300	@ aese q10,q0
 	subs	r1,r1,#1
 
 	veor	q3,q3,q9
@@ -145,7 +145,7 @@ aes_v8_set_encrypt_key:
 	vtbl.8	d21,{q8},d5
 	vext.8	q9,q0,q3,#12
 	vst1.32	{q8},[r2]!
-	.byte	0x00,0x43,0xf0,0xf3	@ aese q10,q0
+	.inst	0xf3f04300	@ aese q10,q0
 	subs	r1,r1,#1
 
 	veor	q3,q3,q9
@@ -161,7 +161,7 @@ aes_v8_set_encrypt_key:
 
 	vdup.32	q10,d7[1]
 	vext.8	q9,q0,q8,#12
-	.byte	0x00,0x43,0xf0,0xf3	@ aese q10,q0
+	.inst	0xf3f04300	@ aese q10,q0
 
 	veor	q8,q8,q9
 	vext.8	q9,q0,q9,#12
@@ -204,15 +204,15 @@ aes_v8_set_decrypt_key:
 .Loop_imc:
 	vld1.32	{q0},[r2]
 	vld1.32	{q1},[r0]
-	.byte	0xc0,0x03,0xb0,0xf3	@ aesimc q0,q0
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
+	.inst	0xf3b003c0	@ aesimc q0,q0
+	.inst	0xf3b023c2	@ aesimc q1,q1
 	vst1.32	{q0},[r0],r4
 	vst1.32	{q1},[r2]!
 	cmp	r0,r2
 	bhi	.Loop_imc
 
 	vld1.32	{q0},[r2]
-	.byte	0xc0,0x03,0xb0,0xf3	@ aesimc q0,q0
+	.inst	0xf3b003c0	@ aesimc q0,q0
 	vst1.32	{q0},[r0]
 
 	eor	r0,r0,r0		@ return value
@@ -230,19 +230,19 @@ aes_v8_encrypt:
 	vld1.32	{q1},[r2]!
 
 .Loop_enc:
-	.byte	0x00,0x43,0xb0,0xf3	@ aese q2,q0
+	.inst	0xf3b04300	@ aese q2,q0
 	vld1.32	{q0},[r2]!
-	.byte	0x84,0x43,0xb0,0xf3	@ aesmc q2,q2
+	.inst	0xf3b04384	@ aesmc q2,q2
 	subs	r3,r3,#2
-	.byte	0x02,0x43,0xb0,0xf3	@ aese q2,q1
+	.inst	0xf3b04302	@ aese q2,q1
 	vld1.32	{q1},[r2]!
-	.byte	0x84,0x43,0xb0,0xf3	@ aesmc q2,q2
+	.inst	0xf3b04384	@ aesmc q2,q2
 	bgt	.Loop_enc
 
-	.byte	0x00,0x43,0xb0,0xf3	@ aese q2,q0
+	.inst	0xf3b04300	@ aese q2,q0
 	vld1.32	{q0},[r2]
-	.byte	0x84,0x43,0xb0,0xf3	@ aesmc q2,q2
-	.byte	0x02,0x43,0xb0,0xf3	@ aese q2,q1
+	.inst	0xf3b04384	@ aesmc q2,q2
+	.inst	0xf3b04302	@ aese q2,q1
 	veor	q2,q2,q0
 
 	vst1.8	{q2},[r1]
@@ -259,19 +259,19 @@ aes_v8_decrypt:
 	vld1.32	{q1},[r2]!
 
 .Loop_dec:
-	.byte	0x40,0x43,0xb0,0xf3	@ aesd q2,q0
+	.inst	0xf3b04340	@ aesd q2,q0
 	vld1.32	{q0},[r2]!
-	.byte	0xc4,0x43,0xb0,0xf3	@ aesimc q2,q2
+	.inst	0xf3b043c4	@ aesimc q2,q2
 	subs	r3,r3,#2
-	.byte	0x42,0x43,0xb0,0xf3	@ aesd q2,q1
+	.inst	0xf3b04342	@ aesd q2,q1
 	vld1.32	{q1},[r2]!
-	.byte	0xc4,0x43,0xb0,0xf3	@ aesimc q2,q2
+	.inst	0xf3b043c4	@ aesimc q2,q2
 	bgt	.Loop_dec
 
-	.byte	0x40,0x43,0xb0,0xf3	@ aesd q2,q0
+	.inst	0xf3b04340	@ aesd q2,q0
 	vld1.32	{q0},[r2]
-	.byte	0xc4,0x43,0xb0,0xf3	@ aesimc q2,q2
-	.byte	0x42,0x43,0xb0,0xf3	@ aesd q2,q1
+	.inst	0xf3b043c4	@ aesimc q2,q2
+	.inst	0xf3b04342	@ aesd q2,q1
 	veor	q2,q2,q0
 
 	vst1.8	{q2},[r1]
@@ -315,36 +315,36 @@ aes_v8_cbc_encrypt:
 	beq	.Lcbc_enc128
 
 .Loop_cbc_enc:
-	.byte	0x20,0x03,0xb0,0xf3	@ aese q0,q8
+	.inst	0xf3b00320	@ aese q0,q8
 	vld1.32	{q8},[r7]!
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
+	.inst	0xf3b00380	@ aesmc q0,q0
 	subs	r6,r6,#2
-	.byte	0x22,0x03,0xb0,0xf3	@ aese q0,q9
+	.inst	0xf3b00322	@ aese q0,q9
 	vld1.32	{q9},[r7]!
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
+	.inst	0xf3b00380	@ aesmc q0,q0
 	bgt	.Loop_cbc_enc
 
-	.byte	0x20,0x03,0xb0,0xf3	@ aese q0,q8
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
+	.inst	0xf3b00320	@ aese q0,q8
+	.inst	0xf3b00380	@ aesmc q0,q0
 	 subs	r2,r2,#16
-	.byte	0x22,0x03,0xb0,0xf3	@ aese q0,q9
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
+	.inst	0xf3b00322	@ aese q0,q9
+	.inst	0xf3b00380	@ aesmc q0,q0
 	 moveq	r8,#0
-	.byte	0x24,0x03,0xb0,0xf3	@ aese q0,q10
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
+	.inst	0xf3b00324	@ aese q0,q10
+	.inst	0xf3b00380	@ aesmc q0,q0
 	 add	r7,r3,#16
-	.byte	0x26,0x03,0xb0,0xf3	@ aese q0,q11
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
+	.inst	0xf3b00326	@ aese q0,q11
+	.inst	0xf3b00380	@ aesmc q0,q0
 	 vld1.8	{q8},[r0],r8
-	.byte	0x28,0x03,0xb0,0xf3	@ aese q0,q12
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
+	.inst	0xf3b00328	@ aese q0,q12
+	.inst	0xf3b00380	@ aesmc q0,q0
 	 veor	q8,q8,q5
-	.byte	0x2a,0x03,0xb0,0xf3	@ aese q0,q13
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
+	.inst	0xf3b0032a	@ aese q0,q13
+	.inst	0xf3b00380	@ aesmc q0,q0
 	 vld1.32 {q9},[r7]!	@ re-pre-load rndkey[1]
-	.byte	0x2c,0x03,0xb0,0xf3	@ aese q0,q14
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
-	.byte	0x2e,0x03,0xb0,0xf3	@ aese q0,q15
+	.inst	0xf3b0032c	@ aese q0,q14
+	.inst	0xf3b00380	@ aesmc q0,q0
+	.inst	0xf3b0032e	@ aese q0,q15
 
 	 mov	r6,r5
 	veor	q6,q0,q7
@@ -356,35 +356,35 @@ aes_v8_cbc_encrypt:
 .align	5
 .Lcbc_enc128:
 	vld1.32	{q2-q3},[r7]
-	.byte	0x20,0x03,0xb0,0xf3	@ aese q0,q8
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
+	.inst	0xf3b00320	@ aese q0,q8
+	.inst	0xf3b00380	@ aesmc q0,q0
 	b	.Lenter_cbc_enc128
 .Loop_cbc_enc128:
-	.byte	0x20,0x03,0xb0,0xf3	@ aese q0,q8
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
+	.inst	0xf3b00320	@ aese q0,q8
+	.inst	0xf3b00380	@ aesmc q0,q0
 	 vst1.8	{q6},[r1]!
 .Lenter_cbc_enc128:
-	.byte	0x22,0x03,0xb0,0xf3	@ aese q0,q9
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
+	.inst	0xf3b00322	@ aese q0,q9
+	.inst	0xf3b00380	@ aesmc q0,q0
 	 subs	r2,r2,#16
-	.byte	0x04,0x03,0xb0,0xf3	@ aese q0,q2
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
+	.inst	0xf3b00304	@ aese q0,q2
+	.inst	0xf3b00380	@ aesmc q0,q0
 	 moveq	r8,#0
-	.byte	0x06,0x03,0xb0,0xf3	@ aese q0,q3
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
-	.byte	0x24,0x03,0xb0,0xf3	@ aese q0,q10
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
-	.byte	0x26,0x03,0xb0,0xf3	@ aese q0,q11
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
+	.inst	0xf3b00306	@ aese q0,q3
+	.inst	0xf3b00380	@ aesmc q0,q0
+	.inst	0xf3b00324	@ aese q0,q10
+	.inst	0xf3b00380	@ aesmc q0,q0
+	.inst	0xf3b00326	@ aese q0,q11
+	.inst	0xf3b00380	@ aesmc q0,q0
 	 vld1.8	{q8},[r0],r8
-	.byte	0x28,0x03,0xb0,0xf3	@ aese q0,q12
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
-	.byte	0x2a,0x03,0xb0,0xf3	@ aese q0,q13
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
-	.byte	0x2c,0x03,0xb0,0xf3	@ aese q0,q14
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
+	.inst	0xf3b00328	@ aese q0,q12
+	.inst	0xf3b00380	@ aesmc q0,q0
+	.inst	0xf3b0032a	@ aese q0,q13
+	.inst	0xf3b00380	@ aesmc q0,q0
+	.inst	0xf3b0032c	@ aese q0,q14
+	.inst	0xf3b00380	@ aesmc q0,q0
 	 veor	q8,q8,q5
-	.byte	0x2e,0x03,0xb0,0xf3	@ aese q0,q15
+	.inst	0xf3b0032e	@ aese q0,q15
 	veor	q6,q0,q7
 	bhs	.Loop_cbc_enc128
 
@@ -407,70 +407,70 @@ aes_v8_cbc_encrypt:
 	vorr	q11,q10,q10
 
 .Loop3x_cbc_dec:
-	.byte	0x60,0x03,0xb0,0xf3	@ aesd q0,q8
-	.byte	0x60,0x23,0xb0,0xf3	@ aesd q1,q8
-	.byte	0x60,0x43,0xf0,0xf3	@ aesd q10,q8
+	.inst	0xf3b00360	@ aesd q0,q8
+	.inst	0xf3b02360	@ aesd q1,q8
+	.inst	0xf3f04360	@ aesd q10,q8
 	vld1.32	{q8},[r7]!
-	.byte	0xc0,0x03,0xb0,0xf3	@ aesimc q0,q0
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
-	.byte	0xe4,0x43,0xf0,0xf3	@ aesimc q10,q10
+	.inst	0xf3b003c0	@ aesimc q0,q0
+	.inst	0xf3b023c2	@ aesimc q1,q1
+	.inst	0xf3f043e4	@ aesimc q10,q10
 	subs	r6,r6,#2
-	.byte	0x62,0x03,0xb0,0xf3	@ aesd q0,q9
-	.byte	0x62,0x23,0xb0,0xf3	@ aesd q1,q9
-	.byte	0x62,0x43,0xf0,0xf3	@ aesd q10,q9
+	.inst	0xf3b00362	@ aesd q0,q9
+	.inst	0xf3b02362	@ aesd q1,q9
+	.inst	0xf3f04362	@ aesd q10,q9
 	vld1.32	{q9},[r7]!
-	.byte	0xc0,0x03,0xb0,0xf3	@ aesimc q0,q0
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
-	.byte	0xe4,0x43,0xf0,0xf3	@ aesimc q10,q10
+	.inst	0xf3b003c0	@ aesimc q0,q0
+	.inst	0xf3b023c2	@ aesimc q1,q1
+	.inst	0xf3f043e4	@ aesimc q10,q10
 	bgt	.Loop3x_cbc_dec
 
-	.byte	0x60,0x03,0xb0,0xf3	@ aesd q0,q8
-	.byte	0x60,0x23,0xb0,0xf3	@ aesd q1,q8
-	.byte	0x60,0x43,0xf0,0xf3	@ aesd q10,q8
+	.inst	0xf3b00360	@ aesd q0,q8
+	.inst	0xf3b02360	@ aesd q1,q8
+	.inst	0xf3f04360	@ aesd q10,q8
 	 veor	q4,q6,q7
-	.byte	0xc0,0x03,0xb0,0xf3	@ aesimc q0,q0
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
-	.byte	0xe4,0x43,0xf0,0xf3	@ aesimc q10,q10
+	.inst	0xf3b003c0	@ aesimc q0,q0
+	.inst	0xf3b023c2	@ aesimc q1,q1
+	.inst	0xf3f043e4	@ aesimc q10,q10
 	 veor	q5,q2,q7
-	.byte	0x62,0x03,0xb0,0xf3	@ aesd q0,q9
-	.byte	0x62,0x23,0xb0,0xf3	@ aesd q1,q9
-	.byte	0x62,0x43,0xf0,0xf3	@ aesd q10,q9
+	.inst	0xf3b00362	@ aesd q0,q9
+	.inst	0xf3b02362	@ aesd q1,q9
+	.inst	0xf3f04362	@ aesd q10,q9
 	 veor	q9,q3,q7
 	 subs	r2,r2,#0x30
-	.byte	0xc0,0x03,0xb0,0xf3	@ aesimc q0,q0
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
-	.byte	0xe4,0x43,0xf0,0xf3	@ aesimc q10,q10
+	.inst	0xf3b003c0	@ aesimc q0,q0
+	.inst	0xf3b023c2	@ aesimc q1,q1
+	.inst	0xf3f043e4	@ aesimc q10,q10
 	 vorr	q6,q11,q11
 	 movlo	r6,r2			@ r6, r6, is zero at this point
-	.byte	0x68,0x03,0xb0,0xf3	@ aesd q0,q12
-	.byte	0x68,0x23,0xb0,0xf3	@ aesd q1,q12
-	.byte	0x68,0x43,0xf0,0xf3	@ aesd q10,q12
+	.inst	0xf3b00368	@ aesd q0,q12
+	.inst	0xf3b02368	@ aesd q1,q12
+	.inst	0xf3f04368	@ aesd q10,q12
 	 add	r0,r0,r6		@ r0 is adjusted in such way that
 					@ at exit from the loop q1-q10
 					@ are loaded with last "words"
-	.byte	0xc0,0x03,0xb0,0xf3	@ aesimc q0,q0
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
-	.byte	0xe4,0x43,0xf0,0xf3	@ aesimc q10,q10
+	.inst	0xf3b003c0	@ aesimc q0,q0
+	.inst	0xf3b023c2	@ aesimc q1,q1
+	.inst	0xf3f043e4	@ aesimc q10,q10
 	 mov	r7,r3
-	.byte	0x6a,0x03,0xb0,0xf3	@ aesd q0,q13
-	.byte	0x6a,0x23,0xb0,0xf3	@ aesd q1,q13
-	.byte	0x6a,0x43,0xf0,0xf3	@ aesd q10,q13
+	.inst	0xf3b0036a	@ aesd q0,q13
+	.inst	0xf3b0236a	@ aesd q1,q13
+	.inst	0xf3f0436a	@ aesd q10,q13
 	 vld1.8	{q2},[r0]!
-	.byte	0xc0,0x03,0xb0,0xf3	@ aesimc q0,q0
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
-	.byte	0xe4,0x43,0xf0,0xf3	@ aesimc q10,q10
+	.inst	0xf3b003c0	@ aesimc q0,q0
+	.inst	0xf3b023c2	@ aesimc q1,q1
+	.inst	0xf3f043e4	@ aesimc q10,q10
 	 vld1.8	{q3},[r0]!
-	.byte	0x6c,0x03,0xb0,0xf3	@ aesd q0,q14
-	.byte	0x6c,0x23,0xb0,0xf3	@ aesd q1,q14
-	.byte	0x6c,0x43,0xf0,0xf3	@ aesd q10,q14
-	 vld1.8	{q11},[r0]!
-	.byte	0xc0,0x03,0xb0,0xf3	@ aesimc q0,q0
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
-	.byte	0xe4,0x43,0xf0,0xf3	@ aesimc q10,q10
+	.inst	0xf3b0036c	@ aesd q0,q14
+	.inst	0xf3b0236c	@ aesd q1,q14
+	.inst	0xf3f0436c	@ aesd q10,q14
+	 vld1.8 {q11},[r0]!
+	.inst	0xf3b003c0	@ aesimc q0,q0
+	.inst	0xf3b023c2	@ aesimc q1,q1
+	.inst	0xf3f043e4	@ aesimc q10,q10
 	 vld1.32 {q8},[r7]!	@ re-pre-load rndkey[0]
-	.byte	0x6e,0x03,0xb0,0xf3	@ aesd q0,q15
-	.byte	0x6e,0x23,0xb0,0xf3	@ aesd q1,q15
-	.byte	0x6e,0x43,0xf0,0xf3	@ aesd q10,q15
+	.inst	0xf3b0036e	@ aesd q0,q15
+	.inst	0xf3b0236e	@ aesd q1,q15
+	.inst	0xf3f0436e	@ aesd q10,q15
 
 	 add	r6,r5,#2
 	veor	q4,q4,q0
@@ -490,44 +490,44 @@ aes_v8_cbc_encrypt:
 	nop
 
 .Lcbc_dec_tail:
-	.byte	0x60,0x23,0xb0,0xf3	@ aesd q1,q8
-	.byte	0x60,0x43,0xf0,0xf3	@ aesd q10,q8
+	.inst	0xf3b02360	@ aesd q1,q8
+	.inst	0xf3f04360	@ aesd q10,q8
 	vld1.32	{q8},[r7]!
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
-	.byte	0xe4,0x43,0xf0,0xf3	@ aesimc q10,q10
+	.inst	0xf3b023c2	@ aesimc q1,q1
+	.inst	0xf3f043e4	@ aesimc q10,q10
 	subs	r6,r6,#2
-	.byte	0x62,0x23,0xb0,0xf3	@ aesd q1,q9
-	.byte	0x62,0x43,0xf0,0xf3	@ aesd q10,q9
+	.inst	0xf3b02362	@ aesd q1,q9
+	.inst	0xf3f04362	@ aesd q10,q9
 	vld1.32	{q9},[r7]!
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
-	.byte	0xe4,0x43,0xf0,0xf3	@ aesimc q10,q10
+	.inst	0xf3b023c2	@ aesimc q1,q1
+	.inst	0xf3f043e4	@ aesimc q10,q10
 	bgt	.Lcbc_dec_tail
 
-	.byte	0x60,0x23,0xb0,0xf3	@ aesd q1,q8
-	.byte	0x60,0x43,0xf0,0xf3	@ aesd q10,q8
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
-	.byte	0xe4,0x43,0xf0,0xf3	@ aesimc q10,q10
-	.byte	0x62,0x23,0xb0,0xf3	@ aesd q1,q9
-	.byte	0x62,0x43,0xf0,0xf3	@ aesd q10,q9
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
-	.byte	0xe4,0x43,0xf0,0xf3	@ aesimc q10,q10
-	.byte	0x68,0x23,0xb0,0xf3	@ aesd q1,q12
-	.byte	0x68,0x43,0xf0,0xf3	@ aesd q10,q12
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
-	.byte	0xe4,0x43,0xf0,0xf3	@ aesimc q10,q10
+	.inst	0xf3b02360	@ aesd q1,q8
+	.inst	0xf3f04360	@ aesd q10,q8
+	.inst	0xf3b023c2	@ aesimc q1,q1
+	.inst	0xf3f043e4	@ aesimc q10,q10
+	.inst	0xf3b02362	@ aesd q1,q9
+	.inst	0xf3f04362	@ aesd q10,q9
+	.inst	0xf3b023c2	@ aesimc q1,q1
+	.inst	0xf3f043e4	@ aesimc q10,q10
+	.inst	0xf3b02368	@ aesd q1,q12
+	.inst	0xf3f04368	@ aesd q10,q12
+	.inst	0xf3b023c2	@ aesimc q1,q1
+	.inst	0xf3f043e4	@ aesimc q10,q10
 	 cmn	r2,#0x20
-	.byte	0x6a,0x23,0xb0,0xf3	@ aesd q1,q13
-	.byte	0x6a,0x43,0xf0,0xf3	@ aesd q10,q13
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
-	.byte	0xe4,0x43,0xf0,0xf3	@ aesimc q10,q10
+	.inst	0xf3b0236a	@ aesd q1,q13
+	.inst	0xf3f0436a	@ aesd q10,q13
+	.inst	0xf3b023c2	@ aesimc q1,q1
+	.inst	0xf3f043e4	@ aesimc q10,q10
 	 veor	q5,q6,q7
-	.byte	0x6c,0x23,0xb0,0xf3	@ aesd q1,q14
-	.byte	0x6c,0x43,0xf0,0xf3	@ aesd q10,q14
-	.byte	0xc2,0x23,0xb0,0xf3	@ aesimc q1,q1
-	.byte	0xe4,0x43,0xf0,0xf3	@ aesimc q10,q10
+	.inst	0xf3b0236c	@ aesd q1,q14
+	.inst	0xf3f0436c	@ aesd q10,q14
+	.inst	0xf3b023c2	@ aesimc q1,q1
+	.inst	0xf3f043e4	@ aesimc q10,q10
 	 veor	q9,q3,q7
-	.byte	0x6e,0x23,0xb0,0xf3	@ aesd q1,q15
-	.byte	0x6e,0x43,0xf0,0xf3	@ aesd q10,q15
+	.inst	0xf3b0236e	@ aesd q1,q15
+	.inst	0xf3f0436e	@ aesd q10,q15
 	beq	.Lcbc_dec_one
 	veor	q5,q5,q1
 	veor	q9,q9,q10
@@ -590,77 +590,77 @@ aes_v8_ctr32_encrypt_blocks:
 
 .align	4
 .Loop3x_ctr32:
-	.byte	0x20,0x03,0xb0,0xf3	@ aese q0,q8
-	.byte	0x20,0x23,0xb0,0xf3	@ aese q1,q8
-	.byte	0x20,0x43,0xf0,0xf3	@ aese q10,q8
+	.inst	0xf3b00320	@ aese q0,q8
+	.inst	0xf3b02320	@ aese q1,q8
+	.inst	0xf3f04320	@ aese q10,q8
 	vld1.32		{q8},[r7]!
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
-	.byte	0x82,0x23,0xb0,0xf3	@ aesmc q1,q1
-	.byte	0xa4,0x43,0xf0,0xf3	@ aesmc q10,q10
+	.inst	0xf3b00380	@ aesmc q0,q0
+	.inst	0xf3b02382	@ aesmc q1,q1
+	.inst	0xf3f043a4	@ aesmc q10,q10
 	subs		r6,r6,#2
-	.byte	0x22,0x03,0xb0,0xf3	@ aese q0,q9
-	.byte	0x22,0x23,0xb0,0xf3	@ aese q1,q9
-	.byte	0x22,0x43,0xf0,0xf3	@ aese q10,q9
+	.inst	0xf3b00322	@ aese q0,q9
+	.inst	0xf3b02322	@ aese q1,q9
+	.inst	0xf3f04322	@ aese q10,q9
 	vld1.32		{q9},[r7]!
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
-	.byte	0x82,0x23,0xb0,0xf3	@ aesmc q1,q1
-	.byte	0xa4,0x43,0xf0,0xf3	@ aesmc q10,q10
+	.inst	0xf3b00380	@ aesmc q0,q0
+	.inst	0xf3b02382	@ aesmc q1,q1
+	.inst	0xf3f043a4	@ aesmc q10,q10
 	bgt		.Loop3x_ctr32
 
-	.byte	0x20,0x03,0xb0,0xf3	@ aese q0,q8
-	.byte	0x20,0x23,0xb0,0xf3	@ aese q1,q8
-	.byte	0x20,0x43,0xf0,0xf3	@ aese q10,q8
+	.inst	0xf3b00320	@ aese q0,q8
+	.inst	0xf3b02320	@ aese q1,q8
+	.inst	0xf3f04320	@ aese q10,q8
 	 mov		r7,r3
-	.byte	0x80,0x83,0xb0,0xf3	@ aesmc q4,q0
+	.inst	0xf3b08380	@ aesmc q4,q0
 	 vld1.8		{q2},[r0]!
-	.byte	0x82,0xa3,0xb0,0xf3	@ aesmc q5,q1
-	.byte	0xa4,0x43,0xf0,0xf3	@ aesmc q10,q10
+	.inst	0xf3b0a382	@ aesmc q5,q1
+	.inst	0xf3f043a4	@ aesmc q10,q10
 	 vorr		q0,q6,q6
-	.byte	0x22,0x83,0xb0,0xf3	@ aese q4,q9
+	.inst	0xf3b08322	@ aese q4,q9
 	 vld1.8		{q3},[r0]!
-	.byte	0x22,0xa3,0xb0,0xf3	@ aese q5,q9
-	.byte	0x22,0x43,0xf0,0xf3	@ aese q10,q9
+	.inst	0xf3b0a322	@ aese q5,q9
+	.inst	0xf3f04322	@ aese q10,q9
 	 vorr		q1,q6,q6
-	.byte	0x88,0x83,0xb0,0xf3	@ aesmc q4,q4
+	.inst	0xf3b08388	@ aesmc q4,q4
 	 vld1.8		{q11},[r0]!
-	.byte	0x8a,0xa3,0xb0,0xf3	@ aesmc q5,q5
-	.byte	0xa4,0x23,0xf0,0xf3	@ aesmc q9,q10
+	.inst	0xf3b0a38a	@ aesmc q5,q5
+	.inst	0xf3f023a4	@ aesmc q9,q10
 	 vorr		q10,q6,q6
 	 add		r9,r8,#1
-	.byte	0x28,0x83,0xb0,0xf3	@ aese q4,q12
-	.byte	0x28,0xa3,0xb0,0xf3	@ aese q5,q12
-	.byte	0x28,0x23,0xf0,0xf3	@ aese q9,q12
+	.inst	0xf3b08328	@ aese q4,q12
+	.inst	0xf3b0a328	@ aese q5,q12
+	.inst	0xf3f02328	@ aese q9,q12
 	 veor		q2,q2,q7
 	 add		r10,r8,#2
-	.byte	0x88,0x83,0xb0,0xf3	@ aesmc q4,q4
-	.byte	0x8a,0xa3,0xb0,0xf3	@ aesmc q5,q5
-	.byte	0xa2,0x23,0xf0,0xf3	@ aesmc q9,q9
+	.inst	0xf3b08388	@ aesmc q4,q4
+	.inst	0xf3b0a38a	@ aesmc q5,q5
+	.inst	0xf3f023a2	@ aesmc q9,q9
 	 veor		q3,q3,q7
 	 add		r8,r8,#3
-	.byte	0x2a,0x83,0xb0,0xf3	@ aese q4,q13
-	.byte	0x2a,0xa3,0xb0,0xf3	@ aese q5,q13
-	.byte	0x2a,0x23,0xf0,0xf3	@ aese q9,q13
+	.inst	0xf3b0832a	@ aese q4,q13
+	.inst	0xf3b0a32a	@ aese q5,q13
+	.inst	0xf3f0232a	@ aese q9,q13
 	 veor		q11,q11,q7
 	 rev		r9,r9
-	.byte	0x88,0x83,0xb0,0xf3	@ aesmc q4,q4
+	.inst	0xf3b08388	@ aesmc q4,q4
 	 vld1.32	 {q8},[r7]!	@ re-pre-load rndkey[0]
-	.byte	0x8a,0xa3,0xb0,0xf3	@ aesmc q5,q5
-	.byte	0xa2,0x23,0xf0,0xf3	@ aesmc q9,q9
+	.inst	0xf3b0a38a	@ aesmc q5,q5
+	.inst	0xf3f023a2	@ aesmc q9,q9
 	 vmov.32	d1[1], r9
 	 rev		r10,r10
-	.byte	0x2c,0x83,0xb0,0xf3	@ aese q4,q14
-	.byte	0x2c,0xa3,0xb0,0xf3	@ aese q5,q14
-	.byte	0x2c,0x23,0xf0,0xf3	@ aese q9,q14
+	.inst	0xf3b0832c	@ aese q4,q14
+	.inst	0xf3b0a32c	@ aese q5,q14
+	.inst	0xf3f0232c	@ aese q9,q14
 	 vmov.32	d3[1], r10
 	 rev		r12,r8
-	.byte	0x88,0x83,0xb0,0xf3	@ aesmc q4,q4
-	.byte	0x8a,0xa3,0xb0,0xf3	@ aesmc q5,q5
-	.byte	0xa2,0x23,0xf0,0xf3	@ aesmc q9,q9
+	.inst	0xf3b08388	@ aesmc q4,q4
+	.inst	0xf3b0a38a	@ aesmc q5,q5
+	.inst	0xf3f023a2	@ aesmc q9,q9
 	 vmov.32	d21[1], r12
 	 subs		r2,r2,#3
-	.byte	0x2e,0x83,0xb0,0xf3	@ aese q4,q15
-	.byte	0x2e,0xa3,0xb0,0xf3	@ aese q5,q15
-	.byte	0x2e,0x23,0xf0,0xf3	@ aese q9,q15
+	.inst	0xf3b0832e	@ aese q4,q15
+	.inst	0xf3b0a32e	@ aese q5,q15
+	.inst	0xf3f0232e	@ aese q9,q15
 
 	 mov		r6,r5
 	veor		q2,q2,q4
@@ -679,45 +679,45 @@ aes_v8_ctr32_encrypt_blocks:
 	moveq	r12,#0
 
 .Lctr32_tail:
-	.byte	0x20,0x03,0xb0,0xf3	@ aese q0,q8
-	.byte	0x20,0x23,0xb0,0xf3	@ aese q1,q8
+	.inst	0xf3b00320	@ aese q0,q8
+	.inst	0xf3b02320	@ aese q1,q8
 	vld1.32		{q8},[r7]!
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
-	.byte	0x82,0x23,0xb0,0xf3	@ aesmc q1,q1
+	.inst	0xf3b00380	@ aesmc q0,q0
+	.inst	0xf3b02382	@ aesmc q1,q1
 	subs		r6,r6,#2
-	.byte	0x22,0x03,0xb0,0xf3	@ aese q0,q9
-	.byte	0x22,0x23,0xb0,0xf3	@ aese q1,q9
+	.inst	0xf3b00322	@ aese q0,q9
+	.inst	0xf3b02322	@ aese q1,q9
 	vld1.32		{q9},[r7]!
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
-	.byte	0x82,0x23,0xb0,0xf3	@ aesmc q1,q1
+	.inst	0xf3b00380	@ aesmc q0,q0
+	.inst	0xf3b02382	@ aesmc q1,q1
 	bgt		.Lctr32_tail
 
-	.byte	0x20,0x03,0xb0,0xf3	@ aese q0,q8
-	.byte	0x20,0x23,0xb0,0xf3	@ aese q1,q8
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
-	.byte	0x82,0x23,0xb0,0xf3	@ aesmc q1,q1
-	.byte	0x22,0x03,0xb0,0xf3	@ aese q0,q9
-	.byte	0x22,0x23,0xb0,0xf3	@ aese q1,q9
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
-	.byte	0x82,0x23,0xb0,0xf3	@ aesmc q1,q1
+	.inst	0xf3b00320	@ aese q0,q8
+	.inst	0xf3b02320	@ aese q1,q8
+	.inst	0xf3b00380	@ aesmc q0,q0
+	.inst	0xf3b02382	@ aesmc q1,q1
+	.inst	0xf3b00322	@ aese q0,q9
+	.inst	0xf3b02322	@ aese q1,q9
+	.inst	0xf3b00380	@ aesmc q0,q0
+	.inst	0xf3b02382	@ aesmc q1,q1
 	 vld1.8		{q2},[r0],r12
-	.byte	0x28,0x03,0xb0,0xf3	@ aese q0,q12
-	.byte	0x28,0x23,0xb0,0xf3	@ aese q1,q12
+	.inst	0xf3b00328	@ aese q0,q12
+	.inst	0xf3b02328	@ aese q1,q12
 	 vld1.8		{q3},[r0]
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
-	.byte	0x82,0x23,0xb0,0xf3	@ aesmc q1,q1
-	.byte	0x2a,0x03,0xb0,0xf3	@ aese q0,q13
-	.byte	0x2a,0x23,0xb0,0xf3	@ aese q1,q13
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
-	.byte	0x82,0x23,0xb0,0xf3	@ aesmc q1,q1
-	.byte	0x2c,0x03,0xb0,0xf3	@ aese q0,q14
-	.byte	0x2c,0x23,0xb0,0xf3	@ aese q1,q14
+	.inst	0xf3b00380	@ aesmc q0,q0
+	.inst	0xf3b02382	@ aesmc q1,q1
+	.inst	0xf3b0032a	@ aese q0,q13
+	.inst	0xf3b0232a	@ aese q1,q13
+	.inst	0xf3b00380	@ aesmc q0,q0
+	.inst	0xf3b02382	@ aesmc q1,q1
+	.inst	0xf3b0032c	@ aese q0,q14
+	.inst	0xf3b0232c	@ aese q1,q14
 	 veor		q2,q2,q7
-	.byte	0x80,0x03,0xb0,0xf3	@ aesmc q0,q0
-	.byte	0x82,0x23,0xb0,0xf3	@ aesmc q1,q1
+	.inst	0xf3b00380	@ aesmc q0,q0
+	.inst	0xf3b02382	@ aesmc q1,q1
 	 veor		q3,q3,q7
-	.byte	0x2e,0x03,0xb0,0xf3	@ aese q0,q15
-	.byte	0x2e,0x23,0xb0,0xf3	@ aese q1,q15
+	.inst	0xf3b0032e	@ aese q0,q15
+	.inst	0xf3b0232e	@ aese q1,q15
 
 	cmp		r2,#1
 	veor		q2,q2,q0
Index: src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/armv4cpuid.S
diff -u src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/armv4cpuid.S:1.1 src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/armv4cpuid.S:1.2
--- src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/armv4cpuid.S:1.1	Tue Mar 10 13:28:47 2015
+++ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/armv4cpuid.S	Tue Mar 17 19:41:42 2015
@@ -99,27 +99,27 @@ _armv7_tick:
 .global	_armv8_aes_probe
 .type	_armv8_aes_probe,%function
 _armv8_aes_probe:
-	.byte	0x00,0x03,0xb0,0xf3	@ aese.8	q0,q0
+	.inst	0xf3b00300	@ aese.8	q0,q0
 	RET
 .size	_armv8_aes_probe,.-_armv8_aes_probe
 
 .global	_armv8_sha1_probe
 .type	_armv8_sha1_probe,%function
 _armv8_sha1_probe:
-	.byte	0x40,0x0c,0x00,0xf2	@ sha1c.32	q0,q0,q0
+	.inst	0xf2000c40	@ sha1c.32	q0,q0,q0
 	RET
 .size	_armv8_sha1_probe,.-_armv8_sha1_probe
 
 .global	_armv8_sha256_probe
 .type	_armv8_sha256_probe,%function
 _armv8_sha256_probe:
-	.byte	0x40,0x0c,0x00,0xf3	@ sha256h.32	q0,q0,q0
+	.inst	0xf3000c40	@ sha256h.32	q0,q0,q0
 	RET
 .size	_armv8_sha256_probe,.-_armv8_sha256_probe
 .global	_armv8_pmull_probe
 .type	_armv8_pmull_probe,%function
 _armv8_pmull_probe:
-	.byte	0x00,0x0e,0xa0,0xf2	@ vmull.p64	q0,d0,d0
+	.inst	0xf2a00e00	@ vmull.p64	q0,d0,d0
 	RET
 .size	_armv8_pmull_probe,.-_armv8_pmull_probe
 #endif
Index: src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ghashv8-armx.S
diff -u src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ghashv8-armx.S:1.1 src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ghashv8-armx.S:1.2
--- src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ghashv8-armx.S:1.1	Tue Mar 10 13:28:47 2015
+++ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/ghashv8-armx.S	Tue Mar 17 19:41:42 2015
@@ -77,11 +77,11 @@ gcm_ghash_v8:
 	veor		q9,q9,q10		@ q9 is rotated inp^Xi
 
 .Lgmult_v8:
-	.byte	0x86,0x0e,0xa8,0xf2	@ pmull q0,q12,q3		@ H.lo·Xi.lo
+	.inst	0xf2a80e86	@ pmull q0,q12,q3		@ H.lo·Xi.lo
 	veor		q9,q9,q3		@ Karatsuba pre-processing
-	.byte	0x87,0x4e,0xa9,0xf2	@ pmull2 q2,q12,q3		@ H.hi·Xi.hi
+	.inst	0xf2a94e87	@ pmull2 q2,q12,q3		@ H.hi·Xi.hi
 	subs		r3,r3,#16
-	.byte	0xa2,0x2e,0xaa,0xf2	@ pmull q1,q13,q9		@ (H.lo+H.hi)·(Xi.lo+Xi.hi)
+	.inst	0xf2aa2ea2	@ pmull q1,q13,q9		@ (H.lo+H.hi)·(Xi.lo+Xi.hi)
 	moveq	r12,#0
 
 	vext.8		q9,q0,q2,#8		@ Karatsuba post-processing
@@ -89,7 +89,7 @@ gcm_ghash_v8:
 	veor		q1,q1,q9
 	 vld1.64	{q9},[r2],r12	@ load [rotated] inp
 	veor		q1,q1,q10
-	.byte	0x26,0x4e,0xe0,0xf2	@ pmull q10,q0,q11		@ 1st phase
+	.inst	0xf2e04e26	@ pmull q10,q0,q11		@ 1st phase
 
 	vmov		d4,d3		@ Xh|Xm - 256-bit result
 	vmov		d3,d0		@ Xm is rotated Xl
@@ -100,7 +100,7 @@ gcm_ghash_v8:
 	 vext.8		q3,q9,q9,#8
 
 	vext.8		q10,q0,q0,#8		@ 2nd phase
-	.byte	0x26,0x0e,0xa0,0xf2	@ pmull q0,q0,q11
+	.inst	0xf2a00e26	@ pmull q0,q0,q11
 	veor		q10,q10,q2
 	veor		q0,q0,q10
 	bhs		.Loop_v8
Index: src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha1-armv4-large.S
diff -u src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha1-armv4-large.S:1.1 src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha1-armv4-large.S:1.2
--- src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha1-armv4-large.S:1.1	Tue Mar 10 13:28:47 2015
+++ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha1-armv4-large.S	Tue Mar 17 19:41:42 2015
@@ -1347,98 +1347,98 @@ sha1_block_data_order_armv8:
 
 	vadd.i32	q13,q8,q5
 	vrev32.8	q7,q7
-	.byte	0xc0,0x62,0xb9,0xf3	@ sha1h q3,q0		@ 0
-	.byte	0x68,0x0c,0x02,0xf2	@ sha1c q0,q1,q12
+	.inst	0xf3b962c0	@ sha1h q3,q0		@ 0
+	.inst	0xf2020c68	@ sha1c q0,q1,q12
 	vadd.i32	q12,q8,q6
-	.byte	0x4c,0x8c,0x3a,0xf2	@ sha1su0 q4,q5,q6
-	.byte	0xc0,0x42,0xb9,0xf3	@ sha1h q2,q0		@ 1
-	.byte	0x6a,0x0c,0x06,0xf2	@ sha1c q0,q3,q13
+	.inst	0xf23a8c4c	@ sha1su0 q4,q5,q6
+	.inst	0xf3b942c0	@ sha1h q2,q0		@ 1
+	.inst	0xf2060c6a	@ sha1c q0,q3,q13
 	vadd.i32	q13,q8,q7
-	.byte	0x8e,0x83,0xba,0xf3	@ sha1su1 q4,q7
-	.byte	0x4e,0xac,0x3c,0xf2	@ sha1su0 q5,q6,q7
-	.byte	0xc0,0x62,0xb9,0xf3	@ sha1h q3,q0		@ 2
-	.byte	0x68,0x0c,0x04,0xf2	@ sha1c q0,q2,q12
+	.inst	0xf3ba838e	@ sha1su1 q4,q7
+	.inst	0xf23cac4e	@ sha1su0 q5,q6,q7
+	.inst	0xf3b962c0	@ sha1h q3,q0		@ 2
+	.inst	0xf2040c68	@ sha1c q0,q2,q12
 	vadd.i32	q12,q8,q4
-	.byte	0x88,0xa3,0xba,0xf3	@ sha1su1 q5,q4
-	.byte	0x48,0xcc,0x3e,0xf2	@ sha1su0 q6,q7,q4
-	.byte	0xc0,0x42,0xb9,0xf3	@ sha1h q2,q0		@ 3
-	.byte	0x6a,0x0c,0x06,0xf2	@ sha1c q0,q3,q13
+	.inst	0xf3baa388	@ sha1su1 q5,q4
+	.inst	0xf23ecc48	@ sha1su0 q6,q7,q4
+	.inst	0xf3b942c0	@ sha1h q2,q0		@ 3
+	.inst	0xf2060c6a	@ sha1c q0,q3,q13
 	vadd.i32	q13,q9,q5
-	.byte	0x8a,0xc3,0xba,0xf3	@ sha1su1 q6,q5
-	.byte	0x4a,0xec,0x38,0xf2	@ sha1su0 q7,q4,q5
-	.byte	0xc0,0x62,0xb9,0xf3	@ sha1h q3,q0		@ 4
-	.byte	0x68,0x0c,0x04,0xf2	@ sha1c q0,q2,q12
+	.inst	0xf3bac38a	@ sha1su1 q6,q5
+	.inst	0xf238ec4a	@ sha1su0 q7,q4,q5
+	.inst	0xf3b962c0	@ sha1h q3,q0		@ 4
+	.inst	0xf2040c68	@ sha1c q0,q2,q12
 	vadd.i32	q12,q9,q6
-	.byte	0x8c,0xe3,0xba,0xf3	@ sha1su1 q7,q6
-	.byte	0x4c,0x8c,0x3a,0xf2	@ sha1su0 q4,q5,q6
-	.byte	0xc0,0x42,0xb9,0xf3	@ sha1h q2,q0		@ 5
-	.byte	0x6a,0x0c,0x16,0xf2	@ sha1p q0,q3,q13
+	.inst	0xf3bae38c	@ sha1su1 q7,q6
+	.inst	0xf23a8c4c	@ sha1su0 q4,q5,q6
+	.inst	0xf3b942c0	@ sha1h q2,q0		@ 5
+	.inst	0xf2160c6a	@ sha1p q0,q3,q13
 	vadd.i32	q13,q9,q7
-	.byte	0x8e,0x83,0xba,0xf3	@ sha1su1 q4,q7
-	.byte	0x4e,0xac,0x3c,0xf2	@ sha1su0 q5,q6,q7
-	.byte	0xc0,0x62,0xb9,0xf3	@ sha1h q3,q0		@ 6
-	.byte	0x68,0x0c,0x14,0xf2	@ sha1p q0,q2,q12
+	.inst	0xf3ba838e	@ sha1su1 q4,q7
+	.inst	0xf23cac4e	@ sha1su0 q5,q6,q7
+	.inst	0xf3b962c0	@ sha1h q3,q0		@ 6
+	.inst	0xf2140c68	@ sha1p q0,q2,q12
 	vadd.i32	q12,q9,q4
-	.byte	0x88,0xa3,0xba,0xf3	@ sha1su1 q5,q4
-	.byte	0x48,0xcc,0x3e,0xf2	@ sha1su0 q6,q7,q4
-	.byte	0xc0,0x42,0xb9,0xf3	@ sha1h q2,q0		@ 7
-	.byte	0x6a,0x0c,0x16,0xf2	@ sha1p q0,q3,q13
+	.inst	0xf3baa388	@ sha1su1 q5,q4
+	.inst	0xf23ecc48	@ sha1su0 q6,q7,q4
+	.inst	0xf3b942c0	@ sha1h q2,q0		@ 7
+	.inst	0xf2160c6a	@ sha1p q0,q3,q13
 	vadd.i32	q13,q9,q5
-	.byte	0x8a,0xc3,0xba,0xf3	@ sha1su1 q6,q5
-	.byte	0x4a,0xec,0x38,0xf2	@ sha1su0 q7,q4,q5
-	.byte	0xc0,0x62,0xb9,0xf3	@ sha1h q3,q0		@ 8
-	.byte	0x68,0x0c,0x14,0xf2	@ sha1p q0,q2,q12
+	.inst	0xf3bac38a	@ sha1su1 q6,q5
+	.inst	0xf238ec4a	@ sha1su0 q7,q4,q5
+	.inst	0xf3b962c0	@ sha1h q3,q0		@ 8
+	.inst	0xf2140c68	@ sha1p q0,q2,q12
 	vadd.i32	q12,q10,q6
-	.byte	0x8c,0xe3,0xba,0xf3	@ sha1su1 q7,q6
-	.byte	0x4c,0x8c,0x3a,0xf2	@ sha1su0 q4,q5,q6
-	.byte	0xc0,0x42,0xb9,0xf3	@ sha1h q2,q0		@ 9
-	.byte	0x6a,0x0c,0x16,0xf2	@ sha1p q0,q3,q13
+	.inst	0xf3bae38c	@ sha1su1 q7,q6
+	.inst	0xf23a8c4c	@ sha1su0 q4,q5,q6
+	.inst	0xf3b942c0	@ sha1h q2,q0		@ 9
+	.inst	0xf2160c6a	@ sha1p q0,q3,q13
 	vadd.i32	q13,q10,q7
-	.byte	0x8e,0x83,0xba,0xf3	@ sha1su1 q4,q7
-	.byte	0x4e,0xac,0x3c,0xf2	@ sha1su0 q5,q6,q7
-	.byte	0xc0,0x62,0xb9,0xf3	@ sha1h q3,q0		@ 10
-	.byte	0x68,0x0c,0x24,0xf2	@ sha1m q0,q2,q12
+	.inst	0xf3ba838e	@ sha1su1 q4,q7
+	.inst	0xf23cac4e	@ sha1su0 q5,q6,q7
+	.inst	0xf3b962c0	@ sha1h q3,q0		@ 10
+	.inst	0xf2240c68	@ sha1m q0,q2,q12
 	vadd.i32	q12,q10,q4
-	.byte	0x88,0xa3,0xba,0xf3	@ sha1su1 q5,q4
-	.byte	0x48,0xcc,0x3e,0xf2	@ sha1su0 q6,q7,q4
-	.byte	0xc0,0x42,0xb9,0xf3	@ sha1h q2,q0		@ 11
-	.byte	0x6a,0x0c,0x26,0xf2	@ sha1m q0,q3,q13
+	.inst	0xf3baa388	@ sha1su1 q5,q4
+	.inst	0xf23ecc48	@ sha1su0 q6,q7,q4
+	.inst	0xf3b942c0	@ sha1h q2,q0		@ 11
+	.inst	0xf2260c6a	@ sha1m q0,q3,q13
 	vadd.i32	q13,q10,q5
-	.byte	0x8a,0xc3,0xba,0xf3	@ sha1su1 q6,q5
-	.byte	0x4a,0xec,0x38,0xf2	@ sha1su0 q7,q4,q5
-	.byte	0xc0,0x62,0xb9,0xf3	@ sha1h q3,q0		@ 12
-	.byte	0x68,0x0c,0x24,0xf2	@ sha1m q0,q2,q12
+	.inst	0xf3bac38a	@ sha1su1 q6,q5
+	.inst	0xf238ec4a	@ sha1su0 q7,q4,q5
+	.inst	0xf3b962c0	@ sha1h q3,q0		@ 12
+	.inst	0xf2240c68	@ sha1m q0,q2,q12
 	vadd.i32	q12,q10,q6
-	.byte	0x8c,0xe3,0xba,0xf3	@ sha1su1 q7,q6
-	.byte	0x4c,0x8c,0x3a,0xf2	@ sha1su0 q4,q5,q6
-	.byte	0xc0,0x42,0xb9,0xf3	@ sha1h q2,q0		@ 13
-	.byte	0x6a,0x0c,0x26,0xf2	@ sha1m q0,q3,q13
+	.inst	0xf3bae38c	@ sha1su1 q7,q6
+	.inst	0xf23a8c4c	@ sha1su0 q4,q5,q6
+	.inst	0xf3b942c0	@ sha1h q2,q0		@ 13
+	.inst	0xf2260c6a	@ sha1m q0,q3,q13
 	vadd.i32	q13,q11,q7
-	.byte	0x8e,0x83,0xba,0xf3	@ sha1su1 q4,q7
-	.byte	0x4e,0xac,0x3c,0xf2	@ sha1su0 q5,q6,q7
-	.byte	0xc0,0x62,0xb9,0xf3	@ sha1h q3,q0		@ 14
-	.byte	0x68,0x0c,0x24,0xf2	@ sha1m q0,q2,q12
+	.inst	0xf3ba838e	@ sha1su1 q4,q7
+	.inst	0xf23cac4e	@ sha1su0 q5,q6,q7
+	.inst	0xf3b962c0	@ sha1h q3,q0		@ 14
+	.inst	0xf2240c68	@ sha1m q0,q2,q12
 	vadd.i32	q12,q11,q4
-	.byte	0x88,0xa3,0xba,0xf3	@ sha1su1 q5,q4
-	.byte	0x48,0xcc,0x3e,0xf2	@ sha1su0 q6,q7,q4
-	.byte	0xc0,0x42,0xb9,0xf3	@ sha1h q2,q0		@ 15
-	.byte	0x6a,0x0c,0x16,0xf2	@ sha1p q0,q3,q13
+	.inst	0xf3baa388	@ sha1su1 q5,q4
+	.inst	0xf23ecc48	@ sha1su0 q6,q7,q4
+	.inst	0xf3b942c0	@ sha1h q2,q0		@ 15
+	.inst	0xf2160c6a	@ sha1p q0,q3,q13
 	vadd.i32	q13,q11,q5
-	.byte	0x8a,0xc3,0xba,0xf3	@ sha1su1 q6,q5
-	.byte	0x4a,0xec,0x38,0xf2	@ sha1su0 q7,q4,q5
-	.byte	0xc0,0x62,0xb9,0xf3	@ sha1h q3,q0		@ 16
-	.byte	0x68,0x0c,0x14,0xf2	@ sha1p q0,q2,q12
+	.inst	0xf3bac38a	@ sha1su1 q6,q5
+	.inst	0xf238ec4a	@ sha1su0 q7,q4,q5
+	.inst	0xf3b962c0	@ sha1h q3,q0		@ 16
+	.inst	0xf2140c68	@ sha1p q0,q2,q12
 	vadd.i32	q12,q11,q6
-	.byte	0x8c,0xe3,0xba,0xf3	@ sha1su1 q7,q6
-	.byte	0xc0,0x42,0xb9,0xf3	@ sha1h q2,q0		@ 17
-	.byte	0x6a,0x0c,0x16,0xf2	@ sha1p q0,q3,q13
+	.inst	0xf3bae38c	@ sha1su1 q7,q6
+	.inst	0xf3b942c0	@ sha1h q2,q0		@ 17
+	.inst	0xf2160c6a	@ sha1p q0,q3,q13
 	vadd.i32	q13,q11,q7
 
-	.byte	0xc0,0x62,0xb9,0xf3	@ sha1h q3,q0		@ 18
-	.byte	0x68,0x0c,0x14,0xf2	@ sha1p q0,q2,q12
+	.inst	0xf3b962c0	@ sha1h q3,q0		@ 18
+	.inst	0xf2140c68	@ sha1p q0,q2,q12
 
-	.byte	0xc0,0x42,0xb9,0xf3	@ sha1h q2,q0		@ 19
-	.byte	0x6a,0x0c,0x16,0xf2	@ sha1p q0,q3,q13
+	.inst	0xf3b942c0	@ sha1h q2,q0		@ 19
+	.inst	0xf2160c6a	@ sha1p q0,q3,q13
 
 	vadd.i32	q1,q1,q2
 	vadd.i32	q0,q0,q14
Index: src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha256-armv4.S
diff -u src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha256-armv4.S:1.1 src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha256-armv4.S:1.2
--- src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha256-armv4.S:1.1	Tue Mar 10 13:28:47 2015
+++ src/crypto/external/bsd/openssl/lib/libcrypto/arch/arm/sha256-armv4.S	Tue Mar 17 19:41:42 2015
@@ -2574,111 +2574,111 @@ sha256_block_data_order_armv8:
 	teq		r1,r2
 	vld1.32		{q13},[r3]!
 	vadd.i32	q12,q12,q8
-	.byte	0xe2,0x03,0xfa,0xf3	@ sha256su0 q8,q9
+	.inst	0xf3fa03e2	@ sha256su0 q8,q9
 	vmov		q2,q0
-	.byte	0x68,0x0c,0x02,0xf3	@ sha256h q0,q1,q12
-	.byte	0x68,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q12
-	.byte	0xe6,0x0c,0x64,0xf3	@ sha256su1 q8,q10,q11
+	.inst	0xf3020c68	@ sha256h q0,q1,q12
+	.inst	0xf3142c68	@ sha256h2 q1,q2,q12
+	.inst	0xf3640ce6	@ sha256su1 q8,q10,q11
 	vld1.32		{q12},[r3]!
 	vadd.i32	q13,q13,q9
-	.byte	0xe4,0x23,0xfa,0xf3	@ sha256su0 q9,q10
+	.inst	0xf3fa23e4	@ sha256su0 q9,q10
 	vmov		q2,q0
-	.byte	0x6a,0x0c,0x02,0xf3	@ sha256h q0,q1,q13
-	.byte	0x6a,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q13
-	.byte	0xe0,0x2c,0x66,0xf3	@ sha256su1 q9,q11,q8
+	.inst	0xf3020c6a	@ sha256h q0,q1,q13
+	.inst	0xf3142c6a	@ sha256h2 q1,q2,q13
+	.inst	0xf3662ce0	@ sha256su1 q9,q11,q8
 	vld1.32		{q13},[r3]!
 	vadd.i32	q12,q12,q10
-	.byte	0xe6,0x43,0xfa,0xf3	@ sha256su0 q10,q11
+	.inst	0xf3fa43e6	@ sha256su0 q10,q11
 	vmov		q2,q0
-	.byte	0x68,0x0c,0x02,0xf3	@ sha256h q0,q1,q12
-	.byte	0x68,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q12
-	.byte	0xe2,0x4c,0x60,0xf3	@ sha256su1 q10,q8,q9
+	.inst	0xf3020c68	@ sha256h q0,q1,q12
+	.inst	0xf3142c68	@ sha256h2 q1,q2,q12
+	.inst	0xf3604ce2	@ sha256su1 q10,q8,q9
 	vld1.32		{q12},[r3]!
 	vadd.i32	q13,q13,q11
-	.byte	0xe0,0x63,0xfa,0xf3	@ sha256su0 q11,q8
+	.inst	0xf3fa63e0	@ sha256su0 q11,q8
 	vmov		q2,q0
-	.byte	0x6a,0x0c,0x02,0xf3	@ sha256h q0,q1,q13
-	.byte	0x6a,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q13
-	.byte	0xe4,0x6c,0x62,0xf3	@ sha256su1 q11,q9,q10
+	.inst	0xf3020c6a	@ sha256h q0,q1,q13
+	.inst	0xf3142c6a	@ sha256h2 q1,q2,q13
+	.inst	0xf3626ce4	@ sha256su1 q11,q9,q10
 	vld1.32		{q13},[r3]!
 	vadd.i32	q12,q12,q8
-	.byte	0xe2,0x03,0xfa,0xf3	@ sha256su0 q8,q9
+	.inst	0xf3fa03e2	@ sha256su0 q8,q9
 	vmov		q2,q0
-	.byte	0x68,0x0c,0x02,0xf3	@ sha256h q0,q1,q12
-	.byte	0x68,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q12
-	.byte	0xe6,0x0c,0x64,0xf3	@ sha256su1 q8,q10,q11
+	.inst	0xf3020c68	@ sha256h q0,q1,q12
+	.inst	0xf3142c68	@ sha256h2 q1,q2,q12
+	.inst	0xf3640ce6	@ sha256su1 q8,q10,q11
 	vld1.32		{q12},[r3]!
 	vadd.i32	q13,q13,q9
-	.byte	0xe4,0x23,0xfa,0xf3	@ sha256su0 q9,q10
+	.inst	0xf3fa23e4	@ sha256su0 q9,q10
 	vmov		q2,q0
-	.byte	0x6a,0x0c,0x02,0xf3	@ sha256h q0,q1,q13
-	.byte	0x6a,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q13
-	.byte	0xe0,0x2c,0x66,0xf3	@ sha256su1 q9,q11,q8
+	.inst	0xf3020c6a	@ sha256h q0,q1,q13
+	.inst	0xf3142c6a	@ sha256h2 q1,q2,q13
+	.inst	0xf3662ce0	@ sha256su1 q9,q11,q8
 	vld1.32		{q13},[r3]!
 	vadd.i32	q12,q12,q10
-	.byte	0xe6,0x43,0xfa,0xf3	@ sha256su0 q10,q11
+	.inst	0xf3fa43e6	@ sha256su0 q10,q11
 	vmov		q2,q0
-	.byte	0x68,0x0c,0x02,0xf3	@ sha256h q0,q1,q12
-	.byte	0x68,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q12
-	.byte	0xe2,0x4c,0x60,0xf3	@ sha256su1 q10,q8,q9
+	.inst	0xf3020c68	@ sha256h q0,q1,q12
+	.inst	0xf3142c68	@ sha256h2 q1,q2,q12
+	.inst	0xf3604ce2	@ sha256su1 q10,q8,q9
 	vld1.32		{q12},[r3]!
 	vadd.i32	q13,q13,q11
-	.byte	0xe0,0x63,0xfa,0xf3	@ sha256su0 q11,q8
+	.inst	0xf3fa63e0	@ sha256su0 q11,q8
 	vmov		q2,q0
-	.byte	0x6a,0x0c,0x02,0xf3	@ sha256h q0,q1,q13
-	.byte	0x6a,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q13
-	.byte	0xe4,0x6c,0x62,0xf3	@ sha256su1 q11,q9,q10
+	.inst	0xf3020c6a	@ sha256h q0,q1,q13
+	.inst	0xf3142c6a	@ sha256h2 q1,q2,q13
+	.inst	0xf3626ce4	@ sha256su1 q11,q9,q10
 	vld1.32		{q13},[r3]!
 	vadd.i32	q12,q12,q8
-	.byte	0xe2,0x03,0xfa,0xf3	@ sha256su0 q8,q9
+	.inst	0xf3fa03e2	@ sha256su0 q8,q9
 	vmov		q2,q0
-	.byte	0x68,0x0c,0x02,0xf3	@ sha256h q0,q1,q12
-	.byte	0x68,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q12
-	.byte	0xe6,0x0c,0x64,0xf3	@ sha256su1 q8,q10,q11
+	.inst	0xf3020c68	@ sha256h q0,q1,q12
+	.inst	0xf3142c68	@ sha256h2 q1,q2,q12
+	.inst	0xf3640ce6	@ sha256su1 q8,q10,q11
 	vld1.32		{q12},[r3]!
 	vadd.i32	q13,q13,q9
-	.byte	0xe4,0x23,0xfa,0xf3	@ sha256su0 q9,q10
+	.inst	0xf3fa23e4	@ sha256su0 q9,q10
 	vmov		q2,q0
-	.byte	0x6a,0x0c,0x02,0xf3	@ sha256h q0,q1,q13
-	.byte	0x6a,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q13
-	.byte	0xe0,0x2c,0x66,0xf3	@ sha256su1 q9,q11,q8
+	.inst	0xf3020c6a	@ sha256h q0,q1,q13
+	.inst	0xf3142c6a	@ sha256h2 q1,q2,q13
+	.inst	0xf3662ce0	@ sha256su1 q9,q11,q8
 	vld1.32		{q13},[r3]!
 	vadd.i32	q12,q12,q10
-	.byte	0xe6,0x43,0xfa,0xf3	@ sha256su0 q10,q11
+	.inst	0xf3fa43e6	@ sha256su0 q10,q11
 	vmov		q2,q0
-	.byte	0x68,0x0c,0x02,0xf3	@ sha256h q0,q1,q12
-	.byte	0x68,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q12
-	.byte	0xe2,0x4c,0x60,0xf3	@ sha256su1 q10,q8,q9
+	.inst	0xf3020c68	@ sha256h q0,q1,q12
+	.inst	0xf3142c68	@ sha256h2 q1,q2,q12
+	.inst	0xf3604ce2	@ sha256su1 q10,q8,q9
 	vld1.32		{q12},[r3]!
 	vadd.i32	q13,q13,q11
-	.byte	0xe0,0x63,0xfa,0xf3	@ sha256su0 q11,q8
+	.inst	0xf3fa63e0	@ sha256su0 q11,q8
 	vmov		q2,q0
-	.byte	0x6a,0x0c,0x02,0xf3	@ sha256h q0,q1,q13
-	.byte	0x6a,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q13
-	.byte	0xe4,0x6c,0x62,0xf3	@ sha256su1 q11,q9,q10
+	.inst	0xf3020c6a	@ sha256h q0,q1,q13
+	.inst	0xf3142c6a	@ sha256h2 q1,q2,q13
+	.inst	0xf3626ce4	@ sha256su1 q11,q9,q10
 	vld1.32		{q13},[r3]!
 	vadd.i32	q12,q12,q8
 	vmov		q2,q0
-	.byte	0x68,0x0c,0x02,0xf3	@ sha256h q0,q1,q12
-	.byte	0x68,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q12
+	.inst	0xf3020c68	@ sha256h q0,q1,q12
+	.inst	0xf3142c68	@ sha256h2 q1,q2,q12
 
 	vld1.32		{q12},[r3]!
 	vadd.i32	q13,q13,q9
 	vmov		q2,q0
-	.byte	0x6a,0x0c,0x02,0xf3	@ sha256h q0,q1,q13
-	.byte	0x6a,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q13
+	.inst	0xf3020c6a	@ sha256h q0,q1,q13
+	.inst	0xf3142c6a	@ sha256h2 q1,q2,q13
 
 	vld1.32		{q13},[r3]
 	vadd.i32	q12,q12,q10
 	sub		r3,r3,#256-16	@ rewind
 	vmov		q2,q0
-	.byte	0x68,0x0c,0x02,0xf3	@ sha256h q0,q1,q12
-	.byte	0x68,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q12
+	.inst	0xf3020c68	@ sha256h q0,q1,q12
+	.inst	0xf3142c68	@ sha256h2 q1,q2,q12
 
 	vadd.i32	q13,q13,q11
 	vmov		q2,q0
-	.byte	0x6a,0x0c,0x02,0xf3	@ sha256h q0,q1,q13
-	.byte	0x6a,0x2c,0x14,0xf3	@ sha256h2 q1,q2,q13
+	.inst	0xf3020c6a	@ sha256h q0,q1,q13
+	.inst	0xf3142c6a	@ sha256h2 q1,q2,q13
 
 	vadd.i32	q0,q0,q14
 	vadd.i32	q1,q1,q15

Reply via email to