/*
 * This file and its contents are supplied under the terms of the
 * Common Development and Distribution License ("CDDL"), version 1.0.
 * You may only use this file in accordance with the terms of version
 * 1.0 of the CDDL.
 *
 * A full copy of the text of the CDDL should have accompanied this
 * source.  A copy of the CDDL is also available via the Internet at
 * http://www.illumos.org/license/CDDL.
 */

/*
 * Copyright 2016 Joyent, Inc.
 */

/*
 * Test AVX related instructions
 */

.text
.align 16
.globl libdis_test
.type libdis_test, @function
libdis_test:
	vaddpd	%xmm0, %xmm1, %xmm2
	vaddpd	(%eax), %xmm3, %xmm4
	vaddpd	0x42(%ecx), %xmm5, %xmm6
	vaddpd	%ymm0, %ymm1, %ymm2
	vaddpd	(%ebx), %ymm3, %ymm4
	vaddpd	0x42(%edx), %ymm5, %ymm6

	vaddps	%xmm0, %xmm1, %xmm2
	vaddps	(%eax), %xmm3, %xmm4
	vaddps	0x42(%ecx), %xmm5, %xmm6
	vaddps	%ymm0, %ymm1, %ymm2
	vaddps	(%ebx), %ymm3, %ymm4
	vaddps	0x42(%edx), %ymm5, %ymm6

	vaddsd	%xmm0, %xmm1, %xmm2
	vaddsd	(%eax), %xmm3, %xmm4
	vaddsd	0x42(%ecx), %xmm5, %xmm6

	vaddss	%xmm0, %xmm1, %xmm2
	vaddss	(%eax), %xmm3, %xmm4
	vaddss	0x42(%ecx), %xmm5, %xmm6

	vaddsubpd	%xmm0, %xmm1, %xmm2
	vaddsubpd	(%eax), %xmm3, %xmm4
	vaddsubpd	0x42(%ecx), %xmm5, %xmm6
	vaddsubpd	%ymm0, %ymm1, %ymm2
	vaddsubpd	(%ebx), %ymm3, %ymm4
	vaddsubpd	0x42(%edx), %ymm5, %ymm6

	vaddsubps	%xmm0, %xmm1, %xmm2
	vaddsubps	(%eax), %xmm3, %xmm4
	vaddsubps	0x42(%ecx), %xmm5, %xmm6
	vaddsubps	%ymm0, %ymm1, %ymm2
	vaddsubps	(%ebx), %ymm3, %ymm4
	vaddsubps	0x42(%edx), %ymm5, %ymm6

	vaesdec	%xmm0, %xmm1, %xmm2
	vaesdec	(%eax), %xmm3, %xmm4
	vaesdec	0x42(%ecx), %xmm5, %xmm6

	vaesdeclast	%xmm0, %xmm1, %xmm2
	vaesdeclast	(%eax), %xmm3, %xmm4
	vaesdeclast	0x42(%ecx), %xmm5, %xmm6

	vaesenc	%xmm0, %xmm1, %xmm2
	vaesenc	(%eax), %xmm3, %xmm4
	vaesenc	0x42(%ecx), %xmm5, %xmm6

	vaesenclast	%xmm0, %xmm1, %xmm2
	vaesenclast	(%eax), %xmm3, %xmm4
	vaesenclast	0x42(%ecx), %xmm5, %xmm6

	vaesimc	%xmm0, %xmm1
	vaesimc	(%esi), %xmm3
	vaesimc	0x42(%edi), %xmm3

	vaeskeygenassist	$0x42, %xmm0, %xmm1
	vaeskeygenassist	$0x23, 	(%esi), %xmm3
	vaeskeygenassist	$0x42, 0x42(%edi), %xmm3

	vandnpd	%xmm0, %xmm1, %xmm2
	vandnpd	(%eax), %xmm3, %xmm4
	vandnpd	0x42(%ecx), %xmm5, %xmm6
	vandnpd	%ymm0, %ymm1, %ymm2
	vandnpd	(%ebx), %ymm3, %ymm4
	vandnpd	0x42(%edx), %ymm5, %ymm6

	vandnps	%xmm0, %xmm1, %xmm2
	vandnps	(%eax), %xmm3, %xmm4
	vandnps	0x42(%ecx), %xmm5, %xmm6
	vandnps	%ymm0, %ymm1, %ymm2
	vandnps	(%ebx), %ymm3, %ymm4
	vandnps	0x42(%edx), %ymm5, %ymm6

	vandpd	%xmm0, %xmm1, %xmm2
	vandpd	(%eax), %xmm3, %xmm4
	vandpd	0x42(%ecx), %xmm5, %xmm6
	vandpd	%ymm0, %ymm1, %ymm2
	vandpd	(%ebx), %ymm3, %ymm4
	vandpd	0x42(%edx), %ymm5, %ymm6

	vandps	%xmm0, %xmm1, %xmm2
	vandps	(%eax), %xmm3, %xmm4
	vandps	0x42(%ecx), %xmm5, %xmm6
	vandps	%ymm0, %ymm1, %ymm2
	vandps	(%ebx), %ymm3, %ymm4
	vandps	0x42(%edx), %ymm5, %ymm6

	vblendpd	$0x48, %xmm3, %xmm5, %xmm7
	vblendpd	$0x48, (%ebx), %xmm2, %xmm4
	vblendpd	$0x48, 0x8(%ebx), %xmm1, %xmm6
	vblendpd	$0x48, %ymm3, %ymm5, %ymm7
	vblendpd	$0x48, (%ebx), %ymm2, %ymm4
	vblendpd	$0x48, 0x8(%ebx), %ymm1, %ymm6

	vblendps	$0x48, %xmm3, %xmm5, %xmm7
	vblendps	$0x48, (%ebx), %xmm2, %xmm4
	vblendps	$0x48, 0x8(%ebx), %xmm1, %xmm6
	vblendps	$0x48, %ymm3, %ymm5, %ymm7
	vblendps	$0x48, (%ebx), %ymm2, %ymm4
	vblendps	$0x48, 0x8(%ebx), %ymm1, %ymm6

	vblendvpd	%xmm0, %xmm1, %xmm2, %xmm3
	vblendvpd	%xmm0, (%eax), %xmm2, %xmm3
	vblendvpd	%xmm0, 0x10(%ebx), %xmm2, %xmm3
	vblendvpd	%ymm0, %ymm1, %ymm2, %ymm3
	vblendvpd	%ymm0, (%eax), %ymm2, %ymm3
	vblendvpd	%ymm0, 0x10(%ebx), %ymm2, %ymm3

	vblendvps	%xmm0, %xmm1, %xmm2, %xmm3
	vblendvps	%xmm0, (%eax), %xmm2, %xmm3
	vblendvps	%xmm0, 0x10(%ebx), %xmm2, %xmm3
	vblendvps	%ymm0, %ymm1, %ymm2, %ymm3
	vblendvps	%ymm0, (%eax), %ymm2, %ymm3
	vblendvps	%ymm0, 0x10(%ebx), %ymm2, %ymm3

	vbroadcastf128	(%eax), %ymm0
	vbroadcastf128	0x42(%eax), %ymm0

	vbroadcastsd	(%eax), %ymm0
	vbroadcastsd	0x42(%eax), %ymm0

	vbroadcastss	(%eax), %ymm0
	vbroadcastss	0x42(%eax), %ymm0

	vcmpeq_ospd	%xmm0, %xmm1, %xmm2
	vcmpeq_ospd	(%eax), %xmm3, %xmm4
	vcmpeq_ospd	0x42(%ecx), %xmm5, %xmm6
	vcmpeq_ospd	%ymm0, %ymm1, %ymm2
	vcmpeq_ospd	(%ebx), %ymm3, %ymm4
	vcmpeq_ospd	0x42(%edx), %ymm5, %ymm6

	vcmpeq_osps	%xmm0, %xmm1, %xmm2
	vcmpeq_osps	(%eax), %xmm3, %xmm4
	vcmpeq_osps	0x42(%ecx), %xmm5, %xmm6
	vcmpeq_osps	%ymm0, %ymm1, %ymm2
	vcmpeq_osps	(%ebx), %ymm3, %ymm4
	vcmpeq_osps	0x42(%edx), %ymm5, %ymm6

	vcmpeq_ossd	%xmm0, %xmm1, %xmm2
	vcmpeq_ossd	(%eax), %xmm3, %xmm4
	vcmpeq_ossd	0x42(%ecx), %xmm5, %xmm6

	vcmpeq_osss	%xmm0, %xmm1, %xmm2
	vcmpeq_osss	(%eax), %xmm3, %xmm4
	vcmpeq_osss	0x42(%ecx), %xmm5, %xmm6

	vcmpeq_uqpd	%xmm0, %xmm1, %xmm2
	vcmpeq_uqpd	(%eax), %xmm3, %xmm4
	vcmpeq_uqpd	0x42(%ecx), %xmm5, %xmm6
	vcmpeq_uqpd	%ymm0, %ymm1, %ymm2
	vcmpeq_uqpd	(%ebx), %ymm3, %ymm4
	vcmpeq_uqpd	0x42(%edx), %ymm5, %ymm6

	vcmpeq_uqps	%xmm0, %xmm1, %xmm2
	vcmpeq_uqps	(%eax), %xmm3, %xmm4
	vcmpeq_uqps	0x42(%ecx), %xmm5, %xmm6
	vcmpeq_uqps	%ymm0, %ymm1, %ymm2
	vcmpeq_uqps	(%ebx), %ymm3, %ymm4
	vcmpeq_uqps	0x42(%edx), %ymm5, %ymm6

	vcmpeq_uqsd	%xmm0, %xmm1, %xmm2
	vcmpeq_uqsd	(%eax), %xmm3, %xmm4
	vcmpeq_uqsd	0x42(%ecx), %xmm5, %xmm6

	vcmpeq_uqss	%xmm0, %xmm1, %xmm2
	vcmpeq_uqss	(%eax), %xmm3, %xmm4
	vcmpeq_uqss	0x42(%ecx), %xmm5, %xmm6

	vcmpeq_uspd	%xmm0, %xmm1, %xmm2
	vcmpeq_uspd	(%eax), %xmm3, %xmm4
	vcmpeq_uspd	0x42(%ecx), %xmm5, %xmm6
	vcmpeq_uspd	%ymm0, %ymm1, %ymm2
	vcmpeq_uspd	(%ebx), %ymm3, %ymm4
	vcmpeq_uspd	0x42(%edx), %ymm5, %ymm6

	vcmpeq_usps	%xmm0, %xmm1, %xmm2
	vcmpeq_usps	(%eax), %xmm3, %xmm4
	vcmpeq_usps	0x42(%ecx), %xmm5, %xmm6
	vcmpeq_usps	%ymm0, %ymm1, %ymm2
	vcmpeq_usps	(%ebx), %ymm3, %ymm4
	vcmpeq_usps	0x42(%edx), %ymm5, %ymm6

	vcmpeq_ussd	%xmm0, %xmm1, %xmm2
	vcmpeq_ussd	(%eax), %xmm3, %xmm4
	vcmpeq_ussd	0x42(%ecx), %xmm5, %xmm6

	vcmpeq_usss	%xmm0, %xmm1, %xmm2
	vcmpeq_usss	(%eax), %xmm3, %xmm4
	vcmpeq_usss	0x42(%ecx), %xmm5, %xmm6

	vcmpeqpd	%xmm0, %xmm1, %xmm2
	vcmpeqpd	(%eax), %xmm3, %xmm4
	vcmpeqpd	0x42(%ecx), %xmm5, %xmm6
	vcmpeqpd	%ymm0, %ymm1, %ymm2
	vcmpeqpd	(%ebx), %ymm3, %ymm4
	vcmpeqpd	0x42(%edx), %ymm5, %ymm6

	vcmpeqps	%xmm0, %xmm1, %xmm2
	vcmpeqps	(%eax), %xmm3, %xmm4
	vcmpeqps	0x42(%ecx), %xmm5, %xmm6
	vcmpeqps	%ymm0, %ymm1, %ymm2
	vcmpeqps	(%ebx), %ymm3, %ymm4
	vcmpeqps	0x42(%edx), %ymm5, %ymm6

	vcmpeqsd	%xmm0, %xmm1, %xmm2
	vcmpeqsd	(%eax), %xmm3, %xmm4
	vcmpeqsd	0x42(%ecx), %xmm5, %xmm6

	vcmpeqss	%xmm0, %xmm1, %xmm2
	vcmpeqss	(%eax), %xmm3, %xmm4
	vcmpeqss	0x42(%ecx), %xmm5, %xmm6

	vcmpfalse_ospd	%xmm0, %xmm1, %xmm2
	vcmpfalse_ospd	(%eax), %xmm3, %xmm4
	vcmpfalse_ospd	0x42(%ecx), %xmm5, %xmm6
	vcmpfalse_ospd	%ymm0, %ymm1, %ymm2
	vcmpfalse_ospd	(%ebx), %ymm3, %ymm4
	vcmpfalse_ospd	0x42(%edx), %ymm5, %ymm6

	vcmpfalse_osps	%xmm0, %xmm1, %xmm2
	vcmpfalse_osps	(%eax), %xmm3, %xmm4
	vcmpfalse_osps	0x42(%ecx), %xmm5, %xmm6
	vcmpfalse_osps	%ymm0, %ymm1, %ymm2
	vcmpfalse_osps	(%ebx), %ymm3, %ymm4
	vcmpfalse_osps	0x42(%edx), %ymm5, %ymm6

	vcmpfalse_ossd	%xmm0, %xmm1, %xmm2
	vcmpfalse_ossd	(%eax), %xmm3, %xmm4
	vcmpfalse_ossd	0x42(%ecx), %xmm5, %xmm6

	vcmpfalse_osss	%xmm0, %xmm1, %xmm2
	vcmpfalse_osss	(%eax), %xmm3, %xmm4
	vcmpfalse_osss	0x42(%ecx), %xmm5, %xmm6

	vcmpfalsepd	%xmm0, %xmm1, %xmm2
	vcmpfalsepd	(%eax), %xmm3, %xmm4
	vcmpfalsepd	0x42(%ecx), %xmm5, %xmm6
	vcmpfalsepd	%ymm0, %ymm1, %ymm2
	vcmpfalsepd	(%ebx), %ymm3, %ymm4
	vcmpfalsepd	0x42(%edx), %ymm5, %ymm6

	vcmpfalseps	%xmm0, %xmm1, %xmm2
	vcmpfalseps	(%eax), %xmm3, %xmm4
	vcmpfalseps	0x42(%ecx), %xmm5, %xmm6
	vcmpfalseps	%ymm0, %ymm1, %ymm2
	vcmpfalseps	(%ebx), %ymm3, %ymm4
	vcmpfalseps	0x42(%edx), %ymm5, %ymm6

	vcmpfalsesd	%xmm0, %xmm1, %xmm2
	vcmpfalsesd	(%eax), %xmm3, %xmm4
	vcmpfalsesd	0x42(%ecx), %xmm5, %xmm6

	vcmpfalsess	%xmm0, %xmm1, %xmm2
	vcmpfalsess	(%eax), %xmm3, %xmm4
	vcmpfalsess	0x42(%ecx), %xmm5, %xmm6

	vcmpge_oqpd	%xmm0, %xmm1, %xmm2
	vcmpge_oqpd	(%eax), %xmm3, %xmm4
	vcmpge_oqpd	0x42(%ecx), %xmm5, %xmm6
	vcmpge_oqpd	%ymm0, %ymm1, %ymm2
	vcmpge_oqpd	(%ebx), %ymm3, %ymm4
	vcmpge_oqpd	0x42(%edx), %ymm5, %ymm6

	vcmpge_oqps	%xmm0, %xmm1, %xmm2
	vcmpge_oqps	(%eax), %xmm3, %xmm4
	vcmpge_oqps	0x42(%ecx), %xmm5, %xmm6
	vcmpge_oqps	%ymm0, %ymm1, %ymm2
	vcmpge_oqps	(%ebx), %ymm3, %ymm4
	vcmpge_oqps	0x42(%edx), %ymm5, %ymm6

	vcmpge_oqsd	%xmm0, %xmm1, %xmm2
	vcmpge_oqsd	(%eax), %xmm3, %xmm4
	vcmpge_oqsd	0x42(%ecx), %xmm5, %xmm6

	vcmpge_oqss	%xmm0, %xmm1, %xmm2
	vcmpge_oqss	(%eax), %xmm3, %xmm4
	vcmpge_oqss	0x42(%ecx), %xmm5, %xmm6

	vcmpgepd	%xmm0, %xmm1, %xmm2
	vcmpgepd	(%eax), %xmm3, %xmm4
	vcmpgepd	0x42(%ecx), %xmm5, %xmm6
	vcmpgepd	%ymm0, %ymm1, %ymm2
	vcmpgepd	(%ebx), %ymm3, %ymm4
	vcmpgepd	0x42(%edx), %ymm5, %ymm6

	vcmpgeps	%xmm0, %xmm1, %xmm2
	vcmpgeps	(%eax), %xmm3, %xmm4
	vcmpgeps	0x42(%ecx), %xmm5, %xmm6
	vcmpgeps	%ymm0, %ymm1, %ymm2
	vcmpgeps	(%ebx), %ymm3, %ymm4
	vcmpgeps	0x42(%edx), %ymm5, %ymm6

	vcmpgesd	%xmm0, %xmm1, %xmm2
	vcmpgesd	(%eax), %xmm3, %xmm4
	vcmpgesd	0x42(%ecx), %xmm5, %xmm6

	vcmpgess	%xmm0, %xmm1, %xmm2
	vcmpgess	(%eax), %xmm3, %xmm4
	vcmpgess	0x42(%ecx), %xmm5, %xmm6

	vcmpgt_oqpd	%xmm0, %xmm1, %xmm2
	vcmpgt_oqpd	(%eax), %xmm3, %xmm4
	vcmpgt_oqpd	0x42(%ecx), %xmm5, %xmm6
	vcmpgt_oqpd	%ymm0, %ymm1, %ymm2
	vcmpgt_oqpd	(%ebx), %ymm3, %ymm4
	vcmpgt_oqpd	0x42(%edx), %ymm5, %ymm6

	vcmpgt_oqps	%xmm0, %xmm1, %xmm2
	vcmpgt_oqps	(%eax), %xmm3, %xmm4
	vcmpgt_oqps	0x42(%ecx), %xmm5, %xmm6
	vcmpgt_oqps	%ymm0, %ymm1, %ymm2
	vcmpgt_oqps	(%ebx), %ymm3, %ymm4
	vcmpgt_oqps	0x42(%edx), %ymm5, %ymm6

	vcmpgt_oqsd	%xmm0, %xmm1, %xmm2
	vcmpgt_oqsd	(%eax), %xmm3, %xmm4
	vcmpgt_oqsd	0x42(%ecx), %xmm5, %xmm6

	vcmpgt_oqss	%xmm0, %xmm1, %xmm2
	vcmpgt_oqss	(%eax), %xmm3, %xmm4
	vcmpgt_oqss	0x42(%ecx), %xmm5, %xmm6

	vcmpgtpd	%xmm0, %xmm1, %xmm2
	vcmpgtpd	(%eax), %xmm3, %xmm4
	vcmpgtpd	0x42(%ecx), %xmm5, %xmm6
	vcmpgtpd	%ymm0, %ymm1, %ymm2
	vcmpgtpd	(%ebx), %ymm3, %ymm4
	vcmpgtpd	0x42(%edx), %ymm5, %ymm6

	vcmpgtps	%xmm0, %xmm1, %xmm2
	vcmpgtps	(%eax), %xmm3, %xmm4
	vcmpgtps	0x42(%ecx), %xmm5, %xmm6
	vcmpgtps	%ymm0, %ymm1, %ymm2
	vcmpgtps	(%ebx), %ymm3, %ymm4
	vcmpgtps	0x42(%edx), %ymm5, %ymm6

	vcmpgtsd	%xmm0, %xmm1, %xmm2
	vcmpgtsd	(%eax), %xmm3, %xmm4
	vcmpgtsd	0x42(%ecx), %xmm5, %xmm6

	vcmpgtss	%xmm0, %xmm1, %xmm2
	vcmpgtss	(%eax), %xmm3, %xmm4
	vcmpgtss	0x42(%ecx), %xmm5, %xmm6

	vcmple_oqpd	%xmm0, %xmm1, %xmm2
	vcmple_oqpd	(%eax), %xmm3, %xmm4
	vcmple_oqpd	0x42(%ecx), %xmm5, %xmm6
	vcmple_oqpd	%ymm0, %ymm1, %ymm2
	vcmple_oqpd	(%ebx), %ymm3, %ymm4
	vcmple_oqpd	0x42(%edx), %ymm5, %ymm6

	vcmple_oqps	%xmm0, %xmm1, %xmm2
	vcmple_oqps	(%eax), %xmm3, %xmm4
	vcmple_oqps	0x42(%ecx), %xmm5, %xmm6
	vcmple_oqps	%ymm0, %ymm1, %ymm2
	vcmple_oqps	(%ebx), %ymm3, %ymm4
	vcmple_oqps	0x42(%edx), %ymm5, %ymm6

	vcmple_oqsd	%xmm0, %xmm1, %xmm2
	vcmple_oqsd	(%eax), %xmm3, %xmm4
	vcmple_oqsd	0x42(%ecx), %xmm5, %xmm6

	vcmple_oqss	%xmm0, %xmm1, %xmm2
	vcmple_oqss	(%eax), %xmm3, %xmm4
	vcmple_oqss	0x42(%ecx), %xmm5, %xmm6

	vcmplepd	%xmm0, %xmm1, %xmm2
	vcmplepd	(%eax), %xmm3, %xmm4
	vcmplepd	0x42(%ecx), %xmm5, %xmm6
	vcmplepd	%ymm0, %ymm1, %ymm2
	vcmplepd	(%ebx), %ymm3, %ymm4
	vcmplepd	0x42(%edx), %ymm5, %ymm6

	vcmpleps	%xmm0, %xmm1, %xmm2
	vcmpleps	(%eax), %xmm3, %xmm4
	vcmpleps	0x42(%ecx), %xmm5, %xmm6
	vcmpleps	%ymm0, %ymm1, %ymm2
	vcmpleps	(%ebx), %ymm3, %ymm4
	vcmpleps	0x42(%edx), %ymm5, %ymm6

	vcmplesd	%xmm0, %xmm1, %xmm2
	vcmplesd	(%eax), %xmm3, %xmm4
	vcmplesd	0x42(%ecx), %xmm5, %xmm6

	vcmpless	%xmm0, %xmm1, %xmm2
	vcmpless	(%eax), %xmm3, %xmm4
	vcmpless	0x42(%ecx), %xmm5, %xmm6

	vcmplt_oqpd	%xmm0, %xmm1, %xmm2
	vcmplt_oqpd	(%eax), %xmm3, %xmm4
	vcmplt_oqpd	0x42(%ecx), %xmm5, %xmm6
	vcmplt_oqpd	%ymm0, %ymm1, %ymm2
	vcmplt_oqpd	(%ebx), %ymm3, %ymm4
	vcmplt_oqpd	0x42(%edx), %ymm5, %ymm6

	vcmplt_oqps	%xmm0, %xmm1, %xmm2
	vcmplt_oqps	(%eax), %xmm3, %xmm4
	vcmplt_oqps	0x42(%ecx), %xmm5, %xmm6
	vcmplt_oqps	%ymm0, %ymm1, %ymm2
	vcmplt_oqps	(%ebx), %ymm3, %ymm4
	vcmplt_oqps	0x42(%edx), %ymm5, %ymm6

	vcmplt_oqsd	%xmm0, %xmm1, %xmm2
	vcmplt_oqsd	(%eax), %xmm3, %xmm4
	vcmplt_oqsd	0x42(%ecx), %xmm5, %xmm6

	vcmplt_oqss	%xmm0, %xmm1, %xmm2
	vcmplt_oqss	(%eax), %xmm3, %xmm4
	vcmplt_oqss	0x42(%ecx), %xmm5, %xmm6

	vcmpltpd	%xmm0, %xmm1, %xmm2
	vcmpltpd	(%eax), %xmm3, %xmm4
	vcmpltpd	0x42(%ecx), %xmm5, %xmm6
	vcmpltpd	%ymm0, %ymm1, %ymm2
	vcmpltpd	(%ebx), %ymm3, %ymm4
	vcmpltpd	0x42(%edx), %ymm5, %ymm6

	vcmpltps	%xmm0, %xmm1, %xmm2
	vcmpltps	(%eax), %xmm3, %xmm4
	vcmpltps	0x42(%ecx), %xmm5, %xmm6
	vcmpltps	%ymm0, %ymm1, %ymm2
	vcmpltps	(%ebx), %ymm3, %ymm4
	vcmpltps	0x42(%edx), %ymm5, %ymm6

	vcmpltsd	%xmm0, %xmm1, %xmm2
	vcmpltsd	(%eax), %xmm3, %xmm4
	vcmpltsd	0x42(%ecx), %xmm5, %xmm6

	vcmpltss	%xmm0, %xmm1, %xmm2
	vcmpltss	(%eax), %xmm3, %xmm4
	vcmpltss	0x42(%ecx), %xmm5, %xmm6

	vcmpneq_oqpd	%xmm0, %xmm1, %xmm2
	vcmpneq_oqpd	(%eax), %xmm3, %xmm4
	vcmpneq_oqpd	0x42(%ecx), %xmm5, %xmm6
	vcmpneq_oqpd	%ymm0, %ymm1, %ymm2
	vcmpneq_oqpd	(%ebx), %ymm3, %ymm4
	vcmpneq_oqpd	0x42(%edx), %ymm5, %ymm6

	vcmpneq_oqps	%xmm0, %xmm1, %xmm2
	vcmpneq_oqps	(%eax), %xmm3, %xmm4
	vcmpneq_oqps	0x42(%ecx), %xmm5, %xmm6
	vcmpneq_oqps	%ymm0, %ymm1, %ymm2
	vcmpneq_oqps	(%ebx), %ymm3, %ymm4
	vcmpneq_oqps	0x42(%edx), %ymm5, %ymm6

	vcmpneq_oqsd	%xmm0, %xmm1, %xmm2
	vcmpneq_oqsd	(%eax), %xmm3, %xmm4
	vcmpneq_oqsd	0x42(%ecx), %xmm5, %xmm6

	vcmpneq_oqss	%xmm0, %xmm1, %xmm2
	vcmpneq_oqss	(%eax), %xmm3, %xmm4
	vcmpneq_oqss	0x42(%ecx), %xmm5, %xmm6

	vcmpneq_ospd	%xmm0, %xmm1, %xmm2
	vcmpneq_ospd	(%eax), %xmm3, %xmm4
	vcmpneq_ospd	0x42(%ecx), %xmm5, %xmm6
	vcmpneq_ospd	%ymm0, %ymm1, %ymm2
	vcmpneq_ospd	(%ebx), %ymm3, %ymm4
	vcmpneq_ospd	0x42(%edx), %ymm5, %ymm6

	vcmpneq_osps	%xmm0, %xmm1, %xmm2
	vcmpneq_osps	(%eax), %xmm3, %xmm4
	vcmpneq_osps	0x42(%ecx), %xmm5, %xmm6
	vcmpneq_osps	%ymm0, %ymm1, %ymm2
	vcmpneq_osps	(%ebx), %ymm3, %ymm4
	vcmpneq_osps	0x42(%edx), %ymm5, %ymm6

	vcmpneq_ossd	%xmm0, %xmm1, %xmm2
	vcmpneq_ossd	(%eax), %xmm3, %xmm4
	vcmpneq_ossd	0x42(%ecx), %xmm5, %xmm6

	vcmpneq_osss	%xmm0, %xmm1, %xmm2
	vcmpneq_osss	(%eax), %xmm3, %xmm4
	vcmpneq_osss	0x42(%ecx), %xmm5, %xmm6

	vcmpneq_uspd	%xmm0, %xmm1, %xmm2
	vcmpneq_uspd	(%eax), %xmm3, %xmm4
	vcmpneq_uspd	0x42(%ecx), %xmm5, %xmm6
	vcmpneq_uspd	%ymm0, %ymm1, %ymm2
	vcmpneq_uspd	(%ebx), %ymm3, %ymm4
	vcmpneq_uspd	0x42(%edx), %ymm5, %ymm6

	vcmpneq_usps	%xmm0, %xmm1, %xmm2
	vcmpneq_usps	(%eax), %xmm3, %xmm4
	vcmpneq_usps	0x42(%ecx), %xmm5, %xmm6
	vcmpneq_usps	%ymm0, %ymm1, %ymm2
	vcmpneq_usps	(%ebx), %ymm3, %ymm4
	vcmpneq_usps	0x42(%edx), %ymm5, %ymm6

	vcmpneq_ussd	%xmm0, %xmm1, %xmm2
	vcmpneq_ussd	(%eax), %xmm3, %xmm4
	vcmpneq_ussd	0x42(%ecx), %xmm5, %xmm6

	vcmpneq_usss	%xmm0, %xmm1, %xmm2
	vcmpneq_usss	(%eax), %xmm3, %xmm4
	vcmpneq_usss	0x42(%ecx), %xmm5, %xmm6

	vcmpneqpd	%xmm0, %xmm1, %xmm2
	vcmpneqpd	(%eax), %xmm3, %xmm4
	vcmpneqpd	0x42(%ecx), %xmm5, %xmm6
	vcmpneqpd	%ymm0, %ymm1, %ymm2
	vcmpneqpd	(%ebx), %ymm3, %ymm4
	vcmpneqpd	0x42(%edx), %ymm5, %ymm6

	vcmpneqps	%xmm0, %xmm1, %xmm2
	vcmpneqps	(%eax), %xmm3, %xmm4
	vcmpneqps	0x42(%ecx), %xmm5, %xmm6
	vcmpneqps	%ymm0, %ymm1, %ymm2
	vcmpneqps	(%ebx), %ymm3, %ymm4
	vcmpneqps	0x42(%edx), %ymm5, %ymm6

	vcmpneqsd	%xmm0, %xmm1, %xmm2
	vcmpneqsd	(%eax), %xmm3, %xmm4
	vcmpneqsd	0x42(%ecx), %xmm5, %xmm6

	vcmpneqss	%xmm0, %xmm1, %xmm2
	vcmpneqss	(%eax), %xmm3, %xmm4
	vcmpneqss	0x42(%ecx), %xmm5, %xmm6

	vcmpnge_uqpd	%xmm0, %xmm1, %xmm2
	vcmpnge_uqpd	(%eax), %xmm3, %xmm4
	vcmpnge_uqpd	0x42(%ecx), %xmm5, %xmm6
	vcmpnge_uqpd	%ymm0, %ymm1, %ymm2
	vcmpnge_uqpd	(%ebx), %ymm3, %ymm4
	vcmpnge_uqpd	0x42(%edx), %ymm5, %ymm6

	vcmpnge_uqps	%xmm0, %xmm1, %xmm2
	vcmpnge_uqps	(%eax), %xmm3, %xmm4
	vcmpnge_uqps	0x42(%ecx), %xmm5, %xmm6
	vcmpnge_uqps	%ymm0, %ymm1, %ymm2
	vcmpnge_uqps	(%ebx), %ymm3, %ymm4
	vcmpnge_uqps	0x42(%edx), %ymm5, %ymm6

	vcmpnge_uqsd	%xmm0, %xmm1, %xmm2
	vcmpnge_uqsd	(%eax), %xmm3, %xmm4
	vcmpnge_uqsd	0x42(%ecx), %xmm5, %xmm6

	vcmpnge_uqss	%xmm0, %xmm1, %xmm2
	vcmpnge_uqss	(%eax), %xmm3, %xmm4
	vcmpnge_uqss	0x42(%ecx), %xmm5, %xmm6

	vcmpngepd	%xmm0, %xmm1, %xmm2
	vcmpngepd	(%eax), %xmm3, %xmm4
	vcmpngepd	0x42(%ecx), %xmm5, %xmm6
	vcmpngepd	%ymm0, %ymm1, %ymm2
	vcmpngepd	(%ebx), %ymm3, %ymm4
	vcmpngepd	0x42(%edx), %ymm5, %ymm6

	vcmpngeps	%xmm0, %xmm1, %xmm2
	vcmpngeps	(%eax), %xmm3, %xmm4
	vcmpngeps	0x42(%ecx), %xmm5, %xmm6
	vcmpngeps	%ymm0, %ymm1, %ymm2
	vcmpngeps	(%ebx), %ymm3, %ymm4
	vcmpngeps	0x42(%edx), %ymm5, %ymm6

	vcmpngesd	%xmm0, %xmm1, %xmm2
	vcmpngesd	(%eax), %xmm3, %xmm4
	vcmpngesd	0x42(%ecx), %xmm5, %xmm6

	vcmpngess	%xmm0, %xmm1, %xmm2
	vcmpngess	(%eax), %xmm3, %xmm4
	vcmpngess	0x42(%ecx), %xmm5, %xmm6

	vcmpngt_uqpd	%xmm0, %xmm1, %xmm2
	vcmpngt_uqpd	(%eax), %xmm3, %xmm4
	vcmpngt_uqpd	0x42(%ecx), %xmm5, %xmm6
	vcmpngt_uqpd	%ymm0, %ymm1, %ymm2
	vcmpngt_uqpd	(%ebx), %ymm3, %ymm4
	vcmpngt_uqpd	0x42(%edx), %ymm5, %ymm6

	vcmpngt_uqps	%xmm0, %xmm1, %xmm2
	vcmpngt_uqps	(%eax), %xmm3, %xmm4
	vcmpngt_uqps	0x42(%ecx), %xmm5, %xmm6
	vcmpngt_uqps	%ymm0, %ymm1, %ymm2
	vcmpngt_uqps	(%ebx), %ymm3, %ymm4
	vcmpngt_uqps	0x42(%edx), %ymm5, %ymm6

	vcmpngt_uqsd	%xmm0, %xmm1, %xmm2
	vcmpngt_uqsd	(%eax), %xmm3, %xmm4
	vcmpngt_uqsd	0x42(%ecx), %xmm5, %xmm6

	vcmpngt_uqss	%xmm0, %xmm1, %xmm2
	vcmpngt_uqss	(%eax), %xmm3, %xmm4
	vcmpngt_uqss	0x42(%ecx), %xmm5, %xmm6

	vcmpngtpd	%xmm0, %xmm1, %xmm2
	vcmpngtpd	(%eax), %xmm3, %xmm4
	vcmpngtpd	0x42(%ecx), %xmm5, %xmm6
	vcmpngtpd	%ymm0, %ymm1, %ymm2
	vcmpngtpd	(%ebx), %ymm3, %ymm4
	vcmpngtpd	0x42(%edx), %ymm5, %ymm6

	vcmpngtps	%xmm0, %xmm1, %xmm2
	vcmpngtps	(%eax), %xmm3, %xmm4
	vcmpngtps	0x42(%ecx), %xmm5, %xmm6
	vcmpngtps	%ymm0, %ymm1, %ymm2
	vcmpngtps	(%ebx), %ymm3, %ymm4
	vcmpngtps	0x42(%edx), %ymm5, %ymm6

	vcmpngtsd	%xmm0, %xmm1, %xmm2
	vcmpngtsd	(%eax), %xmm3, %xmm4
	vcmpngtsd	0x42(%ecx), %xmm5, %xmm6

	vcmpngtss	%xmm0, %xmm1, %xmm2
	vcmpngtss	(%eax), %xmm3, %xmm4
	vcmpngtss	0x42(%ecx), %xmm5, %xmm6

	vcmpnle_uqpd	%xmm0, %xmm1, %xmm2
	vcmpnle_uqpd	(%eax), %xmm3, %xmm4
	vcmpnle_uqpd	0x42(%ecx), %xmm5, %xmm6
	vcmpnle_uqpd	%ymm0, %ymm1, %ymm2
	vcmpnle_uqpd	(%ebx), %ymm3, %ymm4
	vcmpnle_uqpd	0x42(%edx), %ymm5, %ymm6

	vcmpnle_uqps	%xmm0, %xmm1, %xmm2
	vcmpnle_uqps	(%eax), %xmm3, %xmm4
	vcmpnle_uqps	0x42(%ecx), %xmm5, %xmm6
	vcmpnle_uqps	%ymm0, %ymm1, %ymm2
	vcmpnle_uqps	(%ebx), %ymm3, %ymm4
	vcmpnle_uqps	0x42(%edx), %ymm5, %ymm6

	vcmpnle_uqsd	%xmm0, %xmm1, %xmm2
	vcmpnle_uqsd	(%eax), %xmm3, %xmm4
	vcmpnle_uqsd	0x42(%ecx), %xmm5, %xmm6

	vcmpnle_uqss	%xmm0, %xmm1, %xmm2
	vcmpnle_uqss	(%eax), %xmm3, %xmm4
	vcmpnle_uqss	0x42(%ecx), %xmm5, %xmm6

	vcmpnlepd	%xmm0, %xmm1, %xmm2
	vcmpnlepd	(%eax), %xmm3, %xmm4
	vcmpnlepd	0x42(%ecx), %xmm5, %xmm6
	vcmpnlepd	%ymm0, %ymm1, %ymm2
	vcmpnlepd	(%ebx), %ymm3, %ymm4
	vcmpnlepd	0x42(%edx), %ymm5, %ymm6

	vcmpnleps	%xmm0, %xmm1, %xmm2
	vcmpnleps	(%eax), %xmm3, %xmm4
	vcmpnleps	0x42(%ecx), %xmm5, %xmm6
	vcmpnleps	%ymm0, %ymm1, %ymm2
	vcmpnleps	(%ebx), %ymm3, %ymm4
	vcmpnleps	0x42(%edx), %ymm5, %ymm6

	vcmpnlesd	%xmm0, %xmm1, %xmm2
	vcmpnlesd	(%eax), %xmm3, %xmm4
	vcmpnlesd	0x42(%ecx), %xmm5, %xmm6

	vcmpnless	%xmm0, %xmm1, %xmm2
	vcmpnless	(%eax), %xmm3, %xmm4
	vcmpnless	0x42(%ecx), %xmm5, %xmm6

	vcmpnlt_uqpd	%xmm0, %xmm1, %xmm2
	vcmpnlt_uqpd	(%eax), %xmm3, %xmm4
	vcmpnlt_uqpd	0x42(%ecx), %xmm5, %xmm6
	vcmpnlt_uqpd	%ymm0, %ymm1, %ymm2
	vcmpnlt_uqpd	(%ebx), %ymm3, %ymm4
	vcmpnlt_uqpd	0x42(%edx), %ymm5, %ymm6

	vcmpnlt_uqps	%xmm0, %xmm1, %xmm2
	vcmpnlt_uqps	(%eax), %xmm3, %xmm4
	vcmpnlt_uqps	0x42(%ecx), %xmm5, %xmm6
	vcmpnlt_uqps	%ymm0, %ymm1, %ymm2
	vcmpnlt_uqps	(%ebx), %ymm3, %ymm4
	vcmpnlt_uqps	0x42(%edx), %ymm5, %ymm6

	vcmpnlt_uqsd	%xmm0, %xmm1, %xmm2
	vcmpnlt_uqsd	(%eax), %xmm3, %xmm4
	vcmpnlt_uqsd	0x42(%ecx), %xmm5, %xmm6

	vcmpnlt_uqss	%xmm0, %xmm1, %xmm2
	vcmpnlt_uqss	(%eax), %xmm3, %xmm4
	vcmpnlt_uqss	0x42(%ecx), %xmm5, %xmm6

	vcmpnltpd	%xmm0, %xmm1, %xmm2
	vcmpnltpd	(%eax), %xmm3, %xmm4
	vcmpnltpd	0x42(%ecx), %xmm5, %xmm6
	vcmpnltpd	%ymm0, %ymm1, %ymm2
	vcmpnltpd	(%ebx), %ymm3, %ymm4
	vcmpnltpd	0x42(%edx), %ymm5, %ymm6

	vcmpnltps	%xmm0, %xmm1, %xmm2
	vcmpnltps	(%eax), %xmm3, %xmm4
	vcmpnltps	0x42(%ecx), %xmm5, %xmm6
	vcmpnltps	%ymm0, %ymm1, %ymm2
	vcmpnltps	(%ebx), %ymm3, %ymm4
	vcmpnltps	0x42(%edx), %ymm5, %ymm6

	vcmpnltsd	%xmm0, %xmm1, %xmm2
	vcmpnltsd	(%eax), %xmm3, %xmm4
	vcmpnltsd	0x42(%ecx), %xmm5, %xmm6

	vcmpnltss	%xmm0, %xmm1, %xmm2
	vcmpnltss	(%eax), %xmm3, %xmm4
	vcmpnltss	0x42(%ecx), %xmm5, %xmm6

	vcmpord_spd	%xmm0, %xmm1, %xmm2
	vcmpord_spd	(%eax), %xmm3, %xmm4
	vcmpord_spd	0x42(%ecx), %xmm5, %xmm6
	vcmpord_spd	%ymm0, %ymm1, %ymm2
	vcmpord_spd	(%ebx), %ymm3, %ymm4
	vcmpord_spd	0x42(%edx), %ymm5, %ymm6

	vcmpord_sps	%xmm0, %xmm1, %xmm2
	vcmpord_sps	(%eax), %xmm3, %xmm4
	vcmpord_sps	0x42(%ecx), %xmm5, %xmm6
	vcmpord_sps	%ymm0, %ymm1, %ymm2
	vcmpord_sps	(%ebx), %ymm3, %ymm4
	vcmpord_sps	0x42(%edx), %ymm5, %ymm6

	vcmpord_ssd	%xmm0, %xmm1, %xmm2
	vcmpord_ssd	(%eax), %xmm3, %xmm4
	vcmpord_ssd	0x42(%ecx), %xmm5, %xmm6

	vcmpord_sss	%xmm0, %xmm1, %xmm2
	vcmpord_sss	(%eax), %xmm3, %xmm4
	vcmpord_sss	0x42(%ecx), %xmm5, %xmm6

	vcmpordpd	%xmm0, %xmm1, %xmm2
	vcmpordpd	(%eax), %xmm3, %xmm4
	vcmpordpd	0x42(%ecx), %xmm5, %xmm6
	vcmpordpd	%ymm0, %ymm1, %ymm2
	vcmpordpd	(%ebx), %ymm3, %ymm4
	vcmpordpd	0x42(%edx), %ymm5, %ymm6

	vcmpordps	%xmm0, %xmm1, %xmm2
	vcmpordps	(%eax), %xmm3, %xmm4
	vcmpordps	0x42(%ecx), %xmm5, %xmm6
	vcmpordps	%ymm0, %ymm1, %ymm2
	vcmpordps	(%ebx), %ymm3, %ymm4
	vcmpordps	0x42(%edx), %ymm5, %ymm6

	vcmpordsd	%xmm0, %xmm1, %xmm2
	vcmpordsd	(%eax), %xmm3, %xmm4
	vcmpordsd	0x42(%ecx), %xmm5, %xmm6

	vcmpordss	%xmm0, %xmm1, %xmm2
	vcmpordss	(%eax), %xmm3, %xmm4
	vcmpordss	0x42(%ecx), %xmm5, %xmm6

	vcmppd	$0x48, %xmm3, %xmm5, %xmm7
	vcmppd	$0x48, (%ebx), %xmm2, %xmm4
	vcmppd	$0x48, 0x8(%ebx), %xmm1, %xmm6
	vcmppd	$0x48, %ymm3, %ymm5, %ymm7
	vcmppd	$0x48, (%ebx), %ymm2, %ymm4
	vcmppd	$0x48, 0x8(%ebx), %ymm1, %ymm6

	vcmpps	$0x48, %xmm3, %xmm5, %xmm7
	vcmpps	$0x48, (%ebx), %xmm2, %xmm4
	vcmpps	$0x48, 0x8(%ebx), %xmm1, %xmm6
	vcmpps	$0x48, %ymm3, %ymm5, %ymm7
	vcmpps	$0x48, (%ebx), %ymm2, %ymm4
	vcmpps	$0x48, 0x8(%ebx), %ymm1, %ymm6

	vcmpsd	$0x48, %xmm3, %xmm5, %xmm7
	vcmpsd	$0x48, (%ebx), %xmm2, %xmm4
	vcmpsd	$0x48, 0x8(%ebx), %xmm1, %xmm6

	vcmpss	$0x48, %xmm3, %xmm5, %xmm7
	vcmpss	$0x48, (%ebx), %xmm2, %xmm4
	vcmpss	$0x48, 0x8(%ebx), %xmm1, %xmm6

	vcmptrue_uspd	%xmm0, %xmm1, %xmm2
	vcmptrue_uspd	(%eax), %xmm3, %xmm4
	vcmptrue_uspd	0x42(%ecx), %xmm5, %xmm6
	vcmptrue_uspd	%ymm0, %ymm1, %ymm2
	vcmptrue_uspd	(%ebx), %ymm3, %ymm4
	vcmptrue_uspd	0x42(%edx), %ymm5, %ymm6

	vcmptrue_usps	%xmm0, %xmm1, %xmm2
	vcmptrue_usps	(%eax), %xmm3, %xmm4
	vcmptrue_usps	0x42(%ecx), %xmm5, %xmm6
	vcmptrue_usps	%ymm0, %ymm1, %ymm2
	vcmptrue_usps	(%ebx), %ymm3, %ymm4
	vcmptrue_usps	0x42(%edx), %ymm5, %ymm6

	vcmptrue_ussd	%xmm0, %xmm1, %xmm2
	vcmptrue_ussd	(%eax), %xmm3, %xmm4
	vcmptrue_ussd	0x42(%ecx), %xmm5, %xmm6

	vcmptrue_usss	%xmm0, %xmm1, %xmm2
	vcmptrue_usss	(%eax), %xmm3, %xmm4
	vcmptrue_usss	0x42(%ecx), %xmm5, %xmm6

	vcmptruepd	%xmm0, %xmm1, %xmm2
	vcmptruepd	(%eax), %xmm3, %xmm4
	vcmptruepd	0x42(%ecx), %xmm5, %xmm6
	vcmptruepd	%ymm0, %ymm1, %ymm2
	vcmptruepd	(%ebx), %ymm3, %ymm4
	vcmptruepd	0x42(%edx), %ymm5, %ymm6

	vcmptrueps	%xmm0, %xmm1, %xmm2
	vcmptrueps	(%eax), %xmm3, %xmm4
	vcmptrueps	0x42(%ecx), %xmm5, %xmm6
	vcmptrueps	%ymm0, %ymm1, %ymm2
	vcmptrueps	(%ebx), %ymm3, %ymm4
	vcmptrueps	0x42(%edx), %ymm5, %ymm6

	vcmptruesd	%xmm0, %xmm1, %xmm2
	vcmptruesd	(%eax), %xmm3, %xmm4
	vcmptruesd	0x42(%ecx), %xmm5, %xmm6

	vcmptruess	%xmm0, %xmm1, %xmm2
	vcmptruess	(%eax), %xmm3, %xmm4
	vcmptruess	0x42(%ecx), %xmm5, %xmm6

	vcmpunord_spd	%xmm0, %xmm1, %xmm2
	vcmpunord_spd	(%eax), %xmm3, %xmm4
	vcmpunord_spd	0x42(%ecx), %xmm5, %xmm6
	vcmpunord_spd	%ymm0, %ymm1, %ymm2
	vcmpunord_spd	(%ebx), %ymm3, %ymm4
	vcmpunord_spd	0x42(%edx), %ymm5, %ymm6

	vcmpunord_sps	%xmm0, %xmm1, %xmm2
	vcmpunord_sps	(%eax), %xmm3, %xmm4
	vcmpunord_sps	0x42(%ecx), %xmm5, %xmm6
	vcmpunord_sps	%ymm0, %ymm1, %ymm2
	vcmpunord_sps	(%ebx), %ymm3, %ymm4
	vcmpunord_sps	0x42(%edx), %ymm5, %ymm6

	vcmpunord_ssd	%xmm0, %xmm1, %xmm2
	vcmpunord_ssd	(%eax), %xmm3, %xmm4
	vcmpunord_ssd	0x42(%ecx), %xmm5, %xmm6

	vcmpunord_sss	%xmm0, %xmm1, %xmm2
	vcmpunord_sss	(%eax), %xmm3, %xmm4
	vcmpunord_sss	0x42(%ecx), %xmm5, %xmm6

	vcmpunordpd	%xmm0, %xmm1, %xmm2
	vcmpunordpd	(%eax), %xmm3, %xmm4
	vcmpunordpd	0x42(%ecx), %xmm5, %xmm6
	vcmpunordpd	%ymm0, %ymm1, %ymm2
	vcmpunordpd	(%ebx), %ymm3, %ymm4
	vcmpunordpd	0x42(%edx), %ymm5, %ymm6

	vcmpunordps	%xmm0, %xmm1, %xmm2
	vcmpunordps	(%eax), %xmm3, %xmm4
	vcmpunordps	0x42(%ecx), %xmm5, %xmm6
	vcmpunordps	%ymm0, %ymm1, %ymm2
	vcmpunordps	(%ebx), %ymm3, %ymm4
	vcmpunordps	0x42(%edx), %ymm5, %ymm6

	vcmpunordsd	%xmm0, %xmm1, %xmm2
	vcmpunordsd	(%eax), %xmm3, %xmm4
	vcmpunordsd	0x42(%ecx), %xmm5, %xmm6

	vcmpunordss	%xmm0, %xmm1, %xmm2
	vcmpunordss	(%eax), %xmm3, %xmm4
	vcmpunordss	0x42(%ecx), %xmm5, %xmm6

	vcomisd	%xmm0, %xmm1
	vcomisd	(%esi), %xmm3
	vcomisd	0x42(%edi), %xmm3

	vcomiss	%xmm0, %xmm1
	vcomiss	(%esi), %xmm3
	vcomiss	0x42(%edi), %xmm3

	vcvtdq2pd	%xmm0, %xmm1
	vcvtdq2pd	(%esi), %xmm3
	vcvtdq2pd	0x42(%edi), %xmm3
	vcvtdq2pd	%xmm7, %ymm6
	vcvtdq2pd	(%ebp), %ymm4
	vcvtdq2pd	0x42(%esp), %ymm4

	vcvtdq2ps	%xmm0, %xmm1
	vcvtdq2ps	(%esi), %xmm3
	vcvtdq2ps	0x42(%edi), %xmm3
	vcvtdq2ps	%ymm7, %ymm6
	vcvtdq2ps	(%ebp), %ymm4
	vcvtdq2ps	0x42(%esp), %ymm4

	vcvtpd2dq	%ymm6, %xmm3

	vcvtpd2dqx	%xmm0, %xmm1
	vcvtpd2dqx	(%esi), %xmm3
	vcvtpd2dqx	0x42(%edi), %xmm3

	vcvtpd2dqy	%ymm7, %xmm6
	vcvtpd2dqy	(%ebp), %xmm4
	vcvtpd2dqy	0x42(%esp), %xmm4

	vcvtpd2ps	%ymm6, %xmm3

	vcvtpd2psx	%xmm0, %xmm1
	vcvtpd2psx	(%esi), %xmm3
	vcvtpd2psx	0x42(%edi), %xmm3

	vcvtpd2psy	%ymm7, %xmm6
	vcvtpd2psy	(%ebp), %xmm4
	vcvtpd2psy	0x42(%esp), %xmm4

	vcvtps2dq	%xmm0, %xmm1
	vcvtps2dq	(%esi), %xmm3
	vcvtps2dq	0x42(%edi), %xmm3
	vcvtps2dq	%ymm7, %ymm6
	vcvtps2dq	(%ebp), %ymm4
	vcvtps2dq	0x42(%esp), %ymm4

	vcvtps2pd	%xmm0, %xmm1
	vcvtps2pd	(%esi), %xmm3
	vcvtps2pd	0x42(%edi), %xmm3
	vcvtps2pd	%xmm7, %ymm6
	vcvtps2pd	(%ebp), %ymm4
	vcvtps2pd	0x42(%esp), %ymm4

	vcvtsd2si	%xmm6, %eax
	vcvtsd2si	(%ebx), %eax
	vcvtsd2si	0x24(%ebx), %eax

	vcvtsd2ss	%xmm0, %xmm1, %xmm2
	vcvtsd2ss	(%eax), %xmm3, %xmm4
	vcvtsd2ss	0x42(%ecx), %xmm5, %xmm6

	vcvtss2sd	%xmm0, %xmm1, %xmm2
	vcvtss2sd	(%eax), %xmm3, %xmm4
	vcvtss2sd	0x42(%ecx), %xmm5, %xmm6

	vcvtss2si	%xmm6, %eax
	vcvtss2si	(%ebx), %eax
	vcvtss2si	0x24(%ebx), %eax

	vcvttpd2dq	%xmm0, %xmm5

	vcvttpd2dqx	%xmm0, %xmm1
	vcvttpd2dqx	(%esi), %xmm3
	vcvttpd2dqx	0x42(%edi), %xmm3

	vcvttpd2dqy	%ymm7, %xmm6
	vcvttpd2dqy	(%ebp), %xmm4
	vcvttpd2dqy	0x42(%esp), %xmm4

	vcvttps2dq	%xmm0, %xmm1
	vcvttps2dq	(%esi), %xmm3
	vcvttps2dq	0x42(%edi), %xmm3
	vcvttps2dq	%ymm7, %ymm6
	vcvttps2dq	(%ebp), %ymm4
	vcvttps2dq	0x42(%esp), %ymm4

	vcvttsd2si	%xmm6, %eax
	vcvttsd2si	(%ebx), %eax
	vcvttsd2si	0x24(%ebx), %eax

	vcvttss2si	%xmm6, %eax
	vcvttss2si	(%ebx), %eax
	vcvttss2si	0x24(%ebx), %eax

	vdivpd	%xmm0, %xmm1, %xmm2
	vdivpd	(%eax), %xmm3, %xmm4
	vdivpd	0x42(%ecx), %xmm5, %xmm6
	vdivpd	%ymm0, %ymm1, %ymm2
	vdivpd	(%ebx), %ymm3, %ymm4
	vdivpd	0x42(%edx), %ymm5, %ymm6

	vdivps	%xmm0, %xmm1, %xmm2
	vdivps	(%eax), %xmm3, %xmm4
	vdivps	0x42(%ecx), %xmm5, %xmm6
	vdivps	%ymm0, %ymm1, %ymm2
	vdivps	(%ebx), %ymm3, %ymm4
	vdivps	0x42(%edx), %ymm5, %ymm6

	vdivsd	%xmm0, %xmm1, %xmm2
	vdivsd	(%eax), %xmm3, %xmm4
	vdivsd	0x42(%ecx), %xmm5, %xmm6

	vdivss	%xmm0, %xmm1, %xmm2
	vdivss	(%eax), %xmm3, %xmm4
	vdivss	0x42(%ecx), %xmm5, %xmm6

	vdppd	$0x48, %xmm3, %xmm5, %xmm7
	vdppd	$0x48, (%ebx), %xmm2, %xmm4
	vdppd	$0x48, 0x8(%ebx), %xmm1, %xmm6

	vdpps	$0x48, %xmm3, %xmm5, %xmm7
	vdpps	$0x48, (%ebx), %xmm2, %xmm4
	vdpps	$0x48, 0x8(%ebx), %xmm1, %xmm6
	vdpps	$0x48, %ymm3, %ymm5, %ymm7
	vdpps	$0x48, (%ebx), %ymm2, %ymm4
	vdpps	$0x48, 0x8(%ebx), %ymm1, %ymm6

	vextractf128	$0x30, %ymm0, %xmm1
	vextractf128	$0x30, %ymm0, (%ecx)
	vextractf128	$0x30, %ymm0, 0x24(%edx)

	vextractps	$0x30, %xmm0, %eax
	vextractps	$0x30, %xmm0, (%ecx)
	vextractps	$0x30, %xmm0, 0x24(%edx)

	vhaddpd	%xmm0, %xmm1, %xmm2
	vhaddpd	(%eax), %xmm3, %xmm4
	vhaddpd	0x42(%ecx), %xmm5, %xmm6
	vhaddpd	%ymm0, %ymm1, %ymm2
	vhaddpd	(%ebx), %ymm3, %ymm4
	vhaddpd	0x42(%edx), %ymm5, %ymm6

	vhaddps	%xmm0, %xmm1, %xmm2
	vhaddps	(%eax), %xmm3, %xmm4
	vhaddps	0x42(%ecx), %xmm5, %xmm6
	vhaddps	%ymm0, %ymm1, %ymm2
	vhaddps	(%ebx), %ymm3, %ymm4
	vhaddps	0x42(%edx), %ymm5, %ymm6

	vhsubpd	%xmm0, %xmm1, %xmm2
	vhsubpd	(%eax), %xmm3, %xmm4
	vhsubpd	0x42(%ecx), %xmm5, %xmm6
	vhsubpd	%ymm0, %ymm1, %ymm2
	vhsubpd	(%ebx), %ymm3, %ymm4
	vhsubpd	0x42(%edx), %ymm5, %ymm6

	vhsubps	%xmm0, %xmm1, %xmm2
	vhsubps	(%eax), %xmm3, %xmm4
	vhsubps	0x42(%ecx), %xmm5, %xmm6
	vhsubps	%ymm0, %ymm1, %ymm2
	vhsubps	(%ebx), %ymm3, %ymm4
	vhsubps	0x42(%edx), %ymm5, %ymm6

	vinsertf128	$0x48, %xmm3, %ymm5, %ymm7
	vinsertf128	$0x48, (%ebx), %ymm2, %ymm4
	vinsertf128	$0x48, 0x8(%ebx), %ymm1, %ymm6

	vinsertps	$0x48, %xmm3, %xmm5, %xmm7
	vinsertps	$0x48, (%ebx), %xmm2, %xmm4
	vinsertps	$0x48, 0x8(%ebx), %xmm1, %xmm6

	vlddqu	(%ebx), %xmm2
	vlddqu	0x8(%ebx), %xmm1
	vlddqu	(%ebx), %ymm2
	vlddqu	0x8(%ebx), %ymm1

	vldmxcsr	(%edx)
	vldmxcsr	0x8(%edx)

	vmaskmovdqu	%xmm0, %xmm5

	vmaskmovpd	(%ebx), %xmm4, %xmm2
	vmaskmovpd	0x8(%ebx), %xmm2, %xmm1

	vmaskmovps	(%ebx), %ymm4, %ymm2
	vmaskmovps	0x8(%ebx), %ymm3, %ymm1

	vmaxpd	%xmm0, %xmm1, %xmm2
	vmaxpd	(%eax), %xmm3, %xmm4
	vmaxpd	0x42(%ecx), %xmm5, %xmm6
	vmaxpd	%ymm0, %ymm1, %ymm2
	vmaxpd	(%ebx), %ymm3, %ymm4
	vmaxpd	0x42(%edx), %ymm5, %ymm6

	vmaxps	%xmm0, %xmm1, %xmm2
	vmaxps	(%eax), %xmm3, %xmm4
	vmaxps	0x42(%ecx), %xmm5, %xmm6
	vmaxps	%ymm0, %ymm1, %ymm2
	vmaxps	(%ebx), %ymm3, %ymm4
	vmaxps	0x42(%edx), %ymm5, %ymm6

	vmaxsd	%xmm0, %xmm1, %xmm2
	vmaxsd	(%eax), %xmm3, %xmm4
	vmaxsd	0x42(%ecx), %xmm5, %xmm6

	vmaxss	%xmm0, %xmm1, %xmm2
	vmaxss	(%eax), %xmm3, %xmm4
	vmaxss	0x42(%ecx), %xmm5, %xmm6

	vminpd	%xmm0, %xmm1, %xmm2
	vminpd	(%eax), %xmm3, %xmm4
	vminpd	0x42(%ecx), %xmm5, %xmm6
	vminpd	%ymm0, %ymm1, %ymm2
	vminpd	(%ebx), %ymm3, %ymm4
	vminpd	0x42(%edx), %ymm5, %ymm6

	vminps	%xmm0, %xmm1, %xmm2
	vminps	(%eax), %xmm3, %xmm4
	vminps	0x42(%ecx), %xmm5, %xmm6
	vminps	%ymm0, %ymm1, %ymm2
	vminps	(%ebx), %ymm3, %ymm4
	vminps	0x42(%edx), %ymm5, %ymm6

	vminsd	%xmm0, %xmm1, %xmm2
	vminsd	(%eax), %xmm3, %xmm4
	vminsd	0x42(%ecx), %xmm5, %xmm6

	vminss	%xmm0, %xmm1, %xmm2
	vminss	(%eax), %xmm3, %xmm4
	vminss	0x42(%ecx), %xmm5, %xmm6

	vmovapd	%xmm0, %xmm1
	vmovapd	(%esi), %xmm3
	vmovapd	0x42(%edi), %xmm3
	vmovapd	%ymm7, %ymm6
	vmovapd	(%ebp), %ymm4
	vmovapd	0x42(%esp), %ymm4
	vmovapd	%xmm1, %xmm0
	vmovapd	%xmm3, (%esi)
	vmovapd	%xmm3, 0x42(%edi)
	vmovapd	%ymm1, %ymm0
	vmovapd	%ymm3, (%esi)
	vmovapd	%ymm3, 0x42(%edi)

	vmovaps	%xmm0, %xmm1
	vmovaps	(%esi), %xmm3
	vmovaps	0x42(%edi), %xmm3
	vmovaps	%ymm7, %ymm6
	vmovaps	(%ebp), %ymm4
	vmovaps	0x42(%esp), %ymm4
	vmovaps	%xmm1, %xmm0
	vmovaps	%xmm3, (%esi)
	vmovaps	%xmm3, 0x42(%edi)
	vmovaps	%ymm1, %ymm0
	vmovaps	%ymm3, (%esi)
	vmovaps	%ymm3, 0x42(%edi)

	vmovd	%eax, %xmm0
	vmovd	(%eax), %xmm1
	vmovd	0x14(%eax), %xmm1

	vmovddup	%xmm0, %xmm1
	vmovddup	(%esi), %xmm3
	vmovddup	0x42(%edi), %xmm3
	vmovddup	%ymm7, %ymm6
	vmovddup	(%ebp), %ymm4
	vmovddup	0x42(%esp), %ymm4

	vmovdqa	%xmm0, %xmm1
	vmovdqa	(%esi), %xmm3
	vmovdqa	0x42(%edi), %xmm3
	vmovdqa	%ymm7, %ymm6
	vmovdqa	(%ebp), %ymm4
	vmovdqa	0x42(%esp), %ymm4
	vmovdqa	%xmm1, %xmm0
	vmovdqa	%xmm3, (%esi)
	vmovdqa	%xmm3, 0x42(%edi)
	vmovdqa	%ymm1, %ymm0
	vmovdqa	%ymm3, (%esi)
	vmovdqa	%ymm3, 0x42(%edi)

	vmovdqu	%xmm0, %xmm1
	vmovdqu	(%esi), %xmm3
	vmovdqu	0x42(%edi), %xmm3
	vmovdqu	%ymm7, %ymm6
	vmovdqu	(%ebp), %ymm4
	vmovdqu	0x42(%esp), %ymm4
	vmovdqu	%xmm1, %xmm0
	vmovdqu	%xmm3, (%esi)
	vmovdqu	%xmm3, 0x42(%edi)
	vmovdqu	%ymm1, %ymm0
	vmovdqu	%ymm3, (%esi)
	vmovdqu	%ymm3, 0x42(%edi)

	vmovhlps	%xmm0, %xmm2, %xmm4

	vmovhpd	(%ebx), %xmm4, %xmm2
	vmovhpd	0x8(%ebx), %xmm3, %xmm1
	vmovhpd	%xmm3, (%esi)
	vmovhpd	%xmm3, 0x42(%edi)

	vmovhps	(%ebx), %xmm4, %xmm2
	vmovhps	0x8(%ebx), %xmm3, %xmm1
	vmovhps	%xmm3, (%esi)
	vmovhps	%xmm3, 0x42(%edi)

	vmovlhps	%xmm1, %xmm3, %xmm5

	vmovlpd	(%ebx), %xmm4, %xmm2
	vmovlpd	0x8(%ebx), %xmm3, %xmm1
	vmovlpd	%xmm3, (%esi)
	vmovlpd	%xmm3, 0x42(%edi)

	vmovlps	(%ebx), %xmm4, %xmm2
	vmovlps	0x8(%ebx), %xmm3, %xmm1
	vmovlps	%xmm3, (%esi)
	vmovlps	%xmm3, 0x42(%edi)

	vmovmskpd	%xmm0, %eax
	vmovmskpd	%ymm1, %ebx

	vmovmskps	%xmm2, %ecx
	vmovmskps	%ymm3, %edx

	vmovntdq	%xmm5, (%edi)
	vmovntdq	%xmm5, 0x24(%edi)
	vmovntdq	%ymm6, (%esi)
	vmovntdq	%ymm6, 0x24(%esi)

	vmovntdqa	(%ebx), %xmm2
	vmovntdqa	0x8(%ebx), %xmm1
	vmovntdqa	(%ebx), %ymm2
	vmovntdqa	0x8(%ebx), %ymm1

	vmovntpd	%xmm3, (%esi)
	vmovntpd	%xmm3, 0x42(%edi)
	vmovntpd	%ymm3, (%esi)
	vmovntpd	%ymm3, 0x42(%edi)

	vmovntps	%xmm3, (%esi)
	vmovntps	%xmm3, 0x42(%edi)
	vmovntps	%ymm3, (%esi)
	vmovntps	%ymm3, 0x42(%edi)

	vmovq	%xmm0, (%eax)
	vmovq	%xmm0, 0x10(%eax)
	vmovq	0x10(%ebx), %xmm1
	vmovq	(%ebx), %xmm1

	vmovsd	%xmm0, %xmm2, %xmm4
	vmovsd	(%eax), %xmm1
	vmovsd	0x32(%eax), %xmm2

	vmovshdup	%xmm0, %xmm2
	vmovshdup	(%eax), %xmm1
	vmovshdup	0x10(%eax), %xmm1
	vmovshdup	%ymm0, %ymm2
	vmovshdup	(%ebx), %ymm1
	vmovshdup	0x10(%ebx), %ymm3

	vmovsldup	%xmm0, %xmm2
	vmovsldup	(%eax), %xmm1
	vmovsldup	0x10(%eax), %xmm1
	vmovsldup	%ymm0, %ymm2
	vmovsldup	(%ebx), %ymm1
	vmovsldup	0x10(%ebx), %ymm3

	vmovss	%xmm0, %xmm2, %xmm4
	vmovss	(%eax), %xmm1
	vmovss	0x32(%eax), %xmm2

	vmovupd	%xmm0, %xmm1
	vmovupd	(%esi), %xmm3
	vmovupd	0x42(%edi), %xmm3
	vmovupd	%ymm7, %ymm6
	vmovupd	(%ebp), %ymm4
	vmovupd	0x42(%esp), %ymm4
	vmovupd	%xmm1, %xmm0
	vmovupd	%xmm3, (%esi)
	vmovupd	%xmm3, 0x42(%edi)
	vmovupd	%ymm1, %ymm0
	vmovupd	%ymm3, (%esi)
	vmovupd	%ymm3, 0x42(%edi)

	vmovups	%xmm0, %xmm1
	vmovups	(%esi), %xmm3
	vmovups	0x42(%edi), %xmm3
	vmovups	%ymm7, %ymm6
	vmovups	(%ebp), %ymm4
	vmovups	0x42(%esp), %ymm4
	vmovups	%xmm1, %xmm0
	vmovups	%xmm3, (%esi)
	vmovups	%xmm3, 0x42(%edi)
	vmovups	%ymm1, %ymm0
	vmovups	%ymm3, (%esi)
	vmovups	%ymm3, 0x42(%edi)

	vmpsadbw	$0x48, %xmm3, %xmm5, %xmm7
	vmpsadbw	$0x48, (%ebx), %xmm2, %xmm4
	vmpsadbw	$0x48, 0x8(%ebx), %xmm1, %xmm6
	vmpsadbw	$0x48, %ymm3, %ymm5, %ymm7
	vmpsadbw	$0x48, (%ebx), %ymm2, %ymm4
	vmpsadbw	$0x48, 0x8(%ebx), %ymm1, %ymm6

	vmulpd	%xmm0, %xmm1, %xmm2
	vmulpd	(%eax), %xmm3, %xmm4
	vmulpd	0x42(%ecx), %xmm5, %xmm6
	vmulpd	%ymm0, %ymm1, %ymm2
	vmulpd	(%ebx), %ymm3, %ymm4
	vmulpd	0x42(%edx), %ymm5, %ymm6

	vmulps	%xmm0, %xmm1, %xmm2
	vmulps	(%eax), %xmm3, %xmm4
	vmulps	0x42(%ecx), %xmm5, %xmm6
	vmulps	%ymm0, %ymm1, %ymm2
	vmulps	(%ebx), %ymm3, %ymm4
	vmulps	0x42(%edx), %ymm5, %ymm6

	vmulsd	%xmm0, %xmm1, %xmm2
	vmulsd	(%eax), %xmm3, %xmm4
	vmulsd	0x42(%ecx), %xmm5, %xmm6

	vmulss	%xmm0, %xmm1, %xmm2
	vmulss	(%eax), %xmm3, %xmm4
	vmulss	0x42(%ecx), %xmm5, %xmm6

	vorpd	%xmm0, %xmm1, %xmm2
	vorpd	(%eax), %xmm3, %xmm4
	vorpd	0x42(%ecx), %xmm5, %xmm6
	vorpd	%ymm0, %ymm1, %ymm2
	vorpd	(%ebx), %ymm3, %ymm4
	vorpd	0x42(%edx), %ymm5, %ymm6

	vorps	%xmm0, %xmm1, %xmm2
	vorps	(%eax), %xmm3, %xmm4
	vorps	0x42(%ecx), %xmm5, %xmm6
	vorps	%ymm0, %ymm1, %ymm2
	vorps	(%ebx), %ymm3, %ymm4
	vorps	0x42(%edx), %ymm5, %ymm6

	vpabsb	%xmm0, %xmm1
	vpabsb	(%esi), %xmm3
	vpabsb	0x42(%edi), %xmm3
	vpabsb	%ymm7, %ymm6
	vpabsb	(%ebp), %ymm4
	vpabsb	0x42(%esp), %ymm4

	vpabsd	%xmm0, %xmm1
	vpabsd	(%esi), %xmm3
	vpabsd	0x42(%edi), %xmm3
	vpabsd	%ymm7, %ymm6
	vpabsd	(%ebp), %ymm4
	vpabsd	0x42(%esp), %ymm4

	vpabsw	%xmm0, %xmm1
	vpabsw	(%esi), %xmm3
	vpabsw	0x42(%edi), %xmm3
	vpabsw	%ymm7, %ymm6
	vpabsw	(%ebp), %ymm4
	vpabsw	0x42(%esp), %ymm4

	vpackssdw	%xmm0, %xmm1, %xmm2
	vpackssdw	(%eax), %xmm3, %xmm4
	vpackssdw	0x42(%ecx), %xmm5, %xmm6
	vpackssdw	%ymm0, %ymm1, %ymm2
	vpackssdw	(%ebx), %ymm3, %ymm4
	vpackssdw	0x42(%edx), %ymm5, %ymm6

	vpacksswb	%xmm0, %xmm1, %xmm2
	vpacksswb	(%eax), %xmm3, %xmm4
	vpacksswb	0x42(%ecx), %xmm5, %xmm6
	vpacksswb	%ymm0, %ymm1, %ymm2
	vpacksswb	(%ebx), %ymm3, %ymm4
	vpacksswb	0x42(%edx), %ymm5, %ymm6

	vpackusdw	%xmm0, %xmm1, %xmm2
	vpackusdw	(%eax), %xmm3, %xmm4
	vpackusdw	0x42(%ecx), %xmm5, %xmm6
	vpackusdw	%ymm0, %ymm1, %ymm2
	vpackusdw	(%ebx), %ymm3, %ymm4
	vpackusdw	0x42(%edx), %ymm5, %ymm6

	vpackuswb	%xmm0, %xmm1, %xmm2
	vpackuswb	(%eax), %xmm3, %xmm4
	vpackuswb	0x42(%ecx), %xmm5, %xmm6
	vpackuswb	%ymm0, %ymm1, %ymm2
	vpackuswb	(%ebx), %ymm3, %ymm4
	vpackuswb	0x42(%edx), %ymm5, %ymm6

	vpaddb	%xmm0, %xmm1, %xmm2
	vpaddb	(%eax), %xmm3, %xmm4
	vpaddb	0x42(%ecx), %xmm5, %xmm6
	vpaddb	%ymm0, %ymm1, %ymm2
	vpaddb	(%ebx), %ymm3, %ymm4
	vpaddb	0x42(%edx), %ymm5, %ymm6

	vpaddd	%xmm0, %xmm1, %xmm2
	vpaddd	(%eax), %xmm3, %xmm4
	vpaddd	0x42(%ecx), %xmm5, %xmm6
	vpaddd	%ymm0, %ymm1, %ymm2
	vpaddd	(%ebx), %ymm3, %ymm4
	vpaddd	0x42(%edx), %ymm5, %ymm6

	vpaddq	%xmm0, %xmm1, %xmm2
	vpaddq	(%eax), %xmm3, %xmm4
	vpaddq	0x42(%ecx), %xmm5, %xmm6
	vpaddq	%ymm0, %ymm1, %ymm2
	vpaddq	(%ebx), %ymm3, %ymm4
	vpaddq	0x42(%edx), %ymm5, %ymm6

	vpaddsb	%xmm0, %xmm1, %xmm2
	vpaddsb	(%eax), %xmm3, %xmm4
	vpaddsb	0x42(%ecx), %xmm5, %xmm6
	vpaddsb	%ymm0, %ymm1, %ymm2
	vpaddsb	(%ebx), %ymm3, %ymm4
	vpaddsb	0x42(%edx), %ymm5, %ymm6

	vpaddsw	%xmm0, %xmm1, %xmm2
	vpaddsw	(%eax), %xmm3, %xmm4
	vpaddsw	0x42(%ecx), %xmm5, %xmm6
	vpaddsw	%ymm0, %ymm1, %ymm2
	vpaddsw	(%ebx), %ymm3, %ymm4
	vpaddsw	0x42(%edx), %ymm5, %ymm6

	vpaddusb	%xmm0, %xmm1, %xmm2
	vpaddusb	(%eax), %xmm3, %xmm4
	vpaddusb	0x42(%ecx), %xmm5, %xmm6
	vpaddusb	%ymm0, %ymm1, %ymm2
	vpaddusb	(%ebx), %ymm3, %ymm4
	vpaddusb	0x42(%edx), %ymm5, %ymm6

	vpaddusw	%xmm0, %xmm1, %xmm2
	vpaddusw	(%eax), %xmm3, %xmm4
	vpaddusw	0x42(%ecx), %xmm5, %xmm6
	vpaddusw	%ymm0, %ymm1, %ymm2
	vpaddusw	(%ebx), %ymm3, %ymm4
	vpaddusw	0x42(%edx), %ymm5, %ymm6

	vpaddw	%xmm0, %xmm1, %xmm2
	vpaddw	(%eax), %xmm3, %xmm4
	vpaddw	0x42(%ecx), %xmm5, %xmm6
	vpaddw	%ymm0, %ymm1, %ymm2
	vpaddw	(%ebx), %ymm3, %ymm4
	vpaddw	0x42(%edx), %ymm5, %ymm6

	vpalignr	$0x48, %xmm3, %xmm5, %xmm7
	vpalignr	$0x48, (%ebx), %xmm2, %xmm4
	vpalignr	$0x48, 0x8(%ebx), %xmm1, %xmm6
	vpalignr	$0x48, %ymm3, %ymm5, %ymm7
	vpalignr	$0x48, (%ebx), %ymm2, %ymm4
	vpalignr	$0x48, 0x8(%ebx), %ymm1, %ymm6

	vpand	%xmm0, %xmm1, %xmm2
	vpand	(%eax), %xmm3, %xmm4
	vpand	0x42(%ecx), %xmm5, %xmm6
	vpand	%ymm0, %ymm1, %ymm2
	vpand	(%ebx), %ymm3, %ymm4
	vpand	0x42(%edx), %ymm5, %ymm6

	vpandn	%xmm0, %xmm1, %xmm2
	vpandn	(%eax), %xmm3, %xmm4
	vpandn	0x42(%ecx), %xmm5, %xmm6
	vpandn	%ymm0, %ymm1, %ymm2
	vpandn	(%ebx), %ymm3, %ymm4
	vpandn	0x42(%edx), %ymm5, %ymm6

	vpavgb	%xmm0, %xmm1, %xmm2
	vpavgb	(%eax), %xmm3, %xmm4
	vpavgb	0x42(%ecx), %xmm5, %xmm6
	vpavgb	%ymm0, %ymm1, %ymm2
	vpavgb	(%ebx), %ymm3, %ymm4
	vpavgb	0x42(%edx), %ymm5, %ymm6

	vpavgw	%xmm0, %xmm1, %xmm2
	vpavgw	(%eax), %xmm3, %xmm4
	vpavgw	0x42(%ecx), %xmm5, %xmm6
	vpavgw	%ymm0, %ymm1, %ymm2
	vpavgw	(%ebx), %ymm3, %ymm4
	vpavgw	0x42(%edx), %ymm5, %ymm6

	vpblendvb	%xmm0, %xmm1, %xmm2, %xmm3
	vpblendvb	%xmm0, (%eax), %xmm2, %xmm3
	vpblendvb	%xmm0, 0x10(%ebx), %xmm2, %xmm3
	vpblendvb	%ymm0, %ymm1, %ymm2, %ymm3
	vpblendvb	%ymm0, (%eax), %ymm2, %ymm3
	vpblendvb	%ymm0, 0x10(%ebx), %ymm2, %ymm3

	vpblendw	$0x48, %xmm3, %xmm5, %xmm7
	vpblendw	$0x48, (%ebx), %xmm2, %xmm4
	vpblendw	$0x48, 0x8(%ebx), %xmm1, %xmm6
	vpblendw	$0x48, %ymm3, %ymm5, %ymm7
	vpblendw	$0x48, (%ebx), %ymm2, %ymm4
	vpblendw	$0x48, 0x8(%ebx), %ymm1, %ymm6

	vpclmulqdq	$0x48, %xmm3, %xmm5, %xmm7
	vpclmulqdq	$0x48, (%ebx), %xmm2, %xmm4
	vpclmulqdq	$0x48, 0x8(%ebx), %xmm1, %xmm6

	vpcmpeqb	%xmm0, %xmm1, %xmm2
	vpcmpeqb	(%eax), %xmm3, %xmm4
	vpcmpeqb	0x42(%ecx), %xmm5, %xmm6
	vpcmpeqb	%ymm0, %ymm1, %ymm2
	vpcmpeqb	(%ebx), %ymm3, %ymm4
	vpcmpeqb	0x42(%edx), %ymm5, %ymm6

	vpcmpeqd	%xmm0, %xmm1, %xmm2
	vpcmpeqd	(%eax), %xmm3, %xmm4
	vpcmpeqd	0x42(%ecx), %xmm5, %xmm6
	vpcmpeqd	%ymm0, %ymm1, %ymm2
	vpcmpeqd	(%ebx), %ymm3, %ymm4
	vpcmpeqd	0x42(%edx), %ymm5, %ymm6

	vpcmpeqq	%xmm0, %xmm1, %xmm2
	vpcmpeqq	(%eax), %xmm3, %xmm4
	vpcmpeqq	0x42(%ecx), %xmm5, %xmm6
	vpcmpeqq	%ymm0, %ymm1, %ymm2
	vpcmpeqq	(%ebx), %ymm3, %ymm4
	vpcmpeqq	0x42(%edx), %ymm5, %ymm6

	vpcmpeqw	%xmm0, %xmm1, %xmm2
	vpcmpeqw	(%eax), %xmm3, %xmm4
	vpcmpeqw	0x42(%ecx), %xmm5, %xmm6
	vpcmpeqw	%ymm0, %ymm1, %ymm2
	vpcmpeqw	(%ebx), %ymm3, %ymm4
	vpcmpeqw	0x42(%edx), %ymm5, %ymm6

	vpcmpestri	$0x42, %xmm0, %xmm1
	vpcmpestri	$0x23, 	(%esi), %xmm3
	vpcmpestri	$0x42, 0x42(%edi), %xmm3

	vpcmpestrm	$0x42, %xmm0, %xmm1
	vpcmpestrm	$0x23, 	(%esi), %xmm3
	vpcmpestrm	$0x42, 0x42(%edi), %xmm3

	vpcmpgtb	%xmm0, %xmm1, %xmm2
	vpcmpgtb	(%eax), %xmm3, %xmm4
	vpcmpgtb	0x42(%ecx), %xmm5, %xmm6
	vpcmpgtb	%ymm0, %ymm1, %ymm2
	vpcmpgtb	(%ebx), %ymm3, %ymm4
	vpcmpgtb	0x42(%edx), %ymm5, %ymm6

	vpcmpgtd	%xmm0, %xmm1, %xmm2
	vpcmpgtd	(%eax), %xmm3, %xmm4
	vpcmpgtd	0x42(%ecx), %xmm5, %xmm6
	vpcmpgtd	%ymm0, %ymm1, %ymm2
	vpcmpgtd	(%ebx), %ymm3, %ymm4
	vpcmpgtd	0x42(%edx), %ymm5, %ymm6

	vpcmpgtq	%xmm0, %xmm1, %xmm2
	vpcmpgtq	(%eax), %xmm3, %xmm4
	vpcmpgtq	0x42(%ecx), %xmm5, %xmm6
	vpcmpgtq	%ymm0, %ymm1, %ymm2
	vpcmpgtq	(%ebx), %ymm3, %ymm4
	vpcmpgtq	0x42(%edx), %ymm5, %ymm6

	vpcmpgtw	%xmm0, %xmm1, %xmm2
	vpcmpgtw	(%eax), %xmm3, %xmm4
	vpcmpgtw	0x42(%ecx), %xmm5, %xmm6
	vpcmpgtw	%ymm0, %ymm1, %ymm2
	vpcmpgtw	(%ebx), %ymm3, %ymm4
	vpcmpgtw	0x42(%edx), %ymm5, %ymm6

	vpcmpistri	$0x42, %xmm0, %xmm1
	vpcmpistri	$0x23, 	(%esi), %xmm3
	vpcmpistri	$0x42, 0x42(%edi), %xmm3

	vpcmpistrm	$0x42, %xmm0, %xmm1
	vpcmpistrm	$0x23, 	(%esi), %xmm3
	vpcmpistrm	$0x42, 0x42(%edi), %xmm3

	vperm2f128	$0x48, %ymm3, %ymm5, %ymm7
	vperm2f128	$0x48, (%ebx), %ymm2, %ymm4
	vperm2f128	$0x48, 0x8(%ebx), %ymm1, %ymm6

	vpermilpd	%xmm0, %xmm1, %xmm2
	vpermilpd	(%eax), %xmm3, %xmm4
	vpermilpd	0x42(%ecx), %xmm5, %xmm6
	vpermilpd	%ymm0, %ymm1, %ymm2
	vpermilpd	(%ebx), %ymm3, %ymm4
	vpermilpd	0x42(%edx), %ymm5, %ymm6
	vpermilpd	$0x42, %ymm0, %ymm1
	vpermilpd	$0x23, 	(%esi), %ymm3
	vpermilpd	$0x42, 0x42(%edi), %ymm3

	vpermilps	%xmm0, %xmm1, %xmm2
	vpermilps	(%eax), %xmm3, %xmm4
	vpermilps	0x42(%ecx), %xmm5, %xmm6
	vpermilps	%ymm0, %ymm1, %ymm2
	vpermilps	(%ebx), %ymm3, %ymm4
	vpermilps	0x42(%edx), %ymm5, %ymm6
	vpermilps	$0x42, %ymm0, %ymm1
	vpermilps	$0x23, 	(%esi), %ymm3
	vpermilps	$0x42, 0x42(%edi), %ymm3

	vpextrb	$0x23, %xmm0, %eax
	vpextrb	$0x23, %xmm1, (%ebx)
	vpextrb	$0x23, %xmm2, 0x16(%ecx)

	vpextrd	$0x23, %xmm0, %eax
	vpextrd	$0x23, %xmm1, (%ebx)
	vpextrd	$0x23, %xmm2, 0x16(%ecx)

	/*
	 * gas will assemble the following two instructions with an EVEX
	 * prefix. Force the VEX encoding with the correct W bit for the 3-byte
	 * VEX prefix.
	 * vpextrq	$0x23, %xmm1, (%ebx)
	 * vpextrq	$0x23, %xmm2, 0x16(%ecx)
	 */
	.byte	0xc4, 0xe3, 0xf9, 0x16, 0x0b, 0x23
	.byte	0xc4, 0xe3, 0xf9, 0x16, 0x51, 0x16, 0x23

	vpextrw	$0x23, %xmm0, %eax
	vpextrw	$0x23, %xmm1, (%ebx)
	vpextrw	$0x23, %xmm2, 0x16(%ecx)

	vphaddd	%xmm0, %xmm1, %xmm2
	vphaddd	(%eax), %xmm3, %xmm4
	vphaddd	0x42(%ecx), %xmm5, %xmm6
	vphaddd	%ymm0, %ymm1, %ymm2
	vphaddd	(%ebx), %ymm3, %ymm4
	vphaddd	0x42(%edx), %ymm5, %ymm6

	vphaddsw	%xmm0, %xmm1, %xmm2
	vphaddsw	(%eax), %xmm3, %xmm4
	vphaddsw	0x42(%ecx), %xmm5, %xmm6
	vphaddsw	%ymm0, %ymm1, %ymm2
	vphaddsw	(%ebx), %ymm3, %ymm4
	vphaddsw	0x42(%edx), %ymm5, %ymm6

	vphaddw	%xmm0, %xmm1, %xmm2
	vphaddw	(%eax), %xmm3, %xmm4
	vphaddw	0x42(%ecx), %xmm5, %xmm6
	vphaddw	%ymm0, %ymm1, %ymm2
	vphaddw	(%ebx), %ymm3, %ymm4
	vphaddw	0x42(%edx), %ymm5, %ymm6

	vphminposuw	%xmm0, %xmm1
	vphminposuw	(%esi), %xmm3
	vphminposuw	0x42(%edi), %xmm3

	vphsubd	%xmm0, %xmm1, %xmm2
	vphsubd	(%eax), %xmm3, %xmm4
	vphsubd	0x42(%ecx), %xmm5, %xmm6
	vphsubd	%ymm0, %ymm1, %ymm2
	vphsubd	(%ebx), %ymm3, %ymm4
	vphsubd	0x42(%edx), %ymm5, %ymm6

	vphsubsw	%xmm0, %xmm1, %xmm2
	vphsubsw	(%eax), %xmm3, %xmm4
	vphsubsw	0x42(%ecx), %xmm5, %xmm6
	vphsubsw	%ymm0, %ymm1, %ymm2
	vphsubsw	(%ebx), %ymm3, %ymm4
	vphsubsw	0x42(%edx), %ymm5, %ymm6

	vphsubw	%xmm0, %xmm1, %xmm2
	vphsubw	(%eax), %xmm3, %xmm4
	vphsubw	0x42(%ecx), %xmm5, %xmm6
	vphsubw	%ymm0, %ymm1, %ymm2
	vphsubw	(%ebx), %ymm3, %ymm4
	vphsubw	0x42(%edx), %ymm5, %ymm6

	vpinsrb	$0x20, %eax, %xmm0, %xmm1
	vpinsrb	$0x20, (%ebx), %xmm2, %xmm3
	vpinsrb	$0x20, 0x10(%ebx), %xmm2, %xmm3

	vpinsrd	$0x20, %eax, %xmm0, %xmm1
	vpinsrd	$0x20, (%ebx), %xmm2, %xmm3
	vpinsrd	$0x20, 0x10(%ebx), %xmm2, %xmm3

	/*
	 * gas will assemble the following two instructions with an EVEX
	 * prefix. Force the VEX encoding with the correct W bit for the 3-byte
	 * VEX prefix.
	 * vpinsrq	$0x20, (%ebx), %xmm2, %xmm3
	 * vpinsrq	$0x20, 0x10(%ebx), %xmm2, %xmm3
	 */
	.byte	0xc4, 0xe3, 0xc9, 0x22, 0x1b, 0x20
	.byte	0xc4, 0xe3, 0xc9, 0x22, 0x5b, 0x10, 0x20

	vpinsrw	$0x20, %eax, %xmm0, %xmm1
	vpinsrw	$0x20, (%ebx), %xmm2, %xmm3
	vpinsrw	$0x20, 0x10(%ebx), %xmm2, %xmm3

	vpmaddubsw	%xmm0, %xmm1, %xmm2
	vpmaddubsw	(%eax), %xmm3, %xmm4
	vpmaddubsw	0x42(%ecx), %xmm5, %xmm6
	vpmaddubsw	%ymm0, %ymm1, %ymm2
	vpmaddubsw	(%ebx), %ymm3, %ymm4
	vpmaddubsw	0x42(%edx), %ymm5, %ymm6

	vpmaddwd	%xmm0, %xmm1, %xmm2
	vpmaddwd	(%eax), %xmm3, %xmm4
	vpmaddwd	0x42(%ecx), %xmm5, %xmm6
	vpmaddwd	%ymm0, %ymm1, %ymm2
	vpmaddwd	(%ebx), %ymm3, %ymm4
	vpmaddwd	0x42(%edx), %ymm5, %ymm6

	vpmaxsb	%xmm0, %xmm1, %xmm2
	vpmaxsb	(%eax), %xmm3, %xmm4
	vpmaxsb	0x42(%ecx), %xmm5, %xmm6
	vpmaxsb	%ymm0, %ymm1, %ymm2
	vpmaxsb	(%ebx), %ymm3, %ymm4
	vpmaxsb	0x42(%edx), %ymm5, %ymm6

	vpmaxsd	%xmm0, %xmm1, %xmm2
	vpmaxsd	(%eax), %xmm3, %xmm4
	vpmaxsd	0x42(%ecx), %xmm5, %xmm6
	vpmaxsd	%ymm0, %ymm1, %ymm2
	vpmaxsd	(%ebx), %ymm3, %ymm4
	vpmaxsd	0x42(%edx), %ymm5, %ymm6

	vpmaxsw	%xmm0, %xmm1, %xmm2
	vpmaxsw	(%eax), %xmm3, %xmm4
	vpmaxsw	0x42(%ecx), %xmm5, %xmm6
	vpmaxsw	%ymm0, %ymm1, %ymm2
	vpmaxsw	(%ebx), %ymm3, %ymm4
	vpmaxsw	0x42(%edx), %ymm5, %ymm6

	vpmaxub	%xmm0, %xmm1, %xmm2
	vpmaxub	(%eax), %xmm3, %xmm4
	vpmaxub	0x42(%ecx), %xmm5, %xmm6
	vpmaxub	%ymm0, %ymm1, %ymm2
	vpmaxub	(%ebx), %ymm3, %ymm4
	vpmaxub	0x42(%edx), %ymm5, %ymm6

	vpmaxud	%xmm0, %xmm1, %xmm2
	vpmaxud	(%eax), %xmm3, %xmm4
	vpmaxud	0x42(%ecx), %xmm5, %xmm6
	vpmaxud	%ymm0, %ymm1, %ymm2
	vpmaxud	(%ebx), %ymm3, %ymm4
	vpmaxud	0x42(%edx), %ymm5, %ymm6

	vpmaxuw	%xmm0, %xmm1, %xmm2
	vpmaxuw	(%eax), %xmm3, %xmm4
	vpmaxuw	0x42(%ecx), %xmm5, %xmm6
	vpmaxuw	%ymm0, %ymm1, %ymm2
	vpmaxuw	(%ebx), %ymm3, %ymm4
	vpmaxuw	0x42(%edx), %ymm5, %ymm6

	vpminsb	%xmm0, %xmm1, %xmm2
	vpminsb	(%eax), %xmm3, %xmm4
	vpminsb	0x42(%ecx), %xmm5, %xmm6
	vpminsb	%ymm0, %ymm1, %ymm2
	vpminsb	(%ebx), %ymm3, %ymm4
	vpminsb	0x42(%edx), %ymm5, %ymm6

	vpminsd	%xmm0, %xmm1, %xmm2
	vpminsd	(%eax), %xmm3, %xmm4
	vpminsd	0x42(%ecx), %xmm5, %xmm6
	vpminsd	%ymm0, %ymm1, %ymm2
	vpminsd	(%ebx), %ymm3, %ymm4
	vpminsd	0x42(%edx), %ymm5, %ymm6

	vpminsw	%xmm0, %xmm1, %xmm2
	vpminsw	(%eax), %xmm3, %xmm4
	vpminsw	0x42(%ecx), %xmm5, %xmm6
	vpminsw	%ymm0, %ymm1, %ymm2
	vpminsw	(%ebx), %ymm3, %ymm4
	vpminsw	0x42(%edx), %ymm5, %ymm6

	vpminub	%xmm0, %xmm1, %xmm2
	vpminub	(%eax), %xmm3, %xmm4
	vpminub	0x42(%ecx), %xmm5, %xmm6
	vpminub	%ymm0, %ymm1, %ymm2
	vpminub	(%ebx), %ymm3, %ymm4
	vpminub	0x42(%edx), %ymm5, %ymm6

	vpminud	%xmm0, %xmm1, %xmm2
	vpminud	(%eax), %xmm3, %xmm4
	vpminud	0x42(%ecx), %xmm5, %xmm6
	vpminud	%ymm0, %ymm1, %ymm2
	vpminud	(%ebx), %ymm3, %ymm4
	vpminud	0x42(%edx), %ymm5, %ymm6

	vpminuw	%xmm0, %xmm1, %xmm2
	vpminuw	(%eax), %xmm3, %xmm4
	vpminuw	0x42(%ecx), %xmm5, %xmm6
	vpminuw	%ymm0, %ymm1, %ymm2
	vpminuw	(%ebx), %ymm3, %ymm4
	vpminuw	0x42(%edx), %ymm5, %ymm6

	vpmovmskb	%xmm0, %eax
	vpmovmskb	%ymm1, %ebx

	vpmovsxbd	%xmm0, %xmm1
	vpmovsxbd	(%esi), %xmm3
	vpmovsxbd	0x42(%edi), %xmm3
	vpmovsxbd	%xmm7, %ymm6
	vpmovsxbd	(%ebp), %ymm4
	vpmovsxbd	0x42(%esp), %ymm4

	vpmovsxbq	%xmm0, %xmm1
	vpmovsxbq	(%esi), %xmm3
	vpmovsxbq	0x42(%edi), %xmm3
	vpmovsxbq	%xmm7, %ymm6
	vpmovsxbq	(%ebp), %ymm4
	vpmovsxbq	0x42(%esp), %ymm4

	vpmovsxbw	%xmm0, %xmm1
	vpmovsxbw	(%esi), %xmm3
	vpmovsxbw	0x42(%edi), %xmm3
	vpmovsxbw	%xmm7, %ymm6
	vpmovsxbw	(%ebp), %ymm4
	vpmovsxbw	0x42(%esp), %ymm4

	vpmovsxdq	%xmm0, %xmm1
	vpmovsxdq	(%esi), %xmm3
	vpmovsxdq	0x42(%edi), %xmm3
	vpmovsxdq	%xmm7, %ymm6
	vpmovsxdq	(%ebp), %ymm4
	vpmovsxdq	0x42(%esp), %ymm4

	vpmovsxwd	%xmm0, %xmm1
	vpmovsxwd	(%esi), %xmm3
	vpmovsxwd	0x42(%edi), %xmm3
	vpmovsxwd	%xmm7, %ymm6
	vpmovsxwd	(%ebp), %ymm4
	vpmovsxwd	0x42(%esp), %ymm4

	vpmovsxwq	%xmm0, %xmm1
	vpmovsxwq	(%esi), %xmm3
	vpmovsxwq	0x42(%edi), %xmm3
	vpmovsxwq	%xmm7, %ymm6
	vpmovsxwq	(%ebp), %ymm4
	vpmovsxwq	0x42(%esp), %ymm4

	vpmovzxbd	%xmm0, %xmm1
	vpmovzxbd	(%esi), %xmm3
	vpmovzxbd	0x42(%edi), %xmm3
	vpmovzxbd	%xmm7, %ymm6
	vpmovzxbd	(%ebp), %ymm4
	vpmovzxbd	0x42(%esp), %ymm4

	vpmovzxbq	%xmm0, %xmm1
	vpmovzxbq	(%esi), %xmm3
	vpmovzxbq	0x42(%edi), %xmm3
	vpmovzxbq	%xmm7, %ymm6
	vpmovzxbq	(%ebp), %ymm4
	vpmovzxbq	0x42(%esp), %ymm4

	vpmovzxbw	%xmm0, %xmm1
	vpmovzxbw	(%esi), %xmm3
	vpmovzxbw	0x42(%edi), %xmm3
	vpmovzxbw	%xmm7, %ymm6
	vpmovzxbw	(%ebp), %ymm4
	vpmovzxbw	0x42(%esp), %ymm4

	vpmovzxdq	%xmm0, %xmm1
	vpmovzxdq	(%esi), %xmm3
	vpmovzxdq	0x42(%edi), %xmm3
	vpmovzxdq	%xmm7, %ymm6
	vpmovzxdq	(%ebp), %ymm4
	vpmovzxdq	0x42(%esp), %ymm4

	vpmovzxwd	%xmm0, %xmm1
	vpmovzxwd	(%esi), %xmm3
	vpmovzxwd	0x42(%edi), %xmm3
	vpmovzxwd	%xmm7, %ymm6
	vpmovzxwd	(%ebp), %ymm4
	vpmovzxwd	0x42(%esp), %ymm4

	vpmovzxwq	%xmm0, %xmm1
	vpmovzxwq	(%esi), %xmm3
	vpmovzxwq	0x42(%edi), %xmm3
	vpmovzxwq	%xmm7, %ymm6
	vpmovzxwq	(%ebp), %ymm4
	vpmovzxwq	0x42(%esp), %ymm4

	vpmuldq	%xmm0, %xmm1, %xmm2
	vpmuldq	(%eax), %xmm3, %xmm4
	vpmuldq	0x42(%ecx), %xmm5, %xmm6
	vpmuldq	%ymm0, %ymm1, %ymm2
	vpmuldq	(%ebx), %ymm3, %ymm4
	vpmuldq	0x42(%edx), %ymm5, %ymm6

	vpmulhrsw	%xmm0, %xmm1, %xmm2
	vpmulhrsw	(%eax), %xmm3, %xmm4
	vpmulhrsw	0x42(%ecx), %xmm5, %xmm6
	vpmulhrsw	%ymm0, %ymm1, %ymm2
	vpmulhrsw	(%ebx), %ymm3, %ymm4
	vpmulhrsw	0x42(%edx), %ymm5, %ymm6

	vpmulhuw	%xmm0, %xmm1, %xmm2
	vpmulhuw	(%eax), %xmm3, %xmm4
	vpmulhuw	0x42(%ecx), %xmm5, %xmm6
	vpmulhuw	%ymm0, %ymm1, %ymm2
	vpmulhuw	(%ebx), %ymm3, %ymm4
	vpmulhuw	0x42(%edx), %ymm5, %ymm6

	vpmulhw	%xmm0, %xmm1, %xmm2
	vpmulhw	(%eax), %xmm3, %xmm4
	vpmulhw	0x42(%ecx), %xmm5, %xmm6
	vpmulhw	%ymm0, %ymm1, %ymm2
	vpmulhw	(%ebx), %ymm3, %ymm4
	vpmulhw	0x42(%edx), %ymm5, %ymm6

	vpmulld	%xmm0, %xmm1, %xmm2
	vpmulld	(%eax), %xmm3, %xmm4
	vpmulld	0x42(%ecx), %xmm5, %xmm6
	vpmulld	%ymm0, %ymm1, %ymm2
	vpmulld	(%ebx), %ymm3, %ymm4
	vpmulld	0x42(%edx), %ymm5, %ymm6

	vpmullw	%xmm0, %xmm1, %xmm2
	vpmullw	(%eax), %xmm3, %xmm4
	vpmullw	0x42(%ecx), %xmm5, %xmm6
	vpmullw	%ymm0, %ymm1, %ymm2
	vpmullw	(%ebx), %ymm3, %ymm4
	vpmullw	0x42(%edx), %ymm5, %ymm6

	vpmuludq	%xmm0, %xmm1, %xmm2
	vpmuludq	(%eax), %xmm3, %xmm4
	vpmuludq	0x42(%ecx), %xmm5, %xmm6
	vpmuludq	%ymm0, %ymm1, %ymm2
	vpmuludq	(%ebx), %ymm3, %ymm4
	vpmuludq	0x42(%edx), %ymm5, %ymm6

	vpor	%xmm0, %xmm1, %xmm2
	vpor	(%eax), %xmm3, %xmm4
	vpor	0x42(%ecx), %xmm5, %xmm6
	vpor	%ymm0, %ymm1, %ymm2
	vpor	(%ebx), %ymm3, %ymm4
	vpor	0x42(%edx), %ymm5, %ymm6

	vpsadbw	%xmm0, %xmm1, %xmm2
	vpsadbw	(%eax), %xmm3, %xmm4
	vpsadbw	0x42(%ecx), %xmm5, %xmm6
	vpsadbw	%ymm0, %ymm1, %ymm2
	vpsadbw	(%ebx), %ymm3, %ymm4
	vpsadbw	0x42(%edx), %ymm5, %ymm6

	vpshufb	%xmm0, %xmm1, %xmm2
	vpshufb	(%eax), %xmm3, %xmm4
	vpshufb	0x42(%ecx), %xmm5, %xmm6
	vpshufb	%ymm0, %ymm1, %ymm2
	vpshufb	(%ebx), %ymm3, %ymm4
	vpshufb	0x42(%edx), %ymm5, %ymm6

	vpshufd	$0x42, %xmm0, %xmm1
	vpshufd	$0x23, 	(%esi), %xmm3
	vpshufd	$0x42, 0x42(%edi), %xmm3
	vpshufd	$0x42, %ymm0, %ymm1
	vpshufd	$0x23, 	(%esi), %ymm3
	vpshufd	$0x42, 0x42(%edi), %ymm3

	vpshufhw	$0x42, %xmm0, %xmm1
	vpshufhw	$0x23, 	(%esi), %xmm3
	vpshufhw	$0x42, 0x42(%edi), %xmm3
	vpshufhw	$0x42, %ymm0, %ymm1
	vpshufhw	$0x23, 	(%esi), %ymm3
	vpshufhw	$0x42, 0x42(%edi), %ymm3

	vpshuflw	$0x42, %xmm0, %xmm1
	vpshuflw	$0x23, 	(%esi), %xmm3
	vpshuflw	$0x42, 0x42(%edi), %xmm3
	vpshuflw	$0x42, %ymm0, %ymm1
	vpshuflw	$0x23, 	(%esi), %ymm3
	vpshuflw	$0x42, 0x42(%edi), %ymm3

	vpsignb	%xmm0, %xmm1, %xmm2
	vpsignb	(%eax), %xmm3, %xmm4
	vpsignb	0x42(%ecx), %xmm5, %xmm6
	vpsignb	%ymm0, %ymm1, %ymm2
	vpsignb	(%ebx), %ymm3, %ymm4
	vpsignb	0x42(%edx), %ymm5, %ymm6

	vpsignd	%xmm0, %xmm1, %xmm2
	vpsignd	(%eax), %xmm3, %xmm4
	vpsignd	0x42(%ecx), %xmm5, %xmm6
	vpsignd	%ymm0, %ymm1, %ymm2
	vpsignd	(%ebx), %ymm3, %ymm4
	vpsignd	0x42(%edx), %ymm5, %ymm6

	vpsignw	%xmm0, %xmm1, %xmm2
	vpsignw	(%eax), %xmm3, %xmm4
	vpsignw	0x42(%ecx), %xmm5, %xmm6
	vpsignw	%ymm0, %ymm1, %ymm2
	vpsignw	(%ebx), %ymm3, %ymm4
	vpsignw	0x42(%edx), %ymm5, %ymm6

	vpslld	%xmm0, %xmm1, %xmm2
	vpslld	(%eax), %xmm3, %xmm4
	vpslld	0x10(%ebx), %xmm4, %xmm5
	vpslld	$0x4, %xmm6, %xmm7
	vpslld	%xmm0, %ymm1, %ymm2
	vpslld	(%eax), %ymm3, %ymm4
	vpslld	0x10(%ebx), %ymm4, %ymm5
	vpslld	$0x4, %ymm6, %ymm7

	vpslldq	$0x7, %xmm0, %xmm1
	vpslldq	$0x7, %ymm0, %ymm1

	vpsllq	%xmm0, %xmm1, %xmm2
	vpsllq	(%eax), %xmm3, %xmm4
	vpsllq	0x10(%ebx), %xmm4, %xmm5
	vpsllq	$0x4, %xmm6, %xmm7
	vpsllq	%xmm0, %ymm1, %ymm2
	vpsllq	(%eax), %ymm3, %ymm4
	vpsllq	0x10(%ebx), %ymm4, %ymm5
	vpsllq	$0x4, %ymm6, %ymm7

	vpsllw	%xmm0, %xmm1, %xmm2
	vpsllw	(%eax), %xmm3, %xmm4
	vpsllw	0x10(%ebx), %xmm4, %xmm5
	vpsllw	$0x4, %xmm6, %xmm7
	vpsllw	%xmm0, %ymm1, %ymm2
	vpsllw	(%eax), %ymm3, %ymm4
	vpsllw	0x10(%ebx), %ymm4, %ymm5
	vpsllw	$0x4, %ymm6, %ymm7

	vpsrad	%xmm0, %xmm1, %xmm2
	vpsrad	(%eax), %xmm3, %xmm4
	vpsrad	0x10(%ebx), %xmm4, %xmm5
	vpsrad	$0x4, %xmm6, %xmm7
	vpsrad	%xmm0, %ymm1, %ymm2
	vpsrad	(%eax), %ymm3, %ymm4
	vpsrad	0x10(%ebx), %ymm4, %ymm5
	vpsrad	$0x4, %ymm6, %ymm7

	vpsraw	%xmm0, %xmm1, %xmm2
	vpsraw	(%eax), %xmm3, %xmm4
	vpsraw	0x10(%ebx), %xmm4, %xmm5
	vpsraw	$0x4, %xmm6, %xmm7
	vpsraw	%xmm0, %ymm1, %ymm2
	vpsraw	(%eax), %ymm3, %ymm4
	vpsraw	0x10(%ebx), %ymm4, %ymm5
	vpsraw	$0x4, %ymm6, %ymm7

	vpsrld	%xmm0, %xmm1, %xmm2
	vpsrld	(%eax), %xmm3, %xmm4
	vpsrld	0x10(%ebx), %xmm4, %xmm5
	vpsrld	$0x4, %xmm6, %xmm7
	vpsrld	%xmm0, %ymm1, %ymm2
	vpsrld	(%eax), %ymm3, %ymm4
	vpsrld	0x10(%ebx), %ymm4, %ymm5
	vpsrld	$0x4, %ymm6, %ymm7

	vpsrldq	$0x7, %xmm0, %xmm1
	vpsrldq	$0x7, %ymm0, %ymm1

	vpsrlq	%xmm0, %xmm1, %xmm2
	vpsrlq	(%eax), %xmm3, %xmm4
	vpsrlq	0x10(%ebx), %xmm4, %xmm5
	vpsrlq	$0x4, %xmm6, %xmm7
	vpsrlq	%xmm0, %ymm1, %ymm2
	vpsrlq	(%eax), %ymm3, %ymm4
	vpsrlq	0x10(%ebx), %ymm4, %ymm5
	vpsrlq	$0x4, %ymm6, %ymm7

	vpsrlw	%xmm0, %xmm1, %xmm2
	vpsrlw	(%eax), %xmm3, %xmm4
	vpsrlw	0x10(%ebx), %xmm4, %xmm5
	vpsrlw	$0x4, %xmm6, %xmm7
	vpsrlw	%xmm0, %ymm1, %ymm2
	vpsrlw	(%eax), %ymm3, %ymm4
	vpsrlw	0x10(%ebx), %ymm4, %ymm5
	vpsrlw	$0x4, %ymm6, %ymm7

	vpsubb	%xmm0, %xmm1, %xmm2
	vpsubb	(%eax), %xmm3, %xmm4
	vpsubb	0x42(%ecx), %xmm5, %xmm6
	vpsubb	%ymm0, %ymm1, %ymm2
	vpsubb	(%ebx), %ymm3, %ymm4
	vpsubb	0x42(%edx), %ymm5, %ymm6

	vpsubd	%xmm0, %xmm1, %xmm2
	vpsubd	(%eax), %xmm3, %xmm4
	vpsubd	0x42(%ecx), %xmm5, %xmm6
	vpsubd	%ymm0, %ymm1, %ymm2
	vpsubd	(%ebx), %ymm3, %ymm4
	vpsubd	0x42(%edx), %ymm5, %ymm6

	vpsubq	%xmm0, %xmm1, %xmm2
	vpsubq	(%eax), %xmm3, %xmm4
	vpsubq	0x42(%ecx), %xmm5, %xmm6
	vpsubq	%ymm0, %ymm1, %ymm2
	vpsubq	(%ebx), %ymm3, %ymm4
	vpsubq	0x42(%edx), %ymm5, %ymm6

	vpsubsb	%xmm0, %xmm1, %xmm2
	vpsubsb	(%eax), %xmm3, %xmm4
	vpsubsb	0x42(%ecx), %xmm5, %xmm6
	vpsubsb	%ymm0, %ymm1, %ymm2
	vpsubsb	(%ebx), %ymm3, %ymm4
	vpsubsb	0x42(%edx), %ymm5, %ymm6

	vpsubsw	%xmm0, %xmm1, %xmm2
	vpsubsw	(%eax), %xmm3, %xmm4
	vpsubsw	0x42(%ecx), %xmm5, %xmm6
	vpsubsw	%ymm0, %ymm1, %ymm2
	vpsubsw	(%ebx), %ymm3, %ymm4
	vpsubsw	0x42(%edx), %ymm5, %ymm6

	vpsubusb	%xmm0, %xmm1, %xmm2
	vpsubusb	(%eax), %xmm3, %xmm4
	vpsubusb	0x42(%ecx), %xmm5, %xmm6
	vpsubusb	%ymm0, %ymm1, %ymm2
	vpsubusb	(%ebx), %ymm3, %ymm4
	vpsubusb	0x42(%edx), %ymm5, %ymm6

	vpsubusw	%xmm0, %xmm1, %xmm2
	vpsubusw	(%eax), %xmm3, %xmm4
	vpsubusw	0x42(%ecx), %xmm5, %xmm6
	vpsubusw	%ymm0, %ymm1, %ymm2
	vpsubusw	(%ebx), %ymm3, %ymm4
	vpsubusw	0x42(%edx), %ymm5, %ymm6

	vpsubw	%xmm0, %xmm1, %xmm2
	vpsubw	(%eax), %xmm3, %xmm4
	vpsubw	0x42(%ecx), %xmm5, %xmm6
	vpsubw	%ymm0, %ymm1, %ymm2
	vpsubw	(%ebx), %ymm3, %ymm4
	vpsubw	0x42(%edx), %ymm5, %ymm6

	vptest	%xmm0, %xmm1
	vptest	(%esi), %xmm3
	vptest	0x42(%edi), %xmm3
	vptest	%ymm7, %ymm6
	vptest	(%ebp), %ymm4
	vptest	0x42(%esp), %ymm4

	vpunpckhbw	%xmm0, %xmm1, %xmm2
	vpunpckhbw	(%eax), %xmm3, %xmm4
	vpunpckhbw	0x42(%ecx), %xmm5, %xmm6
	vpunpckhbw	%ymm0, %ymm1, %ymm2
	vpunpckhbw	(%ebx), %ymm3, %ymm4
	vpunpckhbw	0x42(%edx), %ymm5, %ymm6

	vpunpckhdq	%xmm0, %xmm1, %xmm2
	vpunpckhdq	(%eax), %xmm3, %xmm4
	vpunpckhdq	0x42(%ecx), %xmm5, %xmm6
	vpunpckhdq	%ymm0, %ymm1, %ymm2
	vpunpckhdq	(%ebx), %ymm3, %ymm4
	vpunpckhdq	0x42(%edx), %ymm5, %ymm6

	vpunpckhqdq	%xmm0, %xmm1, %xmm2
	vpunpckhqdq	(%eax), %xmm3, %xmm4
	vpunpckhqdq	0x42(%ecx), %xmm5, %xmm6
	vpunpckhqdq	%ymm0, %ymm1, %ymm2
	vpunpckhqdq	(%ebx), %ymm3, %ymm4
	vpunpckhqdq	0x42(%edx), %ymm5, %ymm6

	vpunpckhwd	%xmm0, %xmm1, %xmm2
	vpunpckhwd	(%eax), %xmm3, %xmm4
	vpunpckhwd	0x42(%ecx), %xmm5, %xmm6
	vpunpckhwd	%ymm0, %ymm1, %ymm2
	vpunpckhwd	(%ebx), %ymm3, %ymm4
	vpunpckhwd	0x42(%edx), %ymm5, %ymm6

	vpunpcklbw	%xmm0, %xmm1, %xmm2
	vpunpcklbw	(%eax), %xmm3, %xmm4
	vpunpcklbw	0x42(%ecx), %xmm5, %xmm6
	vpunpcklbw	%ymm0, %ymm1, %ymm2
	vpunpcklbw	(%ebx), %ymm3, %ymm4
	vpunpcklbw	0x42(%edx), %ymm5, %ymm6

	vpunpckldq	%xmm0, %xmm1, %xmm2
	vpunpckldq	(%eax), %xmm3, %xmm4
	vpunpckldq	0x42(%ecx), %xmm5, %xmm6
	vpunpckldq	%ymm0, %ymm1, %ymm2
	vpunpckldq	(%ebx), %ymm3, %ymm4
	vpunpckldq	0x42(%edx), %ymm5, %ymm6

	vpunpcklqdq	%xmm0, %xmm1, %xmm2
	vpunpcklqdq	(%eax), %xmm3, %xmm4
	vpunpcklqdq	0x42(%ecx), %xmm5, %xmm6
	vpunpcklqdq	%ymm0, %ymm1, %ymm2
	vpunpcklqdq	(%ebx), %ymm3, %ymm4
	vpunpcklqdq	0x42(%edx), %ymm5, %ymm6

	vpunpcklwd	%xmm0, %xmm1, %xmm2
	vpunpcklwd	(%eax), %xmm3, %xmm4
	vpunpcklwd	0x42(%ecx), %xmm5, %xmm6
	vpunpcklwd	%ymm0, %ymm1, %ymm2
	vpunpcklwd	(%ebx), %ymm3, %ymm4
	vpunpcklwd	0x42(%edx), %ymm5, %ymm6

	vpxor	%xmm0, %xmm1, %xmm2
	vpxor	(%eax), %xmm3, %xmm4
	vpxor	0x42(%ecx), %xmm5, %xmm6
	vpxor	%ymm0, %ymm1, %ymm2
	vpxor	(%ebx), %ymm3, %ymm4
	vpxor	0x42(%edx), %ymm5, %ymm6

	vrcpps	%xmm0, %xmm1
	vrcpps	(%esi), %xmm3
	vrcpps	0x42(%edi), %xmm3
	vrcpps	%ymm7, %ymm6
	vrcpps	(%ebp), %ymm4
	vrcpps	0x42(%esp), %ymm4

	vrcpss	%xmm0, %xmm1, %xmm2
	vrcpss	(%eax), %xmm3, %xmm4
	vrcpss	0x42(%ecx), %xmm5, %xmm6

	vroundpd	$0x42, %xmm0, %xmm1
	vroundpd	$0x23, 	(%esi), %xmm3
	vroundpd	$0x42, 0x42(%edi), %xmm3
	vroundpd	$0x42, %ymm0, %ymm1
	vroundpd	$0x23, 	(%esi), %ymm3
	vroundpd	$0x42, 0x42(%edi), %ymm3

	vroundps	$0x42, %xmm0, %xmm1
	vroundps	$0x23, 	(%esi), %xmm3
	vroundps	$0x42, 0x42(%edi), %xmm3
	vroundps	$0x42, %ymm0, %ymm1
	vroundps	$0x23, 	(%esi), %ymm3
	vroundps	$0x42, 0x42(%edi), %ymm3

	vroundsd	$0x48, %xmm3, %xmm5, %xmm7
	vroundsd	$0x48, (%ebx), %xmm2, %xmm4
	vroundsd	$0x48, 0x8(%ebx), %xmm1, %xmm6

	vroundss	$0x48, %xmm3, %xmm5, %xmm7
	vroundss	$0x48, (%ebx), %xmm2, %xmm4
	vroundss	$0x48, 0x8(%ebx), %xmm1, %xmm6

	vrsqrtps	%xmm0, %xmm1
	vrsqrtps	(%esi), %xmm3
	vrsqrtps	0x42(%edi), %xmm3
	vrsqrtps	%ymm7, %ymm6
	vrsqrtps	(%ebp), %ymm4
	vrsqrtps	0x42(%esp), %ymm4

	vrsqrtss	%xmm0, %xmm1, %xmm2
	vrsqrtss	(%eax), %xmm3, %xmm4
	vrsqrtss	0x42(%ecx), %xmm5, %xmm6

	vshufpd	$0x48, %xmm3, %xmm5, %xmm7
	vshufpd	$0x48, (%ebx), %xmm2, %xmm4
	vshufpd	$0x48, 0x8(%ebx), %xmm1, %xmm6
	vshufpd	$0x48, %ymm3, %ymm5, %ymm7
	vshufpd	$0x48, (%ebx), %ymm2, %ymm4
	vshufpd	$0x48, 0x8(%ebx), %ymm1, %ymm6

	vshufps	$0x48, %xmm3, %xmm5, %xmm7
	vshufps	$0x48, (%ebx), %xmm2, %xmm4
	vshufps	$0x48, 0x8(%ebx), %xmm1, %xmm6
	vshufps	$0x48, %ymm3, %ymm5, %ymm7
	vshufps	$0x48, (%ebx), %ymm2, %ymm4
	vshufps	$0x48, 0x8(%ebx), %ymm1, %ymm6

	vsqrtpd	%xmm0, %xmm1
	vsqrtpd	(%esi), %xmm3
	vsqrtpd	0x42(%edi), %xmm3
	vsqrtpd	%ymm7, %ymm6
	vsqrtpd	(%ebp), %ymm4
	vsqrtpd	0x42(%esp), %ymm4

	vsqrtps	%xmm0, %xmm1
	vsqrtps	(%esi), %xmm3
	vsqrtps	0x42(%edi), %xmm3
	vsqrtps	%ymm7, %ymm6
	vsqrtps	(%ebp), %ymm4
	vsqrtps	0x42(%esp), %ymm4

	vsqrtsd	%xmm0, %xmm1, %xmm2
	vsqrtsd	(%eax), %xmm3, %xmm4
	vsqrtsd	0x42(%ecx), %xmm5, %xmm6

	vsqrtss	%xmm0, %xmm1, %xmm2
	vsqrtss	(%eax), %xmm3, %xmm4
	vsqrtss	0x42(%ecx), %xmm5, %xmm6

	vstmxcsr	(%edx)
	vstmxcsr	0x8(%edx)

	vsubpd	%xmm0, %xmm1, %xmm2
	vsubpd	(%eax), %xmm3, %xmm4
	vsubpd	0x42(%ecx), %xmm5, %xmm6
	vsubpd	%ymm0, %ymm1, %ymm2
	vsubpd	(%ebx), %ymm3, %ymm4
	vsubpd	0x42(%edx), %ymm5, %ymm6

	vsubps	%xmm0, %xmm1, %xmm2
	vsubps	(%eax), %xmm3, %xmm4
	vsubps	0x42(%ecx), %xmm5, %xmm6
	vsubps	%ymm0, %ymm1, %ymm2
	vsubps	(%ebx), %ymm3, %ymm4
	vsubps	0x42(%edx), %ymm5, %ymm6

	vsubsd	%xmm0, %xmm1, %xmm2
	vsubsd	(%eax), %xmm3, %xmm4
	vsubsd	0x42(%ecx), %xmm5, %xmm6

	vsubss	%xmm0, %xmm1, %xmm2
	vsubss	(%eax), %xmm3, %xmm4
	vsubss	0x42(%ecx), %xmm5, %xmm6

	vtestpd	%xmm0, %xmm1
	vtestpd	(%esi), %xmm3
	vtestpd	0x42(%edi), %xmm3
	vtestpd	%ymm7, %ymm6
	vtestpd	(%ebp), %ymm4
	vtestpd	0x42(%esp), %ymm4

	vtestps	%xmm0, %xmm1
	vtestps	(%esi), %xmm3
	vtestps	0x42(%edi), %xmm3
	vtestps	%ymm7, %ymm6
	vtestps	(%ebp), %ymm4
	vtestps	0x42(%esp), %ymm4

	vucomisd	%xmm0, %xmm1
	vucomisd	(%esi), %xmm3
	vucomisd	0x42(%edi), %xmm3

	vucomiss	%xmm0, %xmm1
	vucomiss	(%esi), %xmm3
	vucomiss	0x42(%edi), %xmm3

	vunpckhpd	%xmm0, %xmm1, %xmm2
	vunpckhpd	(%eax), %xmm3, %xmm4
	vunpckhpd	0x42(%ecx), %xmm5, %xmm6
	vunpckhpd	%ymm0, %ymm1, %ymm2
	vunpckhpd	(%ebx), %ymm3, %ymm4
	vunpckhpd	0x42(%edx), %ymm5, %ymm6

	vunpckhps	%xmm0, %xmm1, %xmm2
	vunpckhps	(%eax), %xmm3, %xmm4
	vunpckhps	0x42(%ecx), %xmm5, %xmm6
	vunpckhps	%ymm0, %ymm1, %ymm2
	vunpckhps	(%ebx), %ymm3, %ymm4
	vunpckhps	0x42(%edx), %ymm5, %ymm6

	vunpcklpd	%xmm0, %xmm1, %xmm2
	vunpcklpd	(%eax), %xmm3, %xmm4
	vunpcklpd	0x42(%ecx), %xmm5, %xmm6
	vunpcklpd	%ymm0, %ymm1, %ymm2
	vunpcklpd	(%ebx), %ymm3, %ymm4
	vunpcklpd	0x42(%edx), %ymm5, %ymm6

	vunpcklps	%xmm0, %xmm1, %xmm2
	vunpcklps	(%eax), %xmm3, %xmm4
	vunpcklps	0x42(%ecx), %xmm5, %xmm6
	vunpcklps	%ymm0, %ymm1, %ymm2
	vunpcklps	(%ebx), %ymm3, %ymm4
	vunpcklps	0x42(%edx), %ymm5, %ymm6

	vxorpd	%xmm0, %xmm1, %xmm2
	vxorpd	(%eax), %xmm3, %xmm4
	vxorpd	0x42(%ecx), %xmm5, %xmm6
	vxorpd	%ymm0, %ymm1, %ymm2
	vxorpd	(%ebx), %ymm3, %ymm4
	vxorpd	0x42(%edx), %ymm5, %ymm6

	vxorps	%xmm0, %xmm1, %xmm2
	vxorps	(%eax), %xmm3, %xmm4
	vxorps	0x42(%ecx), %xmm5, %xmm6
	vxorps	%ymm0, %ymm1, %ymm2
	vxorps	(%ebx), %ymm3, %ymm4
	vxorps	0x42(%edx), %ymm5, %ymm6

	vzeroall

	vzeroupper
.size libdis_test, [.-libdis_test]