Lines Matching refs:is256BitVector

3115   if ((VT.is256BitVector() || VT.is512BitVector()) && !Load->hasOneUse()) {  in shouldReduceLoadWidth()
3866 assert((VT.is128BitVector() || VT.is256BitVector() || VT.is512BitVector() || in getZeroVector()
3953 assert((Vec.getValueType().is256BitVector() || in extract128BitVector()
4190 assert((Op.getOperand(0).getValueType().is256BitVector() || in splitVectorIntUnary()
4192 (VT.is256BitVector() || VT.is512BitVector()) && "Unsupported VT!"); in splitVectorIntUnary()
4207 assert((VT.is256BitVector() || VT.is512BitVector()) && "Unsupported VT!"); in splitVectorIntBinary()
4506 assert((VT.is128BitVector() || VT.is256BitVector() || VT.is512BitVector()) && in getOnesVector()
7035 VT.is256BitVector() && !Subtarget.hasInt256()) in EltsFromConsecutiveLoads()
7067 if (VT.is256BitVector() || VT.is512BitVector()) { in EltsFromConsecutiveLoads()
7085 ((VT.is128BitVector() || VT.is256BitVector() || VT.is512BitVector()))) { in EltsFromConsecutiveLoads()
7109 (VT.is128BitVector() || VT.is256BitVector() || VT.is512BitVector())) { in EltsFromConsecutiveLoads()
7291 assert((VT.is128BitVector() || VT.is256BitVector() || VT.is512BitVector()) && in lowerBuildVectorAsBroadcast()
7761 assert(VT.is256BitVector() && "Only use for matching partial 256-bit h-ops"); in isHorizontalBinOpPart()
7875 assert(VT.is256BitVector() && VT == V1.getSimpleValueType() && in ExpandHorizontalBinOp()
8119 unsigned Num128BitChunks = VT.is256BitVector() ? 2 : 1; in isHopBuildVector()
8221 if (VT.is256BitVector() && DemandedElts.lshr(HalfNumElts) == 0) { in getHopForBuildVector()
8257 if (!Subtarget.hasAVX() || !VT.is256BitVector()) in LowerToHorizontalOp()
8867 if ((VT.is256BitVector() || VT.is512BitVector()) && in LowerBUILD_VECTOR()
8974 assert((VT.is128BitVector() || VT.is256BitVector() || in LowerBUILD_VECTOR()
9219 assert((ResVT.is256BitVector() || in LowerAVXCONCAT_VECTORS()
9363 assert((VT.is256BitVector() && Op.getNumOperands() == 2) || in LowerCONCAT_VECTORS()
9847 (Subtarget.hasAVX2() && VT.is256BitVector()) || in lowerShuffleWithPSHUFB()
10213 assert((VT.is128BitVector() || VT.is256BitVector()) && in lowerShuffleAsVTRUNC()
10582 VT.is256BitVector() && VT.getScalarSizeInBits() >= 32; in matchShuffleAsBlend()
11043 (VT.is256BitVector() && !Subtarget.hasAVX2()) || in lowerShuffleAsByteRotateAndPermute()
11511 assert((Subtarget.hasVLX() || (!VT.is128BitVector() && !VT.is256BitVector())) in lowerShuffleAsVALIGN()
12448 if (!WideVT.is256BitVector()) in lowerShuffleOfExtractsAsVperm()
12622 if (!VT.is256BitVector() && !VT.is512BitVector()) in lowerShuffleAsBroadcast()
14885 assert(VT.is256BitVector() && "Only for 256-bit vector shuffles!"); in lowerShuffleAsLanePermuteAndShuffle()
15328 assert((VT.is256BitVector() || VT.is512BitVector()) && in lowerShuffleWithUndefHalf()
15618 if (Subtarget.hasAVX2() && VT.is256BitVector()) { in lowerShuffleAsRepeatedMaskAndLanePermute()
17745 if (VT.is256BitVector()) in lowerVECTOR_SHUFFLE()
17851 if (EltSize < 32 && VT.is256BitVector() && !Subtarget.hasAVX2() && in LowerVSELECT()
18070 if (VecVT.is256BitVector() || VecVT.is512BitVector()) { in LowerEXTRACT_VECTOR_ELT()
18289 if (VT.is256BitVector() || VT.is512BitVector()) { in LowerINSERT_VECTOR_ELT()
18292 if (VT.is256BitVector() && IdxVal == 0) { in LowerINSERT_VECTOR_ELT()
20370 if (SrcVT.is256BitVector() && DstVT.is128BitVector()) { in truncateVectorWithPACK()
20392 if (DstVT.is256BitVector()) in truncateVectorWithPACK()
20643 assert((InVT.is256BitVector() || InVT.is128BitVector()) && in LowerTruncateVecI1()
20727 (InVT.is512BitVector() && VT.is256BitVector())) in LowerTRUNCATE()
20767 assert(VT.is128BitVector() && InVT.is256BitVector() && "Unexpected types!"); in LowerTRUNCATE()
23480 if (VT.is256BitVector() && !Subtarget.hasInt256()) in LowerVSETCC()
24440 !(VT.is256BitVector() && Subtarget.hasAVX()) && in LowerEXTEND_VECTOR_INREG()
24477 assert(VT.is256BitVector() && "256-bit vector expected"); in LowerEXTEND_VECTOR_INREG()
24602 assert((StoredVal.getValueType().is256BitVector() || in splitVectorStore()
24707 if (StoreVT.is256BitVector() || in LowerStore()
27937 assert((NewVT.is256BitVector() || NewVT.is512BitVector()) && in LowerVectorCTLZ_AVX512CDI()
28043 if (VT.is256BitVector() && !Subtarget.hasInt256()) in LowerVectorCTLZ()
28129 assert(Op.getSimpleValueType().is256BitVector() && in lowerAddSub()
28143 (VT.is256BitVector() && !Subtarget.hasInt256())) { in LowerADDSAT_SUBSAT()
28228 if (VT.is256BitVector() && !Subtarget.hasInt256()) { in LowerABS()
28247 if (VT.is256BitVector() && !Subtarget.hasInt256()) in LowerAVG()
28263 if (VT.is256BitVector() && !Subtarget.hasInt256()) in LowerMINMAX()
28427 if (VT.is256BitVector() && !Subtarget.hasInt256()) in LowerABD()
28462 if (VT.is256BitVector() && !Subtarget.hasInt256()) in LowerMUL()
28717 if (VT.is256BitVector() && !Subtarget.hasInt256()) in LowerMULH()
29128 if (!(VT.is128BitVector() || VT.is256BitVector() || VT.is512BitVector())) in supportedVectorShiftWithImm()
29139 (VT.is256BitVector() && Subtarget.hasInt256()); in supportedVectorShiftWithImm()
29164 if (!(VT.is128BitVector() || VT.is256BitVector() || VT.is512BitVector())) in supportedVectorVarShift()
29178 bool LShift = VT.is128BitVector() || VT.is256BitVector(); in supportedVectorVarShift()
29939 if (VT.is256BitVector()) in LowerShift()
30039 if ((VT.is256BitVector() && ((Subtarget.hasXOP() && EltSizeInBits < 16) || in LowerFunnelShift()
30217 if (VT.is256BitVector() && (Subtarget.hasXOP() || !Subtarget.hasAVX2())) in LowerRotate()
31323 assert((VT.is512BitVector() || VT.is256BitVector() || VT.is128BitVector()) && in LowerVectorCTPOP()
31341 if (VT.is256BitVector() && !Subtarget.hasInt256()) in LowerVectorCTPOP()
31469 if (VT.is256BitVector()) in LowerBITREVERSE_XOP()
31512 if (VT.is256BitVector() && !Subtarget.hasInt256()) in LowerBITREVERSE()
37849 (MaskVT.is256BitVector() && Subtarget.hasInt256()))) { in matchUnaryShuffle()
37925 if (MaskVT.is256BitVector() && AllowFloatDomain) { in matchUnaryShuffle()
37995 if (Subtarget.hasAVX2() && MaskVT.is256BitVector()) { in matchUnaryPermuteShuffle()
38053 (MaskVT.is256BitVector() && Subtarget.hasAVX2()) || in matchUnaryPermuteShuffle()
38101 (MaskVT.is256BitVector() && Subtarget.hasAVX2()) || in matchUnaryPermuteShuffle()
38217 (MaskVT.is256BitVector() && 32 <= EltSizeInBits && Subtarget.hasAVX()) || in matchBinaryShuffle()
38218 (MaskVT.is256BitVector() && Subtarget.hasAVX2()) || in matchBinaryShuffle()
38224 if (MaskVT.is256BitVector() && !Subtarget.hasAVX2()) in matchBinaryShuffle()
38333 (MaskVT.is256BitVector() && Subtarget.hasVLX()) || in matchBinaryPermuteShuffle()
38351 (MaskVT.is256BitVector() && Subtarget.hasAVX2()) || in matchBinaryPermuteShuffle()
38364 (Subtarget.hasAVX() && MaskVT.is256BitVector()))) || in matchBinaryPermuteShuffle()
38412 (MaskVT.is256BitVector() && Subtarget.hasAVX()) || in matchBinaryPermuteShuffle()
38428 (MaskVT.is256BitVector() && Subtarget.hasAVX()) || in matchBinaryPermuteShuffle()
38548 (RootVT.is256BitVector() && !Subtarget.hasAVX2()); in combineX86ShuffleChain()
38661 if (RootVT.is256BitVector() && NumBaseMaskElts == 2) { in combineX86ShuffleChain()
38771 (!MaskVT.is256BitVector() || Subtarget.hasAVX2()); in combineX86ShuffleChain()
38943 ((RootVT.is256BitVector() && Subtarget.useAVX512Regs()) || in combineX86ShuffleChain()
39148 (RootVT.is256BitVector() && Subtarget.hasAVX2()) || in combineX86ShuffleChain()
40456 if (VT.is256BitVector() && !Subtarget.hasAVX2() && in combineBlendOfPermutes()
41402 if (NVT.is256BitVector() || in combineTargetShuffle()
41686 if (!VT.is128BitVector() && !VT.is256BitVector()) in combineShuffleOfConcatUndef()
41726 if (!VT.is256BitVector() && !VT.is512BitVector()) in narrowShuffle()
42384 if ((VT.is256BitVector() || VT.is512BitVector()) && in SimplifyDemandedVectorEltsForTargetNode()
43015 if (SrcVT.is256BitVector() && in SimplifyDemandedBitsForTargetNode()
44782 if ((VecVT.is256BitVector() || VecVT.is512BitVector()) && in combineExtractWithShuffle()
45571 if (!VT.is256BitVector()) in narrowVectorSelect()
47012 assert((VecVT.is128BitVector() || VecVT.is256BitVector()) && in combineSetCCMOVMSK()
47057 if (VecVT.is256BitVector() && NumElts <= CmpBits && IsOneUse) { in combineSetCCMOVMSK()
48344 ShuffleOps[0].getValueType().is256BitVector() && in combineHorizOpWithShuffle()
48418 if (VT.is256BitVector() && Subtarget.hasInt256()) { in combineHorizOpWithShuffle()
48426 [](SDValue Op) { return Op.getValueType().is256BitVector(); }) && in combineHorizOpWithShuffle()
48428 [](SDValue Op) { return Op.getValueType().is256BitVector(); }) && in combineHorizOpWithShuffle()
48992 if (!VT.is128BitVector() && !VT.is256BitVector() && !VT.is512BitVector()) in combineAndNotIntoANDNP()
49027 ((VT.is256BitVector() || VT.is512BitVector()) && Subtarget.hasAVX()))) in combineAndShuffleNot()
50227 (VT.is256BitVector() && Subtarget.hasInt256()))) in combineLogicBlendIntoPBLENDV()
50261 MVT BlendVT = VT.is256BitVector() ? MVT::v32i8 : MVT::v16i8; in combineLogicBlendIntoPBLENDV()
51150 if (!(RegVT.is128BitVector() || RegVT.is256BitVector())) in combineConstantPoolLoads()
51226 if (RegVT.is256BitVector() && !DCI.isBeforeLegalizeOps() && in combineLoad()
51277 (RegVT.is128BitVector() || RegVT.is256BitVector())) { in combineLoad()
51687 if (VT.is256BitVector() && StVT == VT && in combineStore()
51703 if (VT.is256BitVector() || VT.is512BitVector()) { in combineStore()
51928 assert((VT.is128BitVector() || VT.is256BitVector()) && in isHorizontalBinOp()
51936 Op.getOperand(0).getValueType().is256BitVector() && in isHorizontalBinOp()
52457 !(Subtarget.hasAVX512() && !Subtarget.hasBWI() && VT.is256BitVector()) && in combinePMULH()
56098 (VT.is256BitVector() || (VT.is512BitVector() && Subtarget.hasAVX512()))) { in combineConcatVectorOps()
56148 if (VT.is256BitVector() && NumOps == 2) { in combineConcatVectorOps()
56157 if (SrcVT0.is256BitVector() && SrcVT1.is256BitVector() && in combineConcatVectorOps()
56249 ((VT.is256BitVector() && Subtarget.hasInt256()) || in combineConcatVectorOps()
56266 if (!IsSplat && NumOps == 2 && VT.is256BitVector() && in combineConcatVectorOps()
56274 (VT.is256BitVector() || in combineConcatVectorOps()
56298 if (!IsSplat && ((VT.is256BitVector() && Subtarget.hasInt256()) || in combineConcatVectorOps()
56404 if (!IsSplat && NumOps == 2 && VT.is256BitVector()) { in combineConcatVectorOps()
56406 if (SrcVT.is256BitVector() && SrcVT.isSimple() && in combineConcatVectorOps()
56441 if (((VT.is256BitVector() && Subtarget.hasInt256()) || in combineConcatVectorOps()
56466 if (!IsSplat && ((VT.is256BitVector() && Subtarget.hasInt256()) || in combineConcatVectorOps()
56475 if (!IsSplat && VT.is256BitVector() && in combineConcatVectorOps()
56526 if (!IsSplat && ((VT.is256BitVector() && Subtarget.hasInt256()) || in combineConcatVectorOps()
56534 (VT.is256BitVector() || in combineConcatVectorOps()
56547 if (!IsSplat && ((VT.is256BitVector() && Subtarget.hasInt256()) || in combineConcatVectorOps()
56562 (VT.is256BitVector() || in combineConcatVectorOps()
56570 if (!IsSplat && (VT.is256BitVector() || in combineConcatVectorOps()
56581 if (!IsSplat && VT.is256BitVector() && in combineConcatVectorOps()
56590 if (!IsSplat && ((VT.is256BitVector() && Subtarget.hasInt256()) || in combineConcatVectorOps()
56602 ((VT.is256BitVector() && Subtarget.hasInt256()) || in combineConcatVectorOps()
56632 (VT.is256BitVector() || in combineConcatVectorOps()
56648 if (!IsSplat && VT.is256BitVector() && NumOps == 2 && in combineConcatVectorOps()
56708 (VT.is256BitVector() || (VT.is512BitVector() && Subtarget.hasAVX512()))) { in combineConcatVectorOps()
56951 if (!SelCondVT.is256BitVector() && !SelCondVT.is512BitVector()) in narrowExtractedVectorSelect()
56956 assert((SelVT.is256BitVector() || SelVT.is512BitVector()) && in narrowExtractedVectorSelect()
57152 InVec.getOperand(0).getValueType().is256BitVector() && in combineEXTRACT_SUBVECTOR()
57153 InVec.getOperand(1).getValueType().is256BitVector() && in combineEXTRACT_SUBVECTOR()
57154 InVec.getOperand(2).getValueType().is256BitVector()) { in combineEXTRACT_SUBVECTOR()