Lines Matching refs:AMDGPUCodeGenPrepareImpl
98 class AMDGPUCodeGenPrepareImpl class
99 : public InstVisitor<AMDGPUCodeGenPrepareImpl, bool> {
325 AMDGPUCodeGenPrepareImpl Impl;
348 bool AMDGPUCodeGenPrepareImpl::run(Function &F) { in run()
377 unsigned AMDGPUCodeGenPrepareImpl::getBaseElementBitWidth(const Type *T) const { in getBaseElementBitWidth()
385 Type *AMDGPUCodeGenPrepareImpl::getI32Ty(IRBuilder<> &B, const Type *T) const { in getI32Ty()
393 bool AMDGPUCodeGenPrepareImpl::isSigned(const BinaryOperator &I) const { in isSigned()
398 bool AMDGPUCodeGenPrepareImpl::isSigned(const SelectInst &I) const { in isSigned()
403 bool AMDGPUCodeGenPrepareImpl::needsPromotionToI32(const Type *T) const { in needsPromotionToI32()
423 bool AMDGPUCodeGenPrepareImpl::isLegalFloatingTy(const Type *Ty) const { in isLegalFloatingTy()
456 bool AMDGPUCodeGenPrepareImpl::canWidenScalarExtLoad(LoadInst &I) const { in canWidenScalarExtLoad()
465 bool AMDGPUCodeGenPrepareImpl::promoteUniformOpToI32(BinaryOperator &I) const { in promoteUniformOpToI32()
512 bool AMDGPUCodeGenPrepareImpl::promoteUniformOpToI32(ICmpInst &I) const { in promoteUniformOpToI32()
539 bool AMDGPUCodeGenPrepareImpl::promoteUniformOpToI32(SelectInst &I) const { in promoteUniformOpToI32()
568 bool AMDGPUCodeGenPrepareImpl::promoteUniformBitreverseToI32( in promoteUniformBitreverseToI32()
594 unsigned AMDGPUCodeGenPrepareImpl::numBitsUnsigned(Value *Op) const { in numBitsUnsigned()
598 unsigned AMDGPUCodeGenPrepareImpl::numBitsSigned(Value *Op) const { in numBitsSigned()
629 bool AMDGPUCodeGenPrepareImpl::replaceMulWithMul24(BinaryOperator &I) const { in replaceMulWithMul24()
707 bool AMDGPUCodeGenPrepareImpl::foldBinOpIntoSelect(BinaryOperator &BO) const { in foldBinOpIntoSelect()
769 AMDGPUCodeGenPrepareImpl::getFrexpResults(IRBuilder<> &Builder, in getFrexpResults()
789 Value *AMDGPUCodeGenPrepareImpl::emitRcpIEEE1ULP(IRBuilder<> &Builder, in emitRcpIEEE1ULP()
813 Value *AMDGPUCodeGenPrepareImpl::emitFrexpDiv(IRBuilder<> &Builder, Value *LHS, in emitFrexpDiv()
840 Value *AMDGPUCodeGenPrepareImpl::emitSqrtIEEE2ULP(IRBuilder<> &Builder, in emitSqrtIEEE2ULP()
890 bool AMDGPUCodeGenPrepareImpl::canOptimizeWithRsq(const FPMathOperator *SqrtOp, in canOptimizeWithRsq()
902 Value *AMDGPUCodeGenPrepareImpl::optimizeWithRsq( in optimizeWithRsq()
945 AMDGPUCodeGenPrepareImpl::optimizeWithRcp(IRBuilder<> &Builder, Value *Num, in optimizeWithRcp()
1008 Value *AMDGPUCodeGenPrepareImpl::optimizeWithFDivFast( in optimizeWithFDivFast()
1033 Value *AMDGPUCodeGenPrepareImpl::visitFDivElement( in visitFDivElement()
1074 bool AMDGPUCodeGenPrepareImpl::visitFDiv(BinaryOperator &FDiv) { in visitFDiv()
1193 int AMDGPUCodeGenPrepareImpl::getDivNumBits(BinaryOperator &I, Value *Num, in getDivNumBits()
1214 Value *AMDGPUCodeGenPrepareImpl::expandDivRem24(IRBuilder<> &Builder, in expandDivRem24()
1227 Value *AMDGPUCodeGenPrepareImpl::expandDivRem24Impl( in expandDivRem24Impl()
1329 bool AMDGPUCodeGenPrepareImpl::divHasSpecialOptimization(BinaryOperator &I, in divHasSpecialOptimization()
1372 Value *AMDGPUCodeGenPrepareImpl::expandDivRem32(IRBuilder<> &Builder, in expandDivRem32()
1497 Value *AMDGPUCodeGenPrepareImpl::shrinkDivRem64(IRBuilder<> &Builder, in shrinkDivRem64()
1528 void AMDGPUCodeGenPrepareImpl::expandDivRem64(BinaryOperator &I) const { in expandDivRem64()
1544 bool AMDGPUCodeGenPrepareImpl::visitBinaryOperator(BinaryOperator &I) { in visitBinaryOperator()
1631 bool AMDGPUCodeGenPrepareImpl::visitLoadInst(LoadInst &I) { in visitLoadInst()
1677 bool AMDGPUCodeGenPrepareImpl::visitICmpInst(ICmpInst &I) { in visitICmpInst()
1687 bool AMDGPUCodeGenPrepareImpl::visitSelectInst(SelectInst &I) { in visitSelectInst()
1812 bool AMDGPUCodeGenPrepareImpl::canBreakPHINode(const PHINode &I) { in canBreakPHINode()
1937 bool AMDGPUCodeGenPrepareImpl::visitPHINode(PHINode &I) { in visitPHINode()
2060 bool AMDGPUCodeGenPrepareImpl::visitAddrSpaceCastInst(AddrSpaceCastInst &I) { in visitAddrSpaceCastInst()
2097 bool AMDGPUCodeGenPrepareImpl::visitIntrinsicInst(IntrinsicInst &I) { in visitIntrinsicInst()
2110 bool AMDGPUCodeGenPrepareImpl::visitBitreverseIntrinsicInst(IntrinsicInst &I) { in visitBitreverseIntrinsicInst()
2125 Value *AMDGPUCodeGenPrepareImpl::matchFractPat(IntrinsicInst &I) { in matchFractPat()
2159 Value *AMDGPUCodeGenPrepareImpl::applyFractPat(IRBuilder<> &Builder, in applyFractPat()
2175 bool AMDGPUCodeGenPrepareImpl::visitMinNum(IntrinsicInst &I) { in visitMinNum()
2205 bool AMDGPUCodeGenPrepareImpl::visitSqrt(IntrinsicInst &Sqrt) { in visitSqrt()
2296 AMDGPUCodeGenPrepareImpl Impl; in run()