1 /* SPDX-License-Identifier: GPL-2.0 */ 2 /* 3 * Synopsys DesignWare PCIe host controller driver 4 * 5 * Copyright (C) 2013 Samsung Electronics Co., Ltd. 6 * https://www.samsung.com 7 * 8 * Author: Jingoo Han <jg1.han@samsung.com> 9 */ 10 11 #ifndef _PCIE_DESIGNWARE_H 12 #define _PCIE_DESIGNWARE_H 13 14 #include <linux/bitfield.h> 15 #include <linux/bitops.h> 16 #include <linux/clk.h> 17 #include <linux/dma-mapping.h> 18 #include <linux/dma/edma.h> 19 #include <linux/gpio/consumer.h> 20 #include <linux/irq.h> 21 #include <linux/msi.h> 22 #include <linux/pci.h> 23 #include <linux/reset.h> 24 25 #include <linux/pci-epc.h> 26 #include <linux/pci-epf.h> 27 28 /* DWC PCIe IP-core versions (native support since v4.70a) */ 29 #define DW_PCIE_VER_365A 0x3336352a 30 #define DW_PCIE_VER_460A 0x3436302a 31 #define DW_PCIE_VER_470A 0x3437302a 32 #define DW_PCIE_VER_480A 0x3438302a 33 #define DW_PCIE_VER_490A 0x3439302a 34 #define DW_PCIE_VER_520A 0x3532302a 35 #define DW_PCIE_VER_540A 0x3534302a 36 37 #define __dw_pcie_ver_cmp(_pci, _ver, _op) \ 38 ((_pci)->version _op DW_PCIE_VER_ ## _ver) 39 40 #define dw_pcie_ver_is(_pci, _ver) __dw_pcie_ver_cmp(_pci, _ver, ==) 41 42 #define dw_pcie_ver_is_ge(_pci, _ver) __dw_pcie_ver_cmp(_pci, _ver, >=) 43 44 #define dw_pcie_ver_type_is(_pci, _ver, _type) \ 45 (__dw_pcie_ver_cmp(_pci, _ver, ==) && \ 46 __dw_pcie_ver_cmp(_pci, TYPE_ ## _type, ==)) 47 48 #define dw_pcie_ver_type_is_ge(_pci, _ver, _type) \ 49 (__dw_pcie_ver_cmp(_pci, _ver, ==) && \ 50 __dw_pcie_ver_cmp(_pci, TYPE_ ## _type, >=)) 51 52 /* DWC PCIe controller capabilities */ 53 #define DW_PCIE_CAP_REQ_RES 0 54 #define DW_PCIE_CAP_EDMA_UNROLL 1 55 #define DW_PCIE_CAP_IATU_UNROLL 2 56 #define DW_PCIE_CAP_CDM_CHECK 3 57 58 #define dw_pcie_cap_is(_pci, _cap) \ 59 test_bit(DW_PCIE_CAP_ ## _cap, &(_pci)->caps) 60 61 #define dw_pcie_cap_set(_pci, _cap) \ 62 set_bit(DW_PCIE_CAP_ ## _cap, &(_pci)->caps) 63 64 /* Parameters for the waiting for link up routine */ 65 #define LINK_WAIT_MAX_RETRIES 10 66 #define LINK_WAIT_USLEEP_MIN 90000 67 #define LINK_WAIT_USLEEP_MAX 100000 68 69 /* Parameters for the waiting for iATU enabled routine */ 70 #define LINK_WAIT_MAX_IATU_RETRIES 5 71 #define LINK_WAIT_IATU 9 72 73 /* Synopsys-specific PCIe configuration registers */ 74 #define PCIE_PORT_AFR 0x70C 75 #define PORT_AFR_N_FTS_MASK GENMASK(15, 8) 76 #define PORT_AFR_N_FTS(n) FIELD_PREP(PORT_AFR_N_FTS_MASK, n) 77 #define PORT_AFR_CC_N_FTS_MASK GENMASK(23, 16) 78 #define PORT_AFR_CC_N_FTS(n) FIELD_PREP(PORT_AFR_CC_N_FTS_MASK, n) 79 #define PORT_AFR_ENTER_ASPM BIT(30) 80 #define PORT_AFR_L0S_ENTRANCE_LAT_SHIFT 24 81 #define PORT_AFR_L0S_ENTRANCE_LAT_MASK GENMASK(26, 24) 82 #define PORT_AFR_L1_ENTRANCE_LAT_SHIFT 27 83 #define PORT_AFR_L1_ENTRANCE_LAT_MASK GENMASK(29, 27) 84 85 #define PCIE_PORT_LINK_CONTROL 0x710 86 #define PORT_LINK_DLL_LINK_EN BIT(5) 87 #define PORT_LINK_FAST_LINK_MODE BIT(7) 88 #define PORT_LINK_MODE_MASK GENMASK(21, 16) 89 #define PORT_LINK_MODE(n) FIELD_PREP(PORT_LINK_MODE_MASK, n) 90 #define PORT_LINK_MODE_1_LANES PORT_LINK_MODE(0x1) 91 #define PORT_LINK_MODE_2_LANES PORT_LINK_MODE(0x3) 92 #define PORT_LINK_MODE_4_LANES PORT_LINK_MODE(0x7) 93 #define PORT_LINK_MODE_8_LANES PORT_LINK_MODE(0xf) 94 95 #define PCIE_PORT_DEBUG0 0x728 96 #define PORT_LOGIC_LTSSM_STATE_MASK 0x1f 97 #define PORT_LOGIC_LTSSM_STATE_L0 0x11 98 #define PCIE_PORT_DEBUG1 0x72C 99 #define PCIE_PORT_DEBUG1_LINK_UP BIT(4) 100 #define PCIE_PORT_DEBUG1_LINK_IN_TRAINING BIT(29) 101 102 #define PCIE_LINK_WIDTH_SPEED_CONTROL 0x80C 103 #define PORT_LOGIC_N_FTS_MASK GENMASK(7, 0) 104 #define PORT_LOGIC_SPEED_CHANGE BIT(17) 105 #define PORT_LOGIC_LINK_WIDTH_MASK GENMASK(12, 8) 106 #define PORT_LOGIC_LINK_WIDTH(n) FIELD_PREP(PORT_LOGIC_LINK_WIDTH_MASK, n) 107 #define PORT_LOGIC_LINK_WIDTH_1_LANES PORT_LOGIC_LINK_WIDTH(0x1) 108 #define PORT_LOGIC_LINK_WIDTH_2_LANES PORT_LOGIC_LINK_WIDTH(0x2) 109 #define PORT_LOGIC_LINK_WIDTH_4_LANES PORT_LOGIC_LINK_WIDTH(0x4) 110 #define PORT_LOGIC_LINK_WIDTH_8_LANES PORT_LOGIC_LINK_WIDTH(0x8) 111 112 #define PCIE_MSI_ADDR_LO 0x820 113 #define PCIE_MSI_ADDR_HI 0x824 114 #define PCIE_MSI_INTR0_ENABLE 0x828 115 #define PCIE_MSI_INTR0_MASK 0x82C 116 #define PCIE_MSI_INTR0_STATUS 0x830 117 118 #define GEN3_RELATED_OFF 0x890 119 #define GEN3_RELATED_OFF_GEN3_ZRXDC_NONCOMPL BIT(0) 120 #define GEN3_RELATED_OFF_RXEQ_RGRDLESS_RXTS BIT(13) 121 #define GEN3_RELATED_OFF_GEN3_EQ_DISABLE BIT(16) 122 #define GEN3_RELATED_OFF_RATE_SHADOW_SEL_SHIFT 24 123 #define GEN3_RELATED_OFF_RATE_SHADOW_SEL_MASK GENMASK(25, 24) 124 125 #define PCIE_PORT_MULTI_LANE_CTRL 0x8C0 126 #define PORT_MLTI_UPCFG_SUPPORT BIT(7) 127 128 #define PCIE_VERSION_NUMBER 0x8F8 129 #define PCIE_VERSION_TYPE 0x8FC 130 131 /* 132 * iATU inbound and outbound windows CSRs. Before the IP-core v4.80a each 133 * iATU region CSRs had been indirectly accessible by means of the dedicated 134 * viewport selector. The iATU/eDMA CSRs space was re-designed in DWC PCIe 135 * v4.80a in a way so the viewport was unrolled into the directly accessible 136 * iATU/eDMA CSRs space. 137 */ 138 #define PCIE_ATU_VIEWPORT 0x900 139 #define PCIE_ATU_REGION_DIR_IB BIT(31) 140 #define PCIE_ATU_REGION_DIR_OB 0 141 #define PCIE_ATU_VIEWPORT_BASE 0x904 142 #define PCIE_ATU_UNROLL_BASE(dir, index) \ 143 (((index) << 9) | ((dir == PCIE_ATU_REGION_DIR_IB) ? BIT(8) : 0)) 144 #define PCIE_ATU_VIEWPORT_SIZE 0x2C 145 #define PCIE_ATU_REGION_CTRL1 0x000 146 #define PCIE_ATU_INCREASE_REGION_SIZE BIT(13) 147 #define PCIE_ATU_TYPE_MEM 0x0 148 #define PCIE_ATU_TYPE_IO 0x2 149 #define PCIE_ATU_TYPE_CFG0 0x4 150 #define PCIE_ATU_TYPE_CFG1 0x5 151 #define PCIE_ATU_TD BIT(8) 152 #define PCIE_ATU_FUNC_NUM(pf) ((pf) << 20) 153 #define PCIE_ATU_REGION_CTRL2 0x004 154 #define PCIE_ATU_ENABLE BIT(31) 155 #define PCIE_ATU_BAR_MODE_ENABLE BIT(30) 156 #define PCIE_ATU_FUNC_NUM_MATCH_EN BIT(19) 157 #define PCIE_ATU_LOWER_BASE 0x008 158 #define PCIE_ATU_UPPER_BASE 0x00C 159 #define PCIE_ATU_LIMIT 0x010 160 #define PCIE_ATU_LOWER_TARGET 0x014 161 #define PCIE_ATU_BUS(x) FIELD_PREP(GENMASK(31, 24), x) 162 #define PCIE_ATU_DEV(x) FIELD_PREP(GENMASK(23, 19), x) 163 #define PCIE_ATU_FUNC(x) FIELD_PREP(GENMASK(18, 16), x) 164 #define PCIE_ATU_UPPER_TARGET 0x018 165 #define PCIE_ATU_UPPER_LIMIT 0x020 166 167 #define PCIE_MISC_CONTROL_1_OFF 0x8BC 168 #define PCIE_DBI_RO_WR_EN BIT(0) 169 170 #define PCIE_MSIX_DOORBELL 0x948 171 #define PCIE_MSIX_DOORBELL_PF_SHIFT 24 172 173 /* 174 * eDMA CSRs. DW PCIe IP-core v4.70a and older had the eDMA registers accessible 175 * over the Port Logic registers space. Afterwards the unrolled mapping was 176 * introduced so eDMA and iATU could be accessed via a dedicated registers 177 * space. 178 */ 179 #define PCIE_DMA_VIEWPORT_BASE 0x970 180 #define PCIE_DMA_UNROLL_BASE 0x80000 181 #define PCIE_DMA_CTRL 0x008 182 #define PCIE_DMA_NUM_WR_CHAN GENMASK(3, 0) 183 #define PCIE_DMA_NUM_RD_CHAN GENMASK(19, 16) 184 185 #define PCIE_PL_CHK_REG_CONTROL_STATUS 0xB20 186 #define PCIE_PL_CHK_REG_CHK_REG_START BIT(0) 187 #define PCIE_PL_CHK_REG_CHK_REG_CONTINUOUS BIT(1) 188 #define PCIE_PL_CHK_REG_CHK_REG_COMPARISON_ERROR BIT(16) 189 #define PCIE_PL_CHK_REG_CHK_REG_LOGIC_ERROR BIT(17) 190 #define PCIE_PL_CHK_REG_CHK_REG_COMPLETE BIT(18) 191 192 #define PCIE_PL_CHK_REG_ERR_ADDR 0xB28 193 194 /* 195 * iATU Unroll-specific register definitions 196 * From 4.80 core version the address translation will be made by unroll 197 */ 198 #define PCIE_ATU_UNR_REGION_CTRL1 0x00 199 #define PCIE_ATU_UNR_REGION_CTRL2 0x04 200 #define PCIE_ATU_UNR_LOWER_BASE 0x08 201 #define PCIE_ATU_UNR_UPPER_BASE 0x0C 202 #define PCIE_ATU_UNR_LOWER_LIMIT 0x10 203 #define PCIE_ATU_UNR_LOWER_TARGET 0x14 204 #define PCIE_ATU_UNR_UPPER_TARGET 0x18 205 #define PCIE_ATU_UNR_UPPER_LIMIT 0x20 206 207 /* 208 * RAS-DES register definitions 209 */ 210 #define PCIE_RAS_DES_EVENT_COUNTER_CONTROL 0x8 211 #define EVENT_COUNTER_ALL_CLEAR 0x3 212 #define EVENT_COUNTER_ENABLE_ALL 0x7 213 #define EVENT_COUNTER_ENABLE_SHIFT 2 214 #define EVENT_COUNTER_EVENT_SEL_MASK GENMASK(7, 0) 215 #define EVENT_COUNTER_EVENT_SEL_SHIFT 16 216 #define EVENT_COUNTER_EVENT_Tx_L0S 0x2 217 #define EVENT_COUNTER_EVENT_Rx_L0S 0x3 218 #define EVENT_COUNTER_EVENT_L1 0x5 219 #define EVENT_COUNTER_EVENT_L1_1 0x7 220 #define EVENT_COUNTER_EVENT_L1_2 0x8 221 #define EVENT_COUNTER_GROUP_SEL_SHIFT 24 222 #define EVENT_COUNTER_GROUP_5 0x5 223 224 #define PCIE_RAS_DES_EVENT_COUNTER_DATA 0xc 225 226 /* 227 * The default address offset between dbi_base and atu_base. Root controller 228 * drivers are not required to initialize atu_base if the offset matches this 229 * default; the driver core automatically derives atu_base from dbi_base using 230 * this offset, if atu_base not set. 231 */ 232 #define DEFAULT_DBI_ATU_OFFSET (0x3 << 20) 233 #define DEFAULT_DBI_DMA_OFFSET PCIE_DMA_UNROLL_BASE 234 235 #define MAX_MSI_IRQS 256 236 #define MAX_MSI_IRQS_PER_CTRL 32 237 #define MAX_MSI_CTRLS (MAX_MSI_IRQS / MAX_MSI_IRQS_PER_CTRL) 238 #define MSI_REG_CTRL_BLOCK_SIZE 12 239 #define MSI_DEF_NUM_VECTORS 32 240 241 /* Maximum number of inbound/outbound iATUs */ 242 #define MAX_IATU_IN 256 243 #define MAX_IATU_OUT 256 244 245 /* Default eDMA LLP memory size */ 246 #define DMA_LLP_MEM_SIZE PAGE_SIZE 247 248 struct dw_pcie; 249 struct dw_pcie_rp; 250 struct dw_pcie_ep; 251 252 enum dw_pcie_device_mode { 253 DW_PCIE_UNKNOWN_TYPE, 254 DW_PCIE_EP_TYPE, 255 DW_PCIE_LEG_EP_TYPE, 256 DW_PCIE_RC_TYPE, 257 }; 258 259 enum dw_pcie_app_clk { 260 DW_PCIE_DBI_CLK, 261 DW_PCIE_MSTR_CLK, 262 DW_PCIE_SLV_CLK, 263 DW_PCIE_NUM_APP_CLKS 264 }; 265 266 enum dw_pcie_core_clk { 267 DW_PCIE_PIPE_CLK, 268 DW_PCIE_CORE_CLK, 269 DW_PCIE_AUX_CLK, 270 DW_PCIE_REF_CLK, 271 DW_PCIE_NUM_CORE_CLKS 272 }; 273 274 enum dw_pcie_app_rst { 275 DW_PCIE_DBI_RST, 276 DW_PCIE_MSTR_RST, 277 DW_PCIE_SLV_RST, 278 DW_PCIE_NUM_APP_RSTS 279 }; 280 281 enum dw_pcie_core_rst { 282 DW_PCIE_NON_STICKY_RST, 283 DW_PCIE_STICKY_RST, 284 DW_PCIE_CORE_RST, 285 DW_PCIE_PIPE_RST, 286 DW_PCIE_PHY_RST, 287 DW_PCIE_HOT_RST, 288 DW_PCIE_PWR_RST, 289 DW_PCIE_NUM_CORE_RSTS 290 }; 291 292 enum dw_pcie_ltssm { 293 /* Need to align with PCIE_PORT_DEBUG0 bits 0:5 */ 294 DW_PCIE_LTSSM_DETECT_QUIET = 0x0, 295 DW_PCIE_LTSSM_DETECT_ACT = 0x1, 296 DW_PCIE_LTSSM_L0 = 0x11, 297 DW_PCIE_LTSSM_L2_IDLE = 0x15, 298 299 DW_PCIE_LTSSM_UNKNOWN = 0xFFFFFFFF, 300 }; 301 302 struct dw_pcie_host_ops { 303 int (*init)(struct dw_pcie_rp *pp); 304 void (*deinit)(struct dw_pcie_rp *pp); 305 void (*post_init)(struct dw_pcie_rp *pp); 306 int (*msi_init)(struct dw_pcie_rp *pp); 307 void (*pme_turn_off)(struct dw_pcie_rp *pp); 308 }; 309 310 struct dw_pcie_rp { 311 bool has_msi_ctrl:1; 312 bool cfg0_io_shared:1; 313 u64 cfg0_base; 314 void __iomem *va_cfg0_base; 315 u32 cfg0_size; 316 resource_size_t io_base; 317 phys_addr_t io_bus_addr; 318 u32 io_size; 319 int irq; 320 const struct dw_pcie_host_ops *ops; 321 int msi_irq[MAX_MSI_CTRLS]; 322 struct irq_domain *irq_domain; 323 struct irq_domain *msi_domain; 324 dma_addr_t msi_data; 325 struct irq_chip *msi_irq_chip; 326 u32 num_vectors; 327 u32 irq_mask[MAX_MSI_CTRLS]; 328 struct pci_host_bridge *bridge; 329 raw_spinlock_t lock; 330 DECLARE_BITMAP(msi_irq_in_use, MAX_MSI_IRQS); 331 }; 332 333 struct dw_pcie_ep_ops { 334 void (*pre_init)(struct dw_pcie_ep *ep); 335 void (*init)(struct dw_pcie_ep *ep); 336 void (*deinit)(struct dw_pcie_ep *ep); 337 int (*raise_irq)(struct dw_pcie_ep *ep, u8 func_no, 338 unsigned int type, u16 interrupt_num); 339 const struct pci_epc_features* (*get_features)(struct dw_pcie_ep *ep); 340 /* 341 * Provide a method to implement the different func config space 342 * access for different platform, if different func have different 343 * offset, return the offset of func. if use write a register way 344 * return a 0, and implement code in callback function of platform 345 * driver. 346 */ 347 unsigned int (*get_dbi_offset)(struct dw_pcie_ep *ep, u8 func_no); 348 unsigned int (*get_dbi2_offset)(struct dw_pcie_ep *ep, u8 func_no); 349 }; 350 351 struct dw_pcie_ep_func { 352 struct list_head list; 353 u8 func_no; 354 u8 msi_cap; /* MSI capability offset */ 355 u8 msix_cap; /* MSI-X capability offset */ 356 }; 357 358 struct dw_pcie_ep { 359 struct pci_epc *epc; 360 struct list_head func_list; 361 const struct dw_pcie_ep_ops *ops; 362 phys_addr_t phys_base; 363 size_t addr_size; 364 size_t page_size; 365 u8 bar_to_atu[PCI_STD_NUM_BARS]; 366 phys_addr_t *outbound_addr; 367 unsigned long *ib_window_map; 368 unsigned long *ob_window_map; 369 void __iomem *msi_mem; 370 phys_addr_t msi_mem_phys; 371 struct pci_epf_bar *epf_bar[PCI_STD_NUM_BARS]; 372 }; 373 374 struct dw_pcie_ops { 375 u64 (*cpu_addr_fixup)(struct dw_pcie *pcie, u64 cpu_addr); 376 u32 (*read_dbi)(struct dw_pcie *pcie, void __iomem *base, u32 reg, 377 size_t size); 378 void (*write_dbi)(struct dw_pcie *pcie, void __iomem *base, u32 reg, 379 size_t size, u32 val); 380 void (*write_dbi2)(struct dw_pcie *pcie, void __iomem *base, u32 reg, 381 size_t size, u32 val); 382 int (*link_up)(struct dw_pcie *pcie); 383 enum dw_pcie_ltssm (*get_ltssm)(struct dw_pcie *pcie); 384 int (*start_link)(struct dw_pcie *pcie); 385 void (*stop_link)(struct dw_pcie *pcie); 386 }; 387 388 struct dw_pcie { 389 struct device *dev; 390 void __iomem *dbi_base; 391 void __iomem *dbi_base2; 392 void __iomem *atu_base; 393 size_t atu_size; 394 u32 num_ib_windows; 395 u32 num_ob_windows; 396 u32 region_align; 397 u64 region_limit; 398 struct dw_pcie_rp pp; 399 struct dw_pcie_ep ep; 400 const struct dw_pcie_ops *ops; 401 u32 version; 402 u32 type; 403 unsigned long caps; 404 int num_lanes; 405 int link_gen; 406 u8 n_fts[2]; 407 struct dw_edma_chip edma; 408 struct clk_bulk_data app_clks[DW_PCIE_NUM_APP_CLKS]; 409 struct clk_bulk_data core_clks[DW_PCIE_NUM_CORE_CLKS]; 410 struct reset_control_bulk_data app_rsts[DW_PCIE_NUM_APP_RSTS]; 411 struct reset_control_bulk_data core_rsts[DW_PCIE_NUM_CORE_RSTS]; 412 struct gpio_desc *pe_rst; 413 bool suspended; 414 }; 415 416 #define to_dw_pcie_from_pp(port) container_of((port), struct dw_pcie, pp) 417 418 #define to_dw_pcie_from_ep(endpoint) \ 419 container_of((endpoint), struct dw_pcie, ep) 420 421 int dw_pcie_get_resources(struct dw_pcie *pci); 422 423 void dw_pcie_version_detect(struct dw_pcie *pci); 424 425 u8 dw_pcie_find_capability(struct dw_pcie *pci, u8 cap); 426 u16 dw_pcie_find_ext_capability(struct dw_pcie *pci, u8 cap); 427 428 int dw_pcie_read(void __iomem *addr, int size, u32 *val); 429 int dw_pcie_write(void __iomem *addr, int size, u32 val); 430 431 u32 dw_pcie_read_dbi(struct dw_pcie *pci, u32 reg, size_t size); 432 void dw_pcie_write_dbi(struct dw_pcie *pci, u32 reg, size_t size, u32 val); 433 void dw_pcie_write_dbi2(struct dw_pcie *pci, u32 reg, size_t size, u32 val); 434 int dw_pcie_link_up(struct dw_pcie *pci); 435 void dw_pcie_upconfig_setup(struct dw_pcie *pci); 436 int dw_pcie_wait_for_link(struct dw_pcie *pci); 437 int dw_pcie_prog_outbound_atu(struct dw_pcie *pci, int index, int type, 438 u64 cpu_addr, u64 pci_addr, u64 size); 439 int dw_pcie_prog_ep_outbound_atu(struct dw_pcie *pci, u8 func_no, int index, 440 int type, u64 cpu_addr, u64 pci_addr, u64 size); 441 int dw_pcie_prog_inbound_atu(struct dw_pcie *pci, int index, int type, 442 u64 cpu_addr, u64 pci_addr, u64 size); 443 int dw_pcie_prog_ep_inbound_atu(struct dw_pcie *pci, u8 func_no, int index, 444 int type, u64 cpu_addr, u8 bar); 445 void dw_pcie_disable_atu(struct dw_pcie *pci, u32 dir, int index); 446 void dw_pcie_setup(struct dw_pcie *pci); 447 void dw_pcie_iatu_detect(struct dw_pcie *pci); 448 int dw_pcie_edma_detect(struct dw_pcie *pci); 449 void dw_pcie_edma_remove(struct dw_pcie *pci); 450 451 int dw_pcie_suspend_noirq(struct dw_pcie *pci); 452 int dw_pcie_resume_noirq(struct dw_pcie *pci); 453 454 static inline void dw_pcie_writel_dbi(struct dw_pcie *pci, u32 reg, u32 val) 455 { 456 dw_pcie_write_dbi(pci, reg, 0x4, val); 457 } 458 459 static inline u32 dw_pcie_readl_dbi(struct dw_pcie *pci, u32 reg) 460 { 461 return dw_pcie_read_dbi(pci, reg, 0x4); 462 } 463 464 static inline void dw_pcie_writew_dbi(struct dw_pcie *pci, u32 reg, u16 val) 465 { 466 dw_pcie_write_dbi(pci, reg, 0x2, val); 467 } 468 469 static inline u16 dw_pcie_readw_dbi(struct dw_pcie *pci, u32 reg) 470 { 471 return dw_pcie_read_dbi(pci, reg, 0x2); 472 } 473 474 static inline void dw_pcie_writeb_dbi(struct dw_pcie *pci, u32 reg, u8 val) 475 { 476 dw_pcie_write_dbi(pci, reg, 0x1, val); 477 } 478 479 static inline u8 dw_pcie_readb_dbi(struct dw_pcie *pci, u32 reg) 480 { 481 return dw_pcie_read_dbi(pci, reg, 0x1); 482 } 483 484 static inline void dw_pcie_writel_dbi2(struct dw_pcie *pci, u32 reg, u32 val) 485 { 486 dw_pcie_write_dbi2(pci, reg, 0x4, val); 487 } 488 489 static inline unsigned int dw_pcie_ep_get_dbi_offset(struct dw_pcie_ep *ep, 490 u8 func_no) 491 { 492 unsigned int dbi_offset = 0; 493 494 if (ep->ops->get_dbi_offset) 495 dbi_offset = ep->ops->get_dbi_offset(ep, func_no); 496 497 return dbi_offset; 498 } 499 500 static inline u32 dw_pcie_ep_read_dbi(struct dw_pcie_ep *ep, u8 func_no, 501 u32 reg, size_t size) 502 { 503 unsigned int offset = dw_pcie_ep_get_dbi_offset(ep, func_no); 504 struct dw_pcie *pci = to_dw_pcie_from_ep(ep); 505 506 return dw_pcie_read_dbi(pci, offset + reg, size); 507 } 508 509 static inline void dw_pcie_ep_write_dbi(struct dw_pcie_ep *ep, u8 func_no, 510 u32 reg, size_t size, u32 val) 511 { 512 unsigned int offset = dw_pcie_ep_get_dbi_offset(ep, func_no); 513 struct dw_pcie *pci = to_dw_pcie_from_ep(ep); 514 515 dw_pcie_write_dbi(pci, offset + reg, size, val); 516 } 517 518 static inline void dw_pcie_ep_writel_dbi(struct dw_pcie_ep *ep, u8 func_no, 519 u32 reg, u32 val) 520 { 521 dw_pcie_ep_write_dbi(ep, func_no, reg, 0x4, val); 522 } 523 524 static inline u32 dw_pcie_ep_readl_dbi(struct dw_pcie_ep *ep, u8 func_no, 525 u32 reg) 526 { 527 return dw_pcie_ep_read_dbi(ep, func_no, reg, 0x4); 528 } 529 530 static inline void dw_pcie_ep_writew_dbi(struct dw_pcie_ep *ep, u8 func_no, 531 u32 reg, u16 val) 532 { 533 dw_pcie_ep_write_dbi(ep, func_no, reg, 0x2, val); 534 } 535 536 static inline u16 dw_pcie_ep_readw_dbi(struct dw_pcie_ep *ep, u8 func_no, 537 u32 reg) 538 { 539 return dw_pcie_ep_read_dbi(ep, func_no, reg, 0x2); 540 } 541 542 static inline void dw_pcie_ep_writeb_dbi(struct dw_pcie_ep *ep, u8 func_no, 543 u32 reg, u8 val) 544 { 545 dw_pcie_ep_write_dbi(ep, func_no, reg, 0x1, val); 546 } 547 548 static inline u8 dw_pcie_ep_readb_dbi(struct dw_pcie_ep *ep, u8 func_no, 549 u32 reg) 550 { 551 return dw_pcie_ep_read_dbi(ep, func_no, reg, 0x1); 552 } 553 554 static inline unsigned int dw_pcie_ep_get_dbi2_offset(struct dw_pcie_ep *ep, 555 u8 func_no) 556 { 557 unsigned int dbi2_offset = 0; 558 559 if (ep->ops->get_dbi2_offset) 560 dbi2_offset = ep->ops->get_dbi2_offset(ep, func_no); 561 else if (ep->ops->get_dbi_offset) /* for backward compatibility */ 562 dbi2_offset = ep->ops->get_dbi_offset(ep, func_no); 563 564 return dbi2_offset; 565 } 566 567 static inline void dw_pcie_ep_write_dbi2(struct dw_pcie_ep *ep, u8 func_no, 568 u32 reg, size_t size, u32 val) 569 { 570 unsigned int offset = dw_pcie_ep_get_dbi2_offset(ep, func_no); 571 struct dw_pcie *pci = to_dw_pcie_from_ep(ep); 572 573 dw_pcie_write_dbi2(pci, offset + reg, size, val); 574 } 575 576 static inline void dw_pcie_ep_writel_dbi2(struct dw_pcie_ep *ep, u8 func_no, 577 u32 reg, u32 val) 578 { 579 dw_pcie_ep_write_dbi2(ep, func_no, reg, 0x4, val); 580 } 581 582 static inline void dw_pcie_dbi_ro_wr_en(struct dw_pcie *pci) 583 { 584 u32 reg; 585 u32 val; 586 587 reg = PCIE_MISC_CONTROL_1_OFF; 588 val = dw_pcie_readl_dbi(pci, reg); 589 val |= PCIE_DBI_RO_WR_EN; 590 dw_pcie_writel_dbi(pci, reg, val); 591 } 592 593 static inline void dw_pcie_dbi_ro_wr_dis(struct dw_pcie *pci) 594 { 595 u32 reg; 596 u32 val; 597 598 reg = PCIE_MISC_CONTROL_1_OFF; 599 val = dw_pcie_readl_dbi(pci, reg); 600 val &= ~PCIE_DBI_RO_WR_EN; 601 dw_pcie_writel_dbi(pci, reg, val); 602 } 603 604 static inline int dw_pcie_start_link(struct dw_pcie *pci) 605 { 606 if (pci->ops && pci->ops->start_link) 607 return pci->ops->start_link(pci); 608 609 return 0; 610 } 611 612 static inline void dw_pcie_stop_link(struct dw_pcie *pci) 613 { 614 if (pci->ops && pci->ops->stop_link) 615 pci->ops->stop_link(pci); 616 } 617 618 static inline enum dw_pcie_ltssm dw_pcie_get_ltssm(struct dw_pcie *pci) 619 { 620 u32 val; 621 622 if (pci->ops && pci->ops->get_ltssm) 623 return pci->ops->get_ltssm(pci); 624 625 val = dw_pcie_readl_dbi(pci, PCIE_PORT_DEBUG0); 626 627 return (enum dw_pcie_ltssm)FIELD_GET(PORT_LOGIC_LTSSM_STATE_MASK, val); 628 } 629 630 #ifdef CONFIG_PCIE_DW_HOST 631 irqreturn_t dw_handle_msi_irq(struct dw_pcie_rp *pp); 632 int dw_pcie_setup_rc(struct dw_pcie_rp *pp); 633 int dw_pcie_host_init(struct dw_pcie_rp *pp); 634 void dw_pcie_host_deinit(struct dw_pcie_rp *pp); 635 int dw_pcie_allocate_domains(struct dw_pcie_rp *pp); 636 void __iomem *dw_pcie_own_conf_map_bus(struct pci_bus *bus, unsigned int devfn, 637 int where); 638 #else 639 static inline irqreturn_t dw_handle_msi_irq(struct dw_pcie_rp *pp) 640 { 641 return IRQ_NONE; 642 } 643 644 static inline int dw_pcie_setup_rc(struct dw_pcie_rp *pp) 645 { 646 return 0; 647 } 648 649 static inline int dw_pcie_host_init(struct dw_pcie_rp *pp) 650 { 651 return 0; 652 } 653 654 static inline void dw_pcie_host_deinit(struct dw_pcie_rp *pp) 655 { 656 } 657 658 static inline int dw_pcie_allocate_domains(struct dw_pcie_rp *pp) 659 { 660 return 0; 661 } 662 static inline void __iomem *dw_pcie_own_conf_map_bus(struct pci_bus *bus, 663 unsigned int devfn, 664 int where) 665 { 666 return NULL; 667 } 668 #endif 669 670 #ifdef CONFIG_PCIE_DW_EP 671 void dw_pcie_ep_linkup(struct dw_pcie_ep *ep); 672 int dw_pcie_ep_init(struct dw_pcie_ep *ep); 673 int dw_pcie_ep_init_complete(struct dw_pcie_ep *ep); 674 void dw_pcie_ep_init_notify(struct dw_pcie_ep *ep); 675 void dw_pcie_ep_exit(struct dw_pcie_ep *ep); 676 int dw_pcie_ep_raise_intx_irq(struct dw_pcie_ep *ep, u8 func_no); 677 int dw_pcie_ep_raise_msi_irq(struct dw_pcie_ep *ep, u8 func_no, 678 u8 interrupt_num); 679 int dw_pcie_ep_raise_msix_irq(struct dw_pcie_ep *ep, u8 func_no, 680 u16 interrupt_num); 681 int dw_pcie_ep_raise_msix_irq_doorbell(struct dw_pcie_ep *ep, u8 func_no, 682 u16 interrupt_num); 683 void dw_pcie_ep_reset_bar(struct dw_pcie *pci, enum pci_barno bar); 684 struct dw_pcie_ep_func * 685 dw_pcie_ep_get_func_from_ep(struct dw_pcie_ep *ep, u8 func_no); 686 #else 687 static inline void dw_pcie_ep_linkup(struct dw_pcie_ep *ep) 688 { 689 } 690 691 static inline int dw_pcie_ep_init(struct dw_pcie_ep *ep) 692 { 693 return 0; 694 } 695 696 static inline int dw_pcie_ep_init_complete(struct dw_pcie_ep *ep) 697 { 698 return 0; 699 } 700 701 static inline void dw_pcie_ep_init_notify(struct dw_pcie_ep *ep) 702 { 703 } 704 705 static inline void dw_pcie_ep_exit(struct dw_pcie_ep *ep) 706 { 707 } 708 709 static inline int dw_pcie_ep_raise_intx_irq(struct dw_pcie_ep *ep, u8 func_no) 710 { 711 return 0; 712 } 713 714 static inline int dw_pcie_ep_raise_msi_irq(struct dw_pcie_ep *ep, u8 func_no, 715 u8 interrupt_num) 716 { 717 return 0; 718 } 719 720 static inline int dw_pcie_ep_raise_msix_irq(struct dw_pcie_ep *ep, u8 func_no, 721 u16 interrupt_num) 722 { 723 return 0; 724 } 725 726 static inline int dw_pcie_ep_raise_msix_irq_doorbell(struct dw_pcie_ep *ep, 727 u8 func_no, 728 u16 interrupt_num) 729 { 730 return 0; 731 } 732 733 static inline void dw_pcie_ep_reset_bar(struct dw_pcie *pci, enum pci_barno bar) 734 { 735 } 736 737 static inline struct dw_pcie_ep_func * 738 dw_pcie_ep_get_func_from_ep(struct dw_pcie_ep *ep, u8 func_no) 739 { 740 return NULL; 741 } 742 #endif 743 #endif /* _PCIE_DESIGNWARE_H */ 744