| /linux/drivers/gpu/drm/msm/adreno/ |
| H A D | adreno_gpu.h | 77 struct adreno_gpu; 83 void (*bus_halt)(struct adreno_gpu *adreno_gpu, bool gx_off); 204 struct adreno_gpu { struct 259 #define to_adreno_gpu(x) container_of(x, struct adreno_gpu, base) argument 287 static inline uint8_t adreno_patchid(const struct adreno_gpu *gpu) in adreno_patchid() 297 static inline bool adreno_is_revn(const struct adreno_gpu *gpu, uint32_t revn) in adreno_is_revn() 304 static inline bool adreno_has_gmu_wrapper(const struct adreno_gpu *gpu) in adreno_has_gmu_wrapper() 309 static inline bool adreno_is_a2xx(const struct adreno_gpu *gpu) in adreno_is_a2xx() 316 static inline bool adreno_is_a20x(const struct adreno_gpu *gpu) in adreno_is_a20x() 323 static inline bool adreno_is_a225(const struct adreno_gpu *gpu) in adreno_is_a225() [all …]
|
| H A D | a6xx_gpu.c | 52 struct adreno_gpu *adreno_gpu = &a6xx_gpu->base; in fenced_write() local 53 struct msm_gpu *gpu = &adreno_gpu->base; in fenced_write() 60 if (adreno_has_gmu_wrapper(adreno_gpu)) in fenced_write() 112 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in _a6xx_check_idle() local 113 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in _a6xx_check_idle() 116 if (!adreno_has_gmu_wrapper(adreno_gpu) && !a6xx_gmu_isidle(&a6xx_gpu->gmu)) in _a6xx_check_idle() 149 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in update_shadow_rptr() local 150 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in update_shadow_rptr() 153 if (a6xx_gpu->has_whereami && !adreno_gpu->base.hw_apriv) { in update_shadow_rptr() 162 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_flush() local [all …]
|
| H A D | adreno_gpu.c | 171 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in adreno_zap_shader_load() local 184 return zap_shader_load_mdt(gpu, adreno_gpu->info->zapfw, pasid); in adreno_zap_shader_load() 231 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in adreno_private_vm_size() local 238 if (adreno_gpu->info->quirks & ADRENO_QUIRK_4GB_VA) in adreno_private_vm_size() 255 void adreno_check_and_reenable_stall(struct adreno_gpu *adreno_gpu) in adreno_check_and_reenable_stall() argument 257 struct msm_gpu *gpu = &adreno_gpu->base; in adreno_check_and_reenable_stall() 287 struct adreno_gpu *adreno_gpu = container_of(gpu, struct adreno_gpu, base); in adreno_fault_handler() local 343 reinit_completion(&adreno_gpu->fault_coredump_done); in adreno_fault_handler() 353 complete_all(&adreno_gpu->fault_coredump_done); in adreno_fault_handler() 362 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in adreno_get_param() local [all …]
|
| H A D | a5xx_gpu.c | 23 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in update_shadow_rptr() local 24 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in update_shadow_rptr() 36 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a5xx_flush() local 37 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in a5xx_flush() 68 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a5xx_submit_in_rb() local 69 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in a5xx_submit_in_rb() 129 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a5xx_submit() local 130 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in a5xx_submit() 134 adreno_check_and_reenable_stall(adreno_gpu); in a5xx_submit() 448 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a5xx_set_hwcg() local [all …]
|
| H A D | a6xx_gmu.c | 24 struct adreno_gpu *adreno_gpu = &a6xx_gpu->base; in a6xx_gmu_fault() local 25 struct msm_gpu *gpu = &adreno_gpu->base; in a6xx_gmu_fault() 97 struct adreno_gpu *adreno_gpu = &a6xx_gpu->base; in a6xx_gmu_gx_is_on() local 105 if (adreno_has_gmu_wrapper(adreno_gpu)) in a6xx_gmu_gx_is_on() 110 if (adreno_is_a7xx(adreno_gpu)) in a6xx_gmu_gx_is_on() 123 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_gmu_set_freq() local 124 const struct a6xx_info *info = adreno_gpu->info->a6xx; in a6xx_gmu_set_freq() 125 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_gmu_set_freq() 151 if (bw && adreno_is_a750_family(adreno_gpu)) { in a6xx_gmu_set_freq() 218 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_gmu_get_freq() local [all …]
|
| H A D | a4xx_gpu.c | 78 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a4xx_enable_hwcg() local 107 if (adreno_is_a420(adreno_gpu)) { in a4xx_enable_hwcg() 117 if (!adreno_is_a405(adreno_gpu)) { in a4xx_enable_hwcg() 148 if (adreno_is_a430(adreno_gpu) && adreno_patchid(adreno_gpu) < 2) in a4xx_enable_hwcg() 185 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a4xx_hw_init() local 186 struct a4xx_gpu *a4xx_gpu = to_a4xx_gpu(adreno_gpu); in a4xx_hw_init() 190 if (adreno_is_a405(adreno_gpu)) { in a4xx_hw_init() 192 } else if (adreno_is_a420(adreno_gpu)) { in a4xx_hw_init() 201 } else if (adreno_is_a430(adreno_gpu)) { in a4xx_hw_init() 219 if (adreno_is_a430(adreno_gpu)) { in a4xx_hw_init() [all …]
|
| H A D | a3xx_gpu.c | 114 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a3xx_hw_init() local 115 struct a3xx_gpu *a3xx_gpu = to_a3xx_gpu(adreno_gpu); in a3xx_hw_init() 121 if (adreno_is_a305(adreno_gpu)) { in a3xx_hw_init() 137 } else if (adreno_is_a305b(adreno_gpu)) { in a3xx_hw_init() 144 } else if (adreno_is_a306(adreno_gpu)) { in a3xx_hw_init() 148 } else if (adreno_is_a306a(adreno_gpu)) { in a3xx_hw_init() 152 } else if (adreno_is_a320(adreno_gpu)) { in a3xx_hw_init() 172 } else if (adreno_is_a330v2(adreno_gpu)) { in a3xx_hw_init() 187 } else if (adreno_is_a330(adreno_gpu)) { in a3xx_hw_init() 244 if (adreno_is_a305b(adreno_gpu) || in a3xx_hw_init() [all …]
|
| H A D | a8xx_gpu.c | 21 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a8xx_aperture_slice_set() local 22 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a8xx_aperture_slice_set() 37 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a8xx_aperture_acquire() local 38 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a8xx_aperture_acquire() 47 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a8xx_aperture_release() local 48 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a8xx_aperture_release() 72 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a8xx_read_pipe_slice() local 73 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a8xx_read_pipe_slice() 87 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a8xx_gpu_get_slice_info() local 88 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a8xx_gpu_get_slice_info() [all …]
|
| H A D | a5xx_preempt.c | 58 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in get_next_ring() local 59 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in get_next_ring() 97 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a5xx_preempt_trigger() local 98 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in a5xx_preempt_trigger() 178 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a5xx_preempt_irq() local 179 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in a5xx_preempt_irq() 219 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a5xx_preempt_hw_init() local 220 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in a5xx_preempt_hw_init() 249 struct adreno_gpu *adreno_gpu = &a5xx_gpu->base; in preempt_init_ring() local 250 struct msm_gpu *gpu = &adreno_gpu->base; in preempt_init_ring() [all …]
|
| H A D | a2xx_gpu.c | 56 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a2xx_me_init() local 57 struct a2xx_gpu *a2xx_gpu = to_a2xx_gpu(adreno_gpu); in a2xx_me_init() 110 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a2xx_hw_init() local 111 struct a2xx_gpu *a2xx_gpu = to_a2xx_gpu(adreno_gpu); in a2xx_hw_init() 131 if (adreno_is_a225(adreno_gpu)) in a2xx_hw_init() 179 if (!adreno_is_a20x(adreno_gpu)) in a2xx_hw_init() 208 if ((SZ_16K << i) == adreno_gpu->info->gmem) in a2xx_hw_init() 228 ptr = (uint32_t *)(adreno_gpu->fw[ADRENO_FW_PM4]->data); in a2xx_hw_init() 229 len = adreno_gpu->fw[ADRENO_FW_PM4]->size / 4; in a2xx_hw_init() 250 ptr = (uint32_t *)(adreno_gpu->fw[ADRENO_FW_PFP]->data); in a2xx_hw_init() [all …]
|
| H A D | a6xx_preempt.c | 65 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in get_next_ring() local 66 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in get_next_ring() 145 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_preempt_keepalive_vote() local 146 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_preempt_keepalive_vote() 148 if (adreno_has_gmu_wrapper(adreno_gpu)) in a6xx_preempt_keepalive_vote() 157 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_preempt_irq() local 158 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_preempt_irq() 207 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_preempt_hw_init() local 208 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_preempt_hw_init() 243 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_preempt_trigger() local [all …]
|
| H A D | a6xx_gpu_state.c | 147 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_crashdumper_run() local 148 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_crashdumper_run() 401 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a7xx_get_debugbus_blocks() local 406 if (adreno_gpu->info->family == ADRENO_7XX_GEN1) { in a7xx_get_debugbus_blocks() 411 } else if (adreno_gpu->info->family == ADRENO_7XX_GEN2) { in a7xx_get_debugbus_blocks() 417 BUG_ON(adreno_gpu->info->family != ADRENO_7XX_GEN3); in a7xx_get_debugbus_blocks() 449 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_get_debugbus() local 506 if (adreno_is_a7xx(adreno_gpu)) { in a6xx_get_debugbus() 513 if (!a6xx_has_gbif(adreno_gpu)) { in a6xx_get_debugbus() 527 if (adreno_is_a7xx(adreno_gpu)) { in a6xx_get_debugbus() [all …]
|
| H A D | a6xx_gpu.h | 60 struct adreno_gpu base; 191 #define PREEMPT_RECORD_SIZE(adreno_gpu) \ argument 192 ((adreno_gpu->info->preempt_record_size) == 0 ? \ 193 4192 * SZ_1K : (adreno_gpu->info->preempt_record_size)) 235 static inline bool a6xx_has_gbif(struct adreno_gpu *gpu) in a6xx_has_gbif() 314 void a6xx_bus_clear_pending_transactions(struct adreno_gpu *adreno_gpu, bool gx_off); 320 void a8xx_bus_clear_pending_transactions(struct adreno_gpu *adreno_gpu, bool gx_off);
|
| H A D | a6xx_hfi.c | 324 struct adreno_gpu *adreno_gpu = &a6xx_gpu->base; in a6xx_hfi_send_perf_table() local 328 if (adreno_is_a8xx(adreno_gpu)) in a6xx_hfi_send_perf_table() 795 struct adreno_gpu *adreno_gpu = &a6xx_gpu->base; in a6xx_hfi_send_bw_table() local 796 const struct a6xx_info *info = adreno_gpu->info->a6xx; in a6xx_hfi_send_bw_table() 807 else if (adreno_is_a618(adreno_gpu)) in a6xx_hfi_send_bw_table() 809 else if (adreno_is_a619(adreno_gpu)) in a6xx_hfi_send_bw_table() 811 else if (adreno_is_a640_family(adreno_gpu)) in a6xx_hfi_send_bw_table() 813 else if (adreno_is_a650(adreno_gpu)) in a6xx_hfi_send_bw_table() 815 else if (adreno_is_7c3(adreno_gpu)) in a6xx_hfi_send_bw_table() 817 else if (adreno_is_a660(adreno_gpu)) in a6xx_hfi_send_bw_table() [all …]
|
| H A D | adreno_device.c | 73 struct adreno_gpu *adreno_gpu; in adreno_load_gpu() local 84 adreno_gpu = to_adreno_gpu(gpu); in adreno_load_gpu() 92 ret = adreno_load_fw(adreno_gpu); in adreno_load_gpu()
|
| H A D | a3xx_gpu.h | 19 struct adreno_gpu base;
|
| H A D | a4xx_gpu.h | 16 struct adreno_gpu base;
|
| H A D | a2xx_gpu.h | 16 struct adreno_gpu base;
|
| H A D | a5xx_gpu.h | 16 struct adreno_gpu base;
|
| /linux/arch/arm64/boot/dts/qcom/ |
| H A D | sdm636.dtsi | 20 &adreno_gpu {
|
| H A D | sdm660.dtsi | 12 &adreno_gpu {
|
| H A D | sda660-inforce-ifc6560.dts | 113 &adreno_gpu {
|
| H A D | sdm630.dtsi | 1077 adreno_gpu: gpu@5000000 { label 2618 cooling-device = <&adreno_gpu THERMAL_NO_LIMIT THERMAL_NO_LIMIT>;
|
| H A D | msm8976.dtsi | 1159 adreno_gpu: gpu@1c00000 { label
|
| /linux/drivers/gpu/drm/msm/ |
| H A D | Makefile | 10 adreno/adreno_gpu.o \
|