Home
last modified time | relevance | path

Searched refs:adreno_gpu (Results 1 – 25 of 25) sorted by relevance

/linux/drivers/gpu/drm/msm/adreno/
H A Dadreno_gpu.h77 struct adreno_gpu;
83 void (*bus_halt)(struct adreno_gpu *adreno_gpu, bool gx_off);
204 struct adreno_gpu { struct
259 #define to_adreno_gpu(x) container_of(x, struct adreno_gpu, base) argument
287 static inline uint8_t adreno_patchid(const struct adreno_gpu *gpu) in adreno_patchid()
297 static inline bool adreno_is_revn(const struct adreno_gpu *gpu, uint32_t revn) in adreno_is_revn()
304 static inline bool adreno_has_gmu_wrapper(const struct adreno_gpu *gpu) in adreno_has_gmu_wrapper()
309 static inline bool adreno_is_a2xx(const struct adreno_gpu *gpu) in adreno_is_a2xx()
316 static inline bool adreno_is_a20x(const struct adreno_gpu *gpu) in adreno_is_a20x()
323 static inline bool adreno_is_a225(const struct adreno_gpu *gpu) in adreno_is_a225()
[all …]
H A Da6xx_gpu.c52 struct adreno_gpu *adreno_gpu = &a6xx_gpu->base; in fenced_write() local
53 struct msm_gpu *gpu = &adreno_gpu->base; in fenced_write()
60 if (adreno_has_gmu_wrapper(adreno_gpu)) in fenced_write()
112 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in _a6xx_check_idle() local
113 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in _a6xx_check_idle()
116 if (!adreno_has_gmu_wrapper(adreno_gpu) && !a6xx_gmu_isidle(&a6xx_gpu->gmu)) in _a6xx_check_idle()
149 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in update_shadow_rptr() local
150 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in update_shadow_rptr()
153 if (a6xx_gpu->has_whereami && !adreno_gpu->base.hw_apriv) { in update_shadow_rptr()
162 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_flush() local
[all …]
H A Dadreno_gpu.c171 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in adreno_zap_shader_load() local
184 return zap_shader_load_mdt(gpu, adreno_gpu->info->zapfw, pasid); in adreno_zap_shader_load()
231 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in adreno_private_vm_size() local
238 if (adreno_gpu->info->quirks & ADRENO_QUIRK_4GB_VA) in adreno_private_vm_size()
255 void adreno_check_and_reenable_stall(struct adreno_gpu *adreno_gpu) in adreno_check_and_reenable_stall() argument
257 struct msm_gpu *gpu = &adreno_gpu->base; in adreno_check_and_reenable_stall()
287 struct adreno_gpu *adreno_gpu = container_of(gpu, struct adreno_gpu, base); in adreno_fault_handler() local
343 reinit_completion(&adreno_gpu->fault_coredump_done); in adreno_fault_handler()
353 complete_all(&adreno_gpu->fault_coredump_done); in adreno_fault_handler()
362 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in adreno_get_param() local
[all …]
H A Da5xx_gpu.c23 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in update_shadow_rptr() local
24 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in update_shadow_rptr()
36 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a5xx_flush() local
37 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in a5xx_flush()
68 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a5xx_submit_in_rb() local
69 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in a5xx_submit_in_rb()
129 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a5xx_submit() local
130 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in a5xx_submit()
134 adreno_check_and_reenable_stall(adreno_gpu); in a5xx_submit()
448 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a5xx_set_hwcg() local
[all …]
H A Da6xx_gmu.c24 struct adreno_gpu *adreno_gpu = &a6xx_gpu->base; in a6xx_gmu_fault() local
25 struct msm_gpu *gpu = &adreno_gpu->base; in a6xx_gmu_fault()
97 struct adreno_gpu *adreno_gpu = &a6xx_gpu->base; in a6xx_gmu_gx_is_on() local
105 if (adreno_has_gmu_wrapper(adreno_gpu)) in a6xx_gmu_gx_is_on()
110 if (adreno_is_a7xx(adreno_gpu)) in a6xx_gmu_gx_is_on()
123 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_gmu_set_freq() local
124 const struct a6xx_info *info = adreno_gpu->info->a6xx; in a6xx_gmu_set_freq()
125 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_gmu_set_freq()
151 if (bw && adreno_is_a750_family(adreno_gpu)) { in a6xx_gmu_set_freq()
218 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_gmu_get_freq() local
[all …]
H A Da4xx_gpu.c78 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a4xx_enable_hwcg() local
107 if (adreno_is_a420(adreno_gpu)) { in a4xx_enable_hwcg()
117 if (!adreno_is_a405(adreno_gpu)) { in a4xx_enable_hwcg()
148 if (adreno_is_a430(adreno_gpu) && adreno_patchid(adreno_gpu) < 2) in a4xx_enable_hwcg()
185 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a4xx_hw_init() local
186 struct a4xx_gpu *a4xx_gpu = to_a4xx_gpu(adreno_gpu); in a4xx_hw_init()
190 if (adreno_is_a405(adreno_gpu)) { in a4xx_hw_init()
192 } else if (adreno_is_a420(adreno_gpu)) { in a4xx_hw_init()
201 } else if (adreno_is_a430(adreno_gpu)) { in a4xx_hw_init()
219 if (adreno_is_a430(adreno_gpu)) { in a4xx_hw_init()
[all …]
H A Da3xx_gpu.c114 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a3xx_hw_init() local
115 struct a3xx_gpu *a3xx_gpu = to_a3xx_gpu(adreno_gpu); in a3xx_hw_init()
121 if (adreno_is_a305(adreno_gpu)) { in a3xx_hw_init()
137 } else if (adreno_is_a305b(adreno_gpu)) { in a3xx_hw_init()
144 } else if (adreno_is_a306(adreno_gpu)) { in a3xx_hw_init()
148 } else if (adreno_is_a306a(adreno_gpu)) { in a3xx_hw_init()
152 } else if (adreno_is_a320(adreno_gpu)) { in a3xx_hw_init()
172 } else if (adreno_is_a330v2(adreno_gpu)) { in a3xx_hw_init()
187 } else if (adreno_is_a330(adreno_gpu)) { in a3xx_hw_init()
244 if (adreno_is_a305b(adreno_gpu) || in a3xx_hw_init()
[all …]
H A Da8xx_gpu.c21 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a8xx_aperture_slice_set() local
22 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a8xx_aperture_slice_set()
37 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a8xx_aperture_acquire() local
38 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a8xx_aperture_acquire()
47 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a8xx_aperture_release() local
48 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a8xx_aperture_release()
72 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a8xx_read_pipe_slice() local
73 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a8xx_read_pipe_slice()
87 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a8xx_gpu_get_slice_info() local
88 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a8xx_gpu_get_slice_info()
[all …]
H A Da5xx_preempt.c58 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in get_next_ring() local
59 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in get_next_ring()
97 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a5xx_preempt_trigger() local
98 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in a5xx_preempt_trigger()
178 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a5xx_preempt_irq() local
179 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in a5xx_preempt_irq()
219 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a5xx_preempt_hw_init() local
220 struct a5xx_gpu *a5xx_gpu = to_a5xx_gpu(adreno_gpu); in a5xx_preempt_hw_init()
249 struct adreno_gpu *adreno_gpu = &a5xx_gpu->base; in preempt_init_ring() local
250 struct msm_gpu *gpu = &adreno_gpu->base; in preempt_init_ring()
[all …]
H A Da2xx_gpu.c56 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a2xx_me_init() local
57 struct a2xx_gpu *a2xx_gpu = to_a2xx_gpu(adreno_gpu); in a2xx_me_init()
110 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a2xx_hw_init() local
111 struct a2xx_gpu *a2xx_gpu = to_a2xx_gpu(adreno_gpu); in a2xx_hw_init()
131 if (adreno_is_a225(adreno_gpu)) in a2xx_hw_init()
179 if (!adreno_is_a20x(adreno_gpu)) in a2xx_hw_init()
208 if ((SZ_16K << i) == adreno_gpu->info->gmem) in a2xx_hw_init()
228 ptr = (uint32_t *)(adreno_gpu->fw[ADRENO_FW_PM4]->data); in a2xx_hw_init()
229 len = adreno_gpu->fw[ADRENO_FW_PM4]->size / 4; in a2xx_hw_init()
250 ptr = (uint32_t *)(adreno_gpu->fw[ADRENO_FW_PFP]->data); in a2xx_hw_init()
[all …]
H A Da6xx_preempt.c65 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in get_next_ring() local
66 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in get_next_ring()
145 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_preempt_keepalive_vote() local
146 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_preempt_keepalive_vote()
148 if (adreno_has_gmu_wrapper(adreno_gpu)) in a6xx_preempt_keepalive_vote()
157 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_preempt_irq() local
158 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_preempt_irq()
207 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_preempt_hw_init() local
208 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_preempt_hw_init()
243 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_preempt_trigger() local
[all …]
H A Da6xx_gpu_state.c147 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_crashdumper_run() local
148 struct a6xx_gpu *a6xx_gpu = to_a6xx_gpu(adreno_gpu); in a6xx_crashdumper_run()
401 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a7xx_get_debugbus_blocks() local
406 if (adreno_gpu->info->family == ADRENO_7XX_GEN1) { in a7xx_get_debugbus_blocks()
411 } else if (adreno_gpu->info->family == ADRENO_7XX_GEN2) { in a7xx_get_debugbus_blocks()
417 BUG_ON(adreno_gpu->info->family != ADRENO_7XX_GEN3); in a7xx_get_debugbus_blocks()
449 struct adreno_gpu *adreno_gpu = to_adreno_gpu(gpu); in a6xx_get_debugbus() local
506 if (adreno_is_a7xx(adreno_gpu)) { in a6xx_get_debugbus()
513 if (!a6xx_has_gbif(adreno_gpu)) { in a6xx_get_debugbus()
527 if (adreno_is_a7xx(adreno_gpu)) { in a6xx_get_debugbus()
[all …]
H A Da6xx_gpu.h60 struct adreno_gpu base;
191 #define PREEMPT_RECORD_SIZE(adreno_gpu) \ argument
192 ((adreno_gpu->info->preempt_record_size) == 0 ? \
193 4192 * SZ_1K : (adreno_gpu->info->preempt_record_size))
235 static inline bool a6xx_has_gbif(struct adreno_gpu *gpu) in a6xx_has_gbif()
314 void a6xx_bus_clear_pending_transactions(struct adreno_gpu *adreno_gpu, bool gx_off);
320 void a8xx_bus_clear_pending_transactions(struct adreno_gpu *adreno_gpu, bool gx_off);
H A Da6xx_hfi.c324 struct adreno_gpu *adreno_gpu = &a6xx_gpu->base; in a6xx_hfi_send_perf_table() local
328 if (adreno_is_a8xx(adreno_gpu)) in a6xx_hfi_send_perf_table()
795 struct adreno_gpu *adreno_gpu = &a6xx_gpu->base; in a6xx_hfi_send_bw_table() local
796 const struct a6xx_info *info = adreno_gpu->info->a6xx; in a6xx_hfi_send_bw_table()
807 else if (adreno_is_a618(adreno_gpu)) in a6xx_hfi_send_bw_table()
809 else if (adreno_is_a619(adreno_gpu)) in a6xx_hfi_send_bw_table()
811 else if (adreno_is_a640_family(adreno_gpu)) in a6xx_hfi_send_bw_table()
813 else if (adreno_is_a650(adreno_gpu)) in a6xx_hfi_send_bw_table()
815 else if (adreno_is_7c3(adreno_gpu)) in a6xx_hfi_send_bw_table()
817 else if (adreno_is_a660(adreno_gpu)) in a6xx_hfi_send_bw_table()
[all …]
H A Dadreno_device.c73 struct adreno_gpu *adreno_gpu; in adreno_load_gpu() local
84 adreno_gpu = to_adreno_gpu(gpu); in adreno_load_gpu()
92 ret = adreno_load_fw(adreno_gpu); in adreno_load_gpu()
H A Da3xx_gpu.h19 struct adreno_gpu base;
H A Da4xx_gpu.h16 struct adreno_gpu base;
H A Da2xx_gpu.h16 struct adreno_gpu base;
H A Da5xx_gpu.h16 struct adreno_gpu base;
/linux/arch/arm64/boot/dts/qcom/
H A Dsdm636.dtsi20 &adreno_gpu {
H A Dsdm660.dtsi12 &adreno_gpu {
H A Dsda660-inforce-ifc6560.dts113 &adreno_gpu {
H A Dsdm630.dtsi1077 adreno_gpu: gpu@5000000 { label
2618 cooling-device = <&adreno_gpu THERMAL_NO_LIMIT THERMAL_NO_LIMIT>;
H A Dmsm8976.dtsi1159 adreno_gpu: gpu@1c00000 { label
/linux/drivers/gpu/drm/msm/
H A DMakefile10 adreno/adreno_gpu.o \