xref: /linux/drivers/gpu/drm/etnaviv/etnaviv_cmdbuf.c (revision ef146c00e2c29c5f926c6a7e9dc354c0cbeb2818)
1 /*
2  * Copyright (C) 2017 Etnaviv Project
3  *
4  * This program is free software; you can redistribute it and/or modify it
5  * under the terms of the GNU General Public License version 2 as published by
6  * the Free Software Foundation.
7  *
8  * This program is distributed in the hope that it will be useful, but WITHOUT
9  * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
10  * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
11  * more details.
12  *
13  * You should have received a copy of the GNU General Public License along with
14  * this program.  If not, see <http://www.gnu.org/licenses/>.
15  */
16 
17 #include <drm/drm_mm.h>
18 
19 #include "etnaviv_cmdbuf.h"
20 #include "etnaviv_gpu.h"
21 #include "etnaviv_mmu.h"
22 #include "etnaviv_perfmon.h"
23 
24 #define SUBALLOC_SIZE		SZ_256K
25 #define SUBALLOC_GRANULE	SZ_4K
26 #define SUBALLOC_GRANULES	(SUBALLOC_SIZE / SUBALLOC_GRANULE)
27 
28 struct etnaviv_cmdbuf_suballoc {
29 	/* suballocated dma buffer properties */
30 	struct etnaviv_gpu *gpu;
31 	void *vaddr;
32 	dma_addr_t paddr;
33 
34 	/* GPU mapping */
35 	u32 iova;
36 	struct drm_mm_node vram_node; /* only used on MMUv2 */
37 
38 	/* allocation management */
39 	struct mutex lock;
40 	DECLARE_BITMAP(granule_map, SUBALLOC_GRANULES);
41 	int free_space;
42 	wait_queue_head_t free_event;
43 };
44 
45 struct etnaviv_cmdbuf_suballoc *
46 etnaviv_cmdbuf_suballoc_new(struct etnaviv_gpu * gpu)
47 {
48 	struct etnaviv_cmdbuf_suballoc *suballoc;
49 	int ret;
50 
51 	suballoc = kzalloc(sizeof(*suballoc), GFP_KERNEL);
52 	if (!suballoc)
53 		return ERR_PTR(-ENOMEM);
54 
55 	suballoc->gpu = gpu;
56 	mutex_init(&suballoc->lock);
57 	init_waitqueue_head(&suballoc->free_event);
58 
59 	suballoc->vaddr = dma_alloc_wc(gpu->dev, SUBALLOC_SIZE,
60 				       &suballoc->paddr, GFP_KERNEL);
61 	if (!suballoc->vaddr)
62 		goto free_suballoc;
63 
64 	ret = etnaviv_iommu_get_suballoc_va(gpu, suballoc->paddr,
65 					    &suballoc->vram_node, SUBALLOC_SIZE,
66 					    &suballoc->iova);
67 	if (ret)
68 		goto free_dma;
69 
70 	return suballoc;
71 
72 free_dma:
73 	dma_free_wc(gpu->dev, SUBALLOC_SIZE, suballoc->vaddr, suballoc->paddr);
74 free_suballoc:
75 	kfree(suballoc);
76 
77 	return NULL;
78 }
79 
80 void etnaviv_cmdbuf_suballoc_destroy(struct etnaviv_cmdbuf_suballoc *suballoc)
81 {
82 	etnaviv_iommu_put_suballoc_va(suballoc->gpu, &suballoc->vram_node,
83 				      SUBALLOC_SIZE, suballoc->iova);
84 	dma_free_wc(suballoc->gpu->dev, SUBALLOC_SIZE, suballoc->vaddr,
85 		    suballoc->paddr);
86 	kfree(suballoc);
87 }
88 
89 struct etnaviv_cmdbuf *
90 etnaviv_cmdbuf_new(struct etnaviv_cmdbuf_suballoc *suballoc, u32 size,
91 		   size_t nr_bos)
92 {
93 	struct etnaviv_cmdbuf *cmdbuf;
94 	size_t sz = size_vstruct(nr_bos, sizeof(cmdbuf->bo_map[0]),
95 				 sizeof(*cmdbuf));
96 	int granule_offs, order, ret;
97 
98 	cmdbuf = kzalloc(sz, GFP_KERNEL);
99 	if (!cmdbuf)
100 		return NULL;
101 
102 	cmdbuf->suballoc = suballoc;
103 	cmdbuf->size = size;
104 
105 	order = order_base_2(ALIGN(size, SUBALLOC_GRANULE) / SUBALLOC_GRANULE);
106 retry:
107 	mutex_lock(&suballoc->lock);
108 	granule_offs = bitmap_find_free_region(suballoc->granule_map,
109 					SUBALLOC_GRANULES, order);
110 	if (granule_offs < 0) {
111 		suballoc->free_space = 0;
112 		mutex_unlock(&suballoc->lock);
113 		ret = wait_event_interruptible_timeout(suballoc->free_event,
114 						       suballoc->free_space,
115 						       msecs_to_jiffies(10 * 1000));
116 		if (!ret) {
117 			dev_err(suballoc->gpu->dev,
118 				"Timeout waiting for cmdbuf space\n");
119 			return NULL;
120 		}
121 		goto retry;
122 	}
123 	mutex_unlock(&suballoc->lock);
124 	cmdbuf->suballoc_offset = granule_offs * SUBALLOC_GRANULE;
125 	cmdbuf->vaddr = suballoc->vaddr + cmdbuf->suballoc_offset;
126 
127 	return cmdbuf;
128 }
129 
130 void etnaviv_cmdbuf_free(struct etnaviv_cmdbuf *cmdbuf)
131 {
132 	struct etnaviv_cmdbuf_suballoc *suballoc = cmdbuf->suballoc;
133 	int order = order_base_2(ALIGN(cmdbuf->size, SUBALLOC_GRANULE) /
134 				 SUBALLOC_GRANULE);
135 
136 	mutex_lock(&suballoc->lock);
137 	bitmap_release_region(suballoc->granule_map,
138 			      cmdbuf->suballoc_offset / SUBALLOC_GRANULE,
139 			      order);
140 	suballoc->free_space = 1;
141 	mutex_unlock(&suballoc->lock);
142 	wake_up_all(&suballoc->free_event);
143 	kfree(cmdbuf);
144 }
145 
146 u32 etnaviv_cmdbuf_get_va(struct etnaviv_cmdbuf *buf)
147 {
148 	return buf->suballoc->iova + buf->suballoc_offset;
149 }
150 
151 dma_addr_t etnaviv_cmdbuf_get_pa(struct etnaviv_cmdbuf *buf)
152 {
153 	return buf->suballoc->paddr + buf->suballoc_offset;
154 }
155