This source file includes following definitions.
- virtcrypto_devmgr_add_dev
- virtcrypto_devmgr_get_head
- virtcrypto_devmgr_rm_dev
- virtcrypto_devmgr_get_first
- virtcrypto_dev_in_use
- virtcrypto_dev_get
- virtcrypto_dev_put
- virtcrypto_dev_started
- virtcrypto_get_dev_node
- virtcrypto_dev_start
- virtcrypto_dev_stop
- virtcrypto_algo_is_supported
1
2
3
4
5
6
7 #include <linux/mutex.h>
8 #include <linux/list.h>
9 #include <linux/module.h>
10
11 #include <uapi/linux/virtio_crypto.h>
12 #include "virtio_crypto_common.h"
13
14 static LIST_HEAD(virtio_crypto_table);
15 static uint32_t num_devices;
16
17
18 static DEFINE_MUTEX(table_lock);
19
20 #define VIRTIO_CRYPTO_MAX_DEVICES 32
21
22
23
24
25
26
27
28
29
30
31
32
33 int virtcrypto_devmgr_add_dev(struct virtio_crypto *vcrypto_dev)
34 {
35 struct list_head *itr;
36
37 mutex_lock(&table_lock);
38 if (num_devices == VIRTIO_CRYPTO_MAX_DEVICES) {
39 pr_info("virtio_crypto: only support up to %d devices\n",
40 VIRTIO_CRYPTO_MAX_DEVICES);
41 mutex_unlock(&table_lock);
42 return -EFAULT;
43 }
44
45 list_for_each(itr, &virtio_crypto_table) {
46 struct virtio_crypto *ptr =
47 list_entry(itr, struct virtio_crypto, list);
48
49 if (ptr == vcrypto_dev) {
50 mutex_unlock(&table_lock);
51 return -EEXIST;
52 }
53 }
54 atomic_set(&vcrypto_dev->ref_count, 0);
55 list_add_tail(&vcrypto_dev->list, &virtio_crypto_table);
56 vcrypto_dev->dev_id = num_devices++;
57 mutex_unlock(&table_lock);
58 return 0;
59 }
60
61 struct list_head *virtcrypto_devmgr_get_head(void)
62 {
63 return &virtio_crypto_table;
64 }
65
66
67
68
69
70
71
72
73
74
75
76 void virtcrypto_devmgr_rm_dev(struct virtio_crypto *vcrypto_dev)
77 {
78 mutex_lock(&table_lock);
79 list_del(&vcrypto_dev->list);
80 num_devices--;
81 mutex_unlock(&table_lock);
82 }
83
84
85
86
87
88
89
90
91
92
93
94 struct virtio_crypto *virtcrypto_devmgr_get_first(void)
95 {
96 struct virtio_crypto *dev = NULL;
97
98 mutex_lock(&table_lock);
99 if (!list_empty(&virtio_crypto_table))
100 dev = list_first_entry(&virtio_crypto_table,
101 struct virtio_crypto,
102 list);
103 mutex_unlock(&table_lock);
104 return dev;
105 }
106
107
108
109
110
111
112
113
114
115 int virtcrypto_dev_in_use(struct virtio_crypto *vcrypto_dev)
116 {
117 return atomic_read(&vcrypto_dev->ref_count) != 0;
118 }
119
120
121
122
123
124
125
126
127
128
129
130
131 int virtcrypto_dev_get(struct virtio_crypto *vcrypto_dev)
132 {
133 if (atomic_add_return(1, &vcrypto_dev->ref_count) == 1)
134 if (!try_module_get(vcrypto_dev->owner))
135 return -EFAULT;
136 return 0;
137 }
138
139
140
141
142
143
144
145
146
147
148
149
150 void virtcrypto_dev_put(struct virtio_crypto *vcrypto_dev)
151 {
152 if (atomic_sub_return(1, &vcrypto_dev->ref_count) == 0)
153 module_put(vcrypto_dev->owner);
154 }
155
156
157
158
159
160
161
162
163
164 int virtcrypto_dev_started(struct virtio_crypto *vcrypto_dev)
165 {
166 return (vcrypto_dev->status & VIRTIO_CRYPTO_S_HW_READY);
167 }
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184 struct virtio_crypto *virtcrypto_get_dev_node(int node, uint32_t service,
185 uint32_t algo)
186 {
187 struct virtio_crypto *vcrypto_dev = NULL, *tmp_dev;
188 unsigned long best = ~0;
189 unsigned long ctr;
190
191 mutex_lock(&table_lock);
192 list_for_each_entry(tmp_dev, virtcrypto_devmgr_get_head(), list) {
193
194 if ((node == dev_to_node(&tmp_dev->vdev->dev) ||
195 dev_to_node(&tmp_dev->vdev->dev) < 0) &&
196 virtcrypto_dev_started(tmp_dev) &&
197 virtcrypto_algo_is_supported(tmp_dev, service, algo)) {
198 ctr = atomic_read(&tmp_dev->ref_count);
199 if (best > ctr) {
200 vcrypto_dev = tmp_dev;
201 best = ctr;
202 }
203 }
204 }
205
206 if (!vcrypto_dev) {
207 pr_info("virtio_crypto: Could not find a device on node %d\n",
208 node);
209
210 list_for_each_entry(tmp_dev,
211 virtcrypto_devmgr_get_head(), list) {
212 if (virtcrypto_dev_started(tmp_dev) &&
213 virtcrypto_algo_is_supported(tmp_dev,
214 service, algo)) {
215 vcrypto_dev = tmp_dev;
216 break;
217 }
218 }
219 }
220 mutex_unlock(&table_lock);
221 if (!vcrypto_dev)
222 return NULL;
223
224 virtcrypto_dev_get(vcrypto_dev);
225 return vcrypto_dev;
226 }
227
228
229
230
231
232
233
234
235
236
237
238 int virtcrypto_dev_start(struct virtio_crypto *vcrypto)
239 {
240 if (virtio_crypto_algs_register(vcrypto)) {
241 pr_err("virtio_crypto: Failed to register crypto algs\n");
242 return -EFAULT;
243 }
244
245 return 0;
246 }
247
248
249
250
251
252
253
254
255
256
257
258 void virtcrypto_dev_stop(struct virtio_crypto *vcrypto)
259 {
260 virtio_crypto_algs_unregister(vcrypto);
261 }
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277 bool virtcrypto_algo_is_supported(struct virtio_crypto *vcrypto,
278 uint32_t service,
279 uint32_t algo)
280 {
281 uint32_t service_mask = 1u << service;
282 uint32_t algo_mask = 0;
283 bool low = true;
284
285 if (algo > 31) {
286 algo -= 32;
287 low = false;
288 }
289
290 if (!(vcrypto->crypto_services & service_mask))
291 return false;
292
293 switch (service) {
294 case VIRTIO_CRYPTO_SERVICE_CIPHER:
295 if (low)
296 algo_mask = vcrypto->cipher_algo_l;
297 else
298 algo_mask = vcrypto->cipher_algo_h;
299 break;
300
301 case VIRTIO_CRYPTO_SERVICE_HASH:
302 algo_mask = vcrypto->hash_algo;
303 break;
304
305 case VIRTIO_CRYPTO_SERVICE_MAC:
306 if (low)
307 algo_mask = vcrypto->mac_algo_l;
308 else
309 algo_mask = vcrypto->mac_algo_h;
310 break;
311
312 case VIRTIO_CRYPTO_SERVICE_AEAD:
313 algo_mask = vcrypto->aead_algo;
314 break;
315 }
316
317 if (!(algo_mask & (1u << algo)))
318 return false;
319
320 return true;
321 }