Searched refs:vpxor (Results 1 - 21 of 21) sorted by relevance

/linux-4.1.27/arch/x86/crypto/
H A Dserpent-avx-x86_64-asm_64.S70 vpxor x3, x0, x0; \
71 vpxor x2, x3, x4; \
72 vpxor RNOT, x4, x4; \
73 vpxor x1, tp, x3; \
75 vpxor x4, x1, x1; \
76 vpxor x0, x2, x2;
78 vpxor x3, x0, x0; \
80 vpxor x2, x0, x0; \
82 vpxor x2, x3, x3; \
83 vpxor RNOT, x1, x1; \
84 vpxor x4, x2, x2; \
85 vpxor x2, x1, x1;
88 vpxor x0, x1, tp; \
89 vpxor x3, x0, x0; \
90 vpxor RNOT, x3, x3; \
93 vpxor x2, x3, x3; \
94 vpxor x3, x0, x0; \
95 vpxor x3, tp, x1;
97 vpxor x4, x3, x3; \
99 vpxor x2, x4, x4; \
101 vpxor x1, x2, x2; \
103 vpxor RNOT, x0, x0; \
104 vpxor x2, x0, x0; \
105 vpxor x1, x4, x4;
108 vpxor RNOT, x3, x3; \
109 vpxor x0, x1, x1; \
111 vpxor x3, tp, tp; \
113 vpxor x1, x2, x2; \
114 vpxor x1, x3, x3; \
117 vpxor x2, tp, tp; \
120 vpxor RNOT, tp, tp; \
121 vpxor tp, x3, x3; \
122 vpxor tp, x0, x4; \
123 vpxor x2, tp, x0; \
127 vpxor x3, x1, tp; \
130 vpxor x2, x0, x0; \
131 vpxor tp, x2, x2; \
133 vpxor x3, x2, x2; \
135 vpxor x3, x4, x4;
137 vpxor x0, x1, x1; \
140 vpxor x2, x3, x3; \
143 vpxor x3, x4, x4; \
144 vpxor x3, x0, x0; \
145 vpxor x2, x3, x3;
149 vpxor x3, x0, x0; \
150 vpxor x2, tp, tp; \
152 vpxor x1, x0, x0; \
153 vpxor tp, x3, x4; \
155 vpxor x1, x2, x2;
158 vpxor x4, x1, x1; \
160 vpxor tp, x2, x2; \
161 vpxor x0, x4, x4; \
163 vpxor RNOT, x1, x1; \
164 vpxor x0, x3, x3;
168 vpxor tp, x2, x2; \
169 vpxor RNOT, x3, x3; \
170 vpxor x0, x1, x4; \
171 vpxor x2, x0, x0; \
174 vpxor x0, x4, x4;
177 vpxor x3, x1, x1; \
178 vpxor x2, x3, x3; \
179 vpxor x1, x0, x0; \
181 vpxor x2, x1, x1; \
183 vpxor x2, x3, x3;
186 vpxor x0, x3, x3; \
187 vpxor x2, x1, tp; \
188 vpxor x0, x2, x2; \
191 vpxor RNOT, x1, x4; \
192 vpxor tp, x0, x0; \
193 vpxor x2, tp, x1;
195 vpxor x4, x3, x3; \
196 vpxor x0, x4, x4; \
198 vpxor x1, x4, x4; \
199 vpxor x3, x2, x2; \
201 vpxor x0, x3, x3; \
202 vpxor x2, x1, x1;
205 vpxor RNOT, x1, tp; \
206 vpxor RNOT, x0, x0; \
208 vpxor x3, x1, x1; \
210 vpxor x2, tp, x4; \
211 vpxor x3, x2, x2; \
212 vpxor x0, x3, x3; \
216 vpxor x4, x0, x0; \
217 vpxor x3, x4, x4; \
219 vpxor x1, x4, x4; \
220 vpxor x4, x2, x2; \
221 vpxor x1, x3, x3; \
223 vpxor x1, x4, x4;
226 vpxor x0, x1, x1; \
228 vpxor x1, x3, x4; \
229 vpxor RNOT, x0, x0; \
230 vpxor tp, x2, x2; \
231 vpxor x0, tp, x3; \
233 vpxor x2, x0, x0;
236 vpxor x4, x3, x3; \
237 vpxor x3, x2, x2; \
238 vpxor x3, x1, x1; \
240 vpxor x0, x1, x1; \
241 vpxor x2, x0, x0; \
242 vpxor x3, x4, x4;
245 vpxor x3, x1, x1; \
246 vpxor x2, x0, tp; \
247 vpxor RNOT, x2, x2; \
249 vpxor x3, x4, x4; \
251 vpxor x2, x1, x1; \
254 vpxor x1, x4, x4; \
256 vpxor tp, x3, x3; \
257 vpxor tp, x2, x2; \
259 vpxor x4, x2, x2; \
260 vpxor x0, x1, x1; \
261 vpxor x1, x4, x4;
264 vpxor x1, x2, x2; \
265 vpxor RNOT, x3, tp; \
267 vpxor x3, x2, x2; \
268 vpxor x0, x3, x4; \
269 vpxor x1, tp, x3; \
271 vpxor x0, x2, x2;
273 vpxor x4, x1, x1; \
275 vpxor x3, x2, x2; \
276 vpxor x2, x4, x4; \
278 vpxor x3, x2, x2; \
279 vpxor x4, x3, x3; \
280 vpxor x0, x4, x4;
283 vpxor x1, x2, x2; \
285 vpxor x0, tp, tp; \
287 vpxor x3, x1, x4; \
288 vpxor x3, x0, x0; \
290 vpxor x2, tp, x1;
292 vpxor x3, x1, x1; \
293 vpxor x2, x0, x0; \
294 vpxor x3, x2, x2; \
296 vpxor x0, x1, x1; \
298 vpxor x3, x4, x4; \
299 vpxor x0, x3, x3; \
300 vpxor x1, x0, x0;
303 vpxor x3, x2, x2; \
305 vpxor x2, tp, tp; \
307 vpxor RNOT, x0, x4; \
308 vpxor tp, x1, x1; \
309 vpxor x2, tp, x0; \
312 vpxor x0, x2, x2; \
314 vpxor x3, x0, x0; \
316 vpxor x3, x4, x4; \
317 vpxor x1, x3, x3; \
319 vpxor x1, x4, x4; \
320 vpxor x3, x0, x0;
324 vpxor x1, x2, x2; \
325 vpxor x3, tp, tp; \
327 vpxor x3, x2, x2; \
329 vpxor RNOT, x0, x0; \
330 vpxor x2, x3, x3; \
333 vpxor tp, x1, x4; \
334 vpxor x4, x2, x2; \
336 vpxor tp, x0, x0; \
337 vpxor x3, tp, x1; \
339 vpxor x3, x2, x2; \
340 vpxor x2, x0, x0; \
341 vpxor x4, x2, x2; \
342 vpxor x3, x4, x4;
345 vpxor x2, x0, x0; \
347 vpxor x3, x2, x2; \
348 vpxor x2, tp, tp; \
349 vpxor x1, x3, x3; \
351 vpxor x3, x2, x2; \
354 vpxor RNOT, tp, tp; \
355 vpxor x1, x3, x3; \
357 vpxor tp, x0, x4; \
358 vpxor x4, x3, x3; \
359 vpxor x2, x4, x4; \
360 vpxor x1, tp, x0; \
361 vpxor x0, x2, x2;
365 vpxor x2, x0, x0; \
367 vpxor x1, x3, x4; \
368 vpxor RNOT, x0, x0; \
370 vpxor x0, x4, x4; \
372 vpxor x1, x0, x0;
375 vpxor x2, tp, x3; \
376 vpxor x3, x4, x4; \
379 vpxor x4, x1, x1; \
380 vpxor x4, x3, x3; \
382 vpxor x2, x4, x4;
392 vpxor RK0, x0 ## 1, x0 ## 1; \
393 vpxor RK1, x1 ## 1, x1 ## 1; \
394 vpxor RK2, x2 ## 1, x2 ## 1; \
395 vpxor RK3, x3 ## 1, x3 ## 1; \
396 vpxor RK0, x0 ## 2, x0 ## 2; \
397 vpxor RK1, x1 ## 2, x1 ## 2; \
398 vpxor RK2, x2 ## 2, x2 ## 2; \
399 vpxor RK3, x3 ## 2, x3 ## 2;
405 vpxor x0 ## 1, x1 ## 1, x1 ## 1; \
409 vpxor x2 ## 1, x1 ## 1, x1 ## 1; \
413 vpxor x0 ## 2, x1 ## 2, x1 ## 2; \
417 vpxor x2 ## 2, x1 ## 2, x1 ## 2; \
422 vpxor x2 ## 1, x3 ## 1, x3 ## 1; \
423 vpxor x4 ## 1, x3 ## 1, x3 ## 1; \
429 vpxor x2 ## 2, x3 ## 2, x3 ## 2; \
430 vpxor x4 ## 2, x3 ## 2, x3 ## 2; \
436 vpxor x1 ## 1, x0 ## 1, x0 ## 1; \
437 vpxor x3 ## 1, x0 ## 1, x0 ## 1; \
438 vpxor x3 ## 1, x2 ## 1, x2 ## 1; \
439 vpxor x4 ## 1, x2 ## 1, x2 ## 1; \
445 vpxor x1 ## 2, x0 ## 2, x0 ## 2; \
446 vpxor x3 ## 2, x0 ## 2, x0 ## 2; \
447 vpxor x3 ## 2, x2 ## 2, x2 ## 2; \
448 vpxor x4 ## 2, x2 ## 2, x2 ## 2; \
450 vpxor RK1, x1 ## 1, x1 ## 1; \
451 vpxor RK3, x3 ## 1, x3 ## 1; \
458 vpxor RK0, x0 ## 1, x0 ## 1; \
459 vpxor RK2, x2 ## 1, x2 ## 1; \
460 vpxor RK1, x1 ## 2, x1 ## 2; \
461 vpxor RK3, x3 ## 2, x3 ## 2; \
468 vpxor RK0, x0 ## 2, x0 ## 2; \
469 vpxor RK2, x2 ## 2, x2 ## 2;
472 vpxor RK0, x0 ## 1, x0 ## 1; \
473 vpxor RK2, x2 ## 1, x2 ## 1; \
477 vpxor RK3, x3 ## 1, x3 ## 1; \
478 vpxor RK1, x1 ## 1, x1 ## 1; \
482 vpxor x3 ## 1, x2 ## 1, x2 ## 1; \
483 vpxor RK0, x0 ## 2, x0 ## 2; \
484 vpxor RK2, x2 ## 2, x2 ## 2; \
488 vpxor RK3, x3 ## 2, x3 ## 2; \
489 vpxor RK1, x1 ## 2, x1 ## 2; \
493 vpxor x3 ## 2, x2 ## 2, x2 ## 2; \
494 vpxor x3 ## 1, x0 ## 1, x0 ## 1; \
496 vpxor x1 ## 1, x0 ## 1, x0 ## 1; \
497 vpxor x4 ## 1, x2 ## 1, x2 ## 1; \
501 vpxor x3 ## 2, x0 ## 2, x0 ## 2; \
503 vpxor x1 ## 2, x0 ## 2, x0 ## 2; \
504 vpxor x4 ## 2, x2 ## 2, x2 ## 2; \
511 vpxor x0 ## 1, x1 ## 1, x1 ## 1; \
513 vpxor x4 ## 1, x3 ## 1, x3 ## 1; \
517 vpxor x0 ## 2, x1 ## 2, x1 ## 2; \
519 vpxor x4 ## 2, x3 ## 2, x3 ## 2; \
523 vpxor x2 ## 1, x1 ## 1, x1 ## 1; \
524 vpxor x2 ## 1, x3 ## 1, x3 ## 1; \
531 vpxor x2 ## 2, x1 ## 2, x1 ## 2; \
532 vpxor x2 ## 2, x3 ## 2, x3 ## 2; \
H A Dserpent-avx2-asm_64.S62 vpxor x3, x0, x0; \
63 vpxor x2, x3, x4; \
64 vpxor RNOT, x4, x4; \
65 vpxor x1, tp, x3; \
67 vpxor x4, x1, x1; \
68 vpxor x0, x2, x2;
70 vpxor x3, x0, x0; \
72 vpxor x2, x0, x0; \
74 vpxor x2, x3, x3; \
75 vpxor RNOT, x1, x1; \
76 vpxor x4, x2, x2; \
77 vpxor x2, x1, x1;
80 vpxor x0, x1, tp; \
81 vpxor x3, x0, x0; \
82 vpxor RNOT, x3, x3; \
85 vpxor x2, x3, x3; \
86 vpxor x3, x0, x0; \
87 vpxor x3, tp, x1;
89 vpxor x4, x3, x3; \
91 vpxor x2, x4, x4; \
93 vpxor x1, x2, x2; \
95 vpxor RNOT, x0, x0; \
96 vpxor x2, x0, x0; \
97 vpxor x1, x4, x4;
100 vpxor RNOT, x3, x3; \
101 vpxor x0, x1, x1; \
103 vpxor x3, tp, tp; \
105 vpxor x1, x2, x2; \
106 vpxor x1, x3, x3; \
109 vpxor x2, tp, tp; \
112 vpxor RNOT, tp, tp; \
113 vpxor tp, x3, x3; \
114 vpxor tp, x0, x4; \
115 vpxor x2, tp, x0; \
119 vpxor x3, x1, tp; \
122 vpxor x2, x0, x0; \
123 vpxor tp, x2, x2; \
125 vpxor x3, x2, x2; \
127 vpxor x3, x4, x4;
129 vpxor x0, x1, x1; \
132 vpxor x2, x3, x3; \
135 vpxor x3, x4, x4; \
136 vpxor x3, x0, x0; \
137 vpxor x2, x3, x3;
141 vpxor x3, x0, x0; \
142 vpxor x2, tp, tp; \
144 vpxor x1, x0, x0; \
145 vpxor tp, x3, x4; \
147 vpxor x1, x2, x2;
150 vpxor x4, x1, x1; \
152 vpxor tp, x2, x2; \
153 vpxor x0, x4, x4; \
155 vpxor RNOT, x1, x1; \
156 vpxor x0, x3, x3;
160 vpxor tp, x2, x2; \
161 vpxor RNOT, x3, x3; \
162 vpxor x0, x1, x4; \
163 vpxor x2, x0, x0; \
166 vpxor x0, x4, x4;
169 vpxor x3, x1, x1; \
170 vpxor x2, x3, x3; \
171 vpxor x1, x0, x0; \
173 vpxor x2, x1, x1; \
175 vpxor x2, x3, x3;
178 vpxor x0, x3, x3; \
179 vpxor x2, x1, tp; \
180 vpxor x0, x2, x2; \
183 vpxor RNOT, x1, x4; \
184 vpxor tp, x0, x0; \
185 vpxor x2, tp, x1;
187 vpxor x4, x3, x3; \
188 vpxor x0, x4, x4; \
190 vpxor x1, x4, x4; \
191 vpxor x3, x2, x2; \
193 vpxor x0, x3, x3; \
194 vpxor x2, x1, x1;
197 vpxor RNOT, x1, tp; \
198 vpxor RNOT, x0, x0; \
200 vpxor x3, x1, x1; \
202 vpxor x2, tp, x4; \
203 vpxor x3, x2, x2; \
204 vpxor x0, x3, x3; \
208 vpxor x4, x0, x0; \
209 vpxor x3, x4, x4; \
211 vpxor x1, x4, x4; \
212 vpxor x4, x2, x2; \
213 vpxor x1, x3, x3; \
215 vpxor x1, x4, x4;
218 vpxor x0, x1, x1; \
220 vpxor x1, x3, x4; \
221 vpxor RNOT, x0, x0; \
222 vpxor tp, x2, x2; \
223 vpxor x0, tp, x3; \
225 vpxor x2, x0, x0;
228 vpxor x4, x3, x3; \
229 vpxor x3, x2, x2; \
230 vpxor x3, x1, x1; \
232 vpxor x0, x1, x1; \
233 vpxor x2, x0, x0; \
234 vpxor x3, x4, x4;
237 vpxor x3, x1, x1; \
238 vpxor x2, x0, tp; \
239 vpxor RNOT, x2, x2; \
241 vpxor x3, x4, x4; \
243 vpxor x2, x1, x1; \
246 vpxor x1, x4, x4; \
248 vpxor tp, x3, x3; \
249 vpxor tp, x2, x2; \
251 vpxor x4, x2, x2; \
252 vpxor x0, x1, x1; \
253 vpxor x1, x4, x4;
256 vpxor x1, x2, x2; \
257 vpxor RNOT, x3, tp; \
259 vpxor x3, x2, x2; \
260 vpxor x0, x3, x4; \
261 vpxor x1, tp, x3; \
263 vpxor x0, x2, x2;
265 vpxor x4, x1, x1; \
267 vpxor x3, x2, x2; \
268 vpxor x2, x4, x4; \
270 vpxor x3, x2, x2; \
271 vpxor x4, x3, x3; \
272 vpxor x0, x4, x4;
275 vpxor x1, x2, x2; \
277 vpxor x0, tp, tp; \
279 vpxor x3, x1, x4; \
280 vpxor x3, x0, x0; \
282 vpxor x2, tp, x1;
284 vpxor x3, x1, x1; \
285 vpxor x2, x0, x0; \
286 vpxor x3, x2, x2; \
288 vpxor x0, x1, x1; \
290 vpxor x3, x4, x4; \
291 vpxor x0, x3, x3; \
292 vpxor x1, x0, x0;
295 vpxor x3, x2, x2; \
297 vpxor x2, tp, tp; \
299 vpxor RNOT, x0, x4; \
300 vpxor tp, x1, x1; \
301 vpxor x2, tp, x0; \
304 vpxor x0, x2, x2; \
306 vpxor x3, x0, x0; \
308 vpxor x3, x4, x4; \
309 vpxor x1, x3, x3; \
311 vpxor x1, x4, x4; \
312 vpxor x3, x0, x0;
316 vpxor x1, x2, x2; \
317 vpxor x3, tp, tp; \
319 vpxor x3, x2, x2; \
321 vpxor RNOT, x0, x0; \
322 vpxor x2, x3, x3; \
325 vpxor tp, x1, x4; \
326 vpxor x4, x2, x2; \
328 vpxor tp, x0, x0; \
329 vpxor x3, tp, x1; \
331 vpxor x3, x2, x2; \
332 vpxor x2, x0, x0; \
333 vpxor x4, x2, x2; \
334 vpxor x3, x4, x4;
337 vpxor x2, x0, x0; \
339 vpxor x3, x2, x2; \
340 vpxor x2, tp, tp; \
341 vpxor x1, x3, x3; \
343 vpxor x3, x2, x2; \
346 vpxor RNOT, tp, tp; \
347 vpxor x1, x3, x3; \
349 vpxor tp, x0, x4; \
350 vpxor x4, x3, x3; \
351 vpxor x2, x4, x4; \
352 vpxor x1, tp, x0; \
353 vpxor x0, x2, x2;
357 vpxor x2, x0, x0; \
359 vpxor x1, x3, x4; \
360 vpxor RNOT, x0, x0; \
362 vpxor x0, x4, x4; \
364 vpxor x1, x0, x0;
367 vpxor x2, tp, x3; \
368 vpxor x3, x4, x4; \
371 vpxor x4, x1, x1; \
372 vpxor x4, x3, x3; \
374 vpxor x2, x4, x4;
384 vpxor RK0, x0 ## 1, x0 ## 1; \
385 vpxor RK1, x1 ## 1, x1 ## 1; \
386 vpxor RK2, x2 ## 1, x2 ## 1; \
387 vpxor RK3, x3 ## 1, x3 ## 1; \
388 vpxor RK0, x0 ## 2, x0 ## 2; \
389 vpxor RK1, x1 ## 2, x1 ## 2; \
390 vpxor RK2, x2 ## 2, x2 ## 2; \
391 vpxor RK3, x3 ## 2, x3 ## 2;
397 vpxor x0 ## 1, x1 ## 1, x1 ## 1; \
401 vpxor x2 ## 1, x1 ## 1, x1 ## 1; \
405 vpxor x0 ## 2, x1 ## 2, x1 ## 2; \
409 vpxor x2 ## 2, x1 ## 2, x1 ## 2; \
414 vpxor x2 ## 1, x3 ## 1, x3 ## 1; \
415 vpxor x4 ## 1, x3 ## 1, x3 ## 1; \
421 vpxor x2 ## 2, x3 ## 2, x3 ## 2; \
422 vpxor x4 ## 2, x3 ## 2, x3 ## 2; \
428 vpxor x1 ## 1, x0 ## 1, x0 ## 1; \
429 vpxor x3 ## 1, x0 ## 1, x0 ## 1; \
430 vpxor x3 ## 1, x2 ## 1, x2 ## 1; \
431 vpxor x4 ## 1, x2 ## 1, x2 ## 1; \
437 vpxor x1 ## 2, x0 ## 2, x0 ## 2; \
438 vpxor x3 ## 2, x0 ## 2, x0 ## 2; \
439 vpxor x3 ## 2, x2 ## 2, x2 ## 2; \
440 vpxor x4 ## 2, x2 ## 2, x2 ## 2; \
442 vpxor RK1, x1 ## 1, x1 ## 1; \
443 vpxor RK3, x3 ## 1, x3 ## 1; \
450 vpxor RK0, x0 ## 1, x0 ## 1; \
451 vpxor RK2, x2 ## 1, x2 ## 1; \
452 vpxor RK1, x1 ## 2, x1 ## 2; \
453 vpxor RK3, x3 ## 2, x3 ## 2; \
460 vpxor RK0, x0 ## 2, x0 ## 2; \
461 vpxor RK2, x2 ## 2, x2 ## 2;
464 vpxor RK0, x0 ## 1, x0 ## 1; \
465 vpxor RK2, x2 ## 1, x2 ## 1; \
469 vpxor RK3, x3 ## 1, x3 ## 1; \
470 vpxor RK1, x1 ## 1, x1 ## 1; \
474 vpxor x3 ## 1, x2 ## 1, x2 ## 1; \
475 vpxor RK0, x0 ## 2, x0 ## 2; \
476 vpxor RK2, x2 ## 2, x2 ## 2; \
480 vpxor RK3, x3 ## 2, x3 ## 2; \
481 vpxor RK1, x1 ## 2, x1 ## 2; \
485 vpxor x3 ## 2, x2 ## 2, x2 ## 2; \
486 vpxor x3 ## 1, x0 ## 1, x0 ## 1; \
488 vpxor x1 ## 1, x0 ## 1, x0 ## 1; \
489 vpxor x4 ## 1, x2 ## 1, x2 ## 1; \
493 vpxor x3 ## 2, x0 ## 2, x0 ## 2; \
495 vpxor x1 ## 2, x0 ## 2, x0 ## 2; \
496 vpxor x4 ## 2, x2 ## 2, x2 ## 2; \
503 vpxor x0 ## 1, x1 ## 1, x1 ## 1; \
505 vpxor x4 ## 1, x3 ## 1, x3 ## 1; \
509 vpxor x0 ## 2, x1 ## 2, x1 ## 2; \
511 vpxor x4 ## 2, x3 ## 2, x3 ## 2; \
515 vpxor x2 ## 1, x1 ## 1, x1 ## 1; \
516 vpxor x2 ## 1, x3 ## 1, x3 ## 1; \
523 vpxor x2 ## 2, x1 ## 2, x1 ## 2; \
524 vpxor x2 ## 2, x3 ## 2, x3 ## 2; \
H A Dglue_helper-asm-avx.S39 vpxor (0*16)(src), x1, x1; \
40 vpxor (1*16)(src), x2, x2; \
41 vpxor (2*16)(src), x3, x3; \
42 vpxor (3*16)(src), x4, x4; \
43 vpxor (4*16)(src), x5, x5; \
44 vpxor (5*16)(src), x6, x6; \
45 vpxor (6*16)(src), x7, x7; \
83 vpxor (0*16)(src), x0, x0; \
84 vpxor (1*16)(src), x1, x1; \
85 vpxor (2*16)(src), x2, x2; \
86 vpxor (3*16)(src), x3, x3; \
87 vpxor (4*16)(src), x4, x4; \
88 vpxor (5*16)(src), x5, x5; \
89 vpxor (6*16)(src), x6, x6; \
90 vpxor (7*16)(src), x7, x7; \
98 vpxor tmp, iv, iv;
106 vpxor (0*16)(src), tiv, x0; \
111 vpxor (1*16)(src), tiv, x1; \
115 vpxor (2*16)(src), tiv, x2; \
119 vpxor (3*16)(src), tiv, x3; \
123 vpxor (4*16)(src), tiv, x4; \
127 vpxor (5*16)(src), tiv, x5; \
131 vpxor (6*16)(src), tiv, x6; \
135 vpxor (7*16)(src), tiv, x7; \
142 vpxor (0*16)(dst), x0, x0; \
143 vpxor (1*16)(dst), x1, x1; \
144 vpxor (2*16)(dst), x2, x2; \
145 vpxor (3*16)(dst), x3, x3; \
146 vpxor (4*16)(dst), x4, x4; \
147 vpxor (5*16)(dst), x5, x5; \
148 vpxor (6*16)(dst), x6, x6; \
149 vpxor (7*16)(dst), x7, x7; \
H A Dcamellia-aesni-avx-asm_64.S39 vpxor tmp0, x, x;
80 vpxor t4, t4, t4; \
110 vpxor t6, t6, t6; \
133 vpxor x5, x0, x0; \
134 vpxor x6, x1, x1; \
135 vpxor x7, x2, x2; \
136 vpxor x4, x3, x3; \
138 vpxor x2, x4, x4; \
139 vpxor x3, x5, x5; \
140 vpxor x0, x6, x6; \
141 vpxor x1, x7, x7; \
143 vpxor x7, x0, x0; \
144 vpxor x4, x1, x1; \
145 vpxor x5, x2, x2; \
146 vpxor x6, x3, x3; \
148 vpxor x3, x4, x4; \
149 vpxor x0, x5, x5; \
150 vpxor x1, x6, x6; \
151 vpxor x2, x7, x7; /* note: high and low parts swapped */ \
157 vpxor t3, x4, x4; \
158 vpxor 0 * 16(mem_cd), x4, x4; \
160 vpxor t2, x5, x5; \
161 vpxor 1 * 16(mem_cd), x5, x5; \
167 vpxor t1, x6, x6; \
168 vpxor 2 * 16(mem_cd), x6, x6; \
170 vpxor t0, x7, x7; \
171 vpxor 3 * 16(mem_cd), x7, x7; \
173 vpxor t7, x0, x0; \
174 vpxor 4 * 16(mem_cd), x0, x0; \
176 vpxor t6, x1, x1; \
177 vpxor 5 * 16(mem_cd), x1, x1; \
179 vpxor t5, x2, x2; \
180 vpxor 6 * 16(mem_cd), x2, x2; \
182 vpxor t4, x3, x3; \
183 vpxor 7 * 16(mem_cd), x3, x3;
304 vpxor tt0, tt0, tt0; \
321 vpxor l4, t0, l4; \
323 vpxor l5, t1, l5; \
325 vpxor l6, t2, l6; \
327 vpxor l7, t3, l7; \
350 vpxor 0 * 16(r), t0, t0; \
351 vpxor 1 * 16(r), t1, t1; \
352 vpxor 2 * 16(r), t2, t2; \
353 vpxor 3 * 16(r), t3, t3; \
380 vpxor 4 * 16(r), t0, t0; \
381 vpxor 5 * 16(r), t1, t1; \
382 vpxor 6 * 16(r), t2, t2; \
383 vpxor 7 * 16(r), t3, t3; \
409 vpxor l0, t0, l0; \
411 vpxor l1, t1, l1; \
413 vpxor l2, t2, l2; \
415 vpxor l3, t3, l3; \
486 vpxor 0 * 16(rio), x0, y7; \
487 vpxor 1 * 16(rio), x0, y6; \
488 vpxor 2 * 16(rio), x0, y5; \
489 vpxor 3 * 16(rio), x0, y4; \
490 vpxor 4 * 16(rio), x0, y3; \
491 vpxor 5 * 16(rio), x0, y2; \
492 vpxor 6 * 16(rio), x0, y1; \
493 vpxor 7 * 16(rio), x0, y0; \
494 vpxor 8 * 16(rio), x0, x7; \
495 vpxor 9 * 16(rio), x0, x6; \
496 vpxor 10 * 16(rio), x0, x5; \
497 vpxor 11 * 16(rio), x0, x4; \
498 vpxor 12 * 16(rio), x0, x3; \
499 vpxor 13 * 16(rio), x0, x2; \
500 vpxor 14 * 16(rio), x0, x1; \
501 vpxor 15 * 16(rio), x0, x0;
537 vpxor x0, y7, y7; \
538 vpxor x0, y6, y6; \
539 vpxor x0, y5, y5; \
540 vpxor x0, y4, y4; \
541 vpxor x0, y3, y3; \
542 vpxor x0, y2, y2; \
543 vpxor x0, y1, y1; \
544 vpxor x0, y0, y0; \
545 vpxor x0, x7, x7; \
546 vpxor x0, x6, x6; \
547 vpxor x0, x5, x5; \
548 vpxor x0, x4, x4; \
549 vpxor x0, x3, x3; \
550 vpxor x0, x2, x2; \
551 vpxor x0, x1, x1; \
552 vpxor stack_tmp0, x0, x0;
965 vpxor (0 * 16)(%rdx), %xmm6, %xmm6;
966 vpxor (1 * 16)(%rdx), %xmm5, %xmm5;
967 vpxor (2 * 16)(%rdx), %xmm4, %xmm4;
968 vpxor (3 * 16)(%rdx), %xmm3, %xmm3;
969 vpxor (4 * 16)(%rdx), %xmm2, %xmm2;
970 vpxor (5 * 16)(%rdx), %xmm1, %xmm1;
971 vpxor (6 * 16)(%rdx), %xmm0, %xmm0;
972 vpxor (7 * 16)(%rdx), %xmm15, %xmm15;
973 vpxor (8 * 16)(%rdx), %xmm14, %xmm14;
974 vpxor (9 * 16)(%rdx), %xmm13, %xmm13;
975 vpxor (10 * 16)(%rdx), %xmm12, %xmm12;
976 vpxor (11 * 16)(%rdx), %xmm11, %xmm11;
977 vpxor (12 * 16)(%rdx), %xmm10, %xmm10;
978 vpxor (13 * 16)(%rdx), %xmm9, %xmm9;
979 vpxor (14 * 16)(%rdx), %xmm8, %xmm8;
1054 vpxor %xmm0, %xmm15, %xmm0;
1055 vpxor %xmm1, %xmm15, %xmm1;
1056 vpxor %xmm2, %xmm15, %xmm2;
1057 vpxor %xmm3, %xmm15, %xmm3;
1058 vpxor %xmm4, %xmm15, %xmm4;
1059 vpxor %xmm5, %xmm15, %xmm5;
1060 vpxor %xmm6, %xmm15, %xmm6;
1061 vpxor %xmm7, %xmm15, %xmm7;
1062 vpxor %xmm8, %xmm15, %xmm8;
1063 vpxor %xmm9, %xmm15, %xmm9;
1064 vpxor %xmm10, %xmm15, %xmm10;
1065 vpxor %xmm11, %xmm15, %xmm11;
1066 vpxor %xmm12, %xmm15, %xmm12;
1067 vpxor 13 * 16(%rax), %xmm15, %xmm13;
1068 vpxor 14 * 16(%rax), %xmm15, %xmm14;
1069 vpxor 15 * 16(%rax), %xmm15, %xmm15;
1075 vpxor 0 * 16(%rdx), %xmm7, %xmm7;
1076 vpxor 1 * 16(%rdx), %xmm6, %xmm6;
1077 vpxor 2 * 16(%rdx), %xmm5, %xmm5;
1078 vpxor 3 * 16(%rdx), %xmm4, %xmm4;
1079 vpxor 4 * 16(%rdx), %xmm3, %xmm3;
1080 vpxor 5 * 16(%rdx), %xmm2, %xmm2;
1081 vpxor 6 * 16(%rdx), %xmm1, %xmm1;
1082 vpxor 7 * 16(%rdx), %xmm0, %xmm0;
1083 vpxor 8 * 16(%rdx), %xmm15, %xmm15;
1084 vpxor 9 * 16(%rdx), %xmm14, %xmm14;
1085 vpxor 10 * 16(%rdx), %xmm13, %xmm13;
1086 vpxor 11 * 16(%rdx), %xmm12, %xmm12;
1087 vpxor 12 * 16(%rdx), %xmm11, %xmm11;
1088 vpxor 13 * 16(%rdx), %xmm10, %xmm10;
1089 vpxor 14 * 16(%rdx), %xmm9, %xmm9;
1090 vpxor 15 * 16(%rdx), %xmm8, %xmm8;
1103 vpxor tmp, iv, iv;
1123 vpxor 0 * 16(%rdx), %xmm0, %xmm15;
1129 vpxor 1 * 16(%rdx), %xmm0, %xmm15;
1134 vpxor 2 * 16(%rdx), %xmm0, %xmm13;
1138 vpxor 3 * 16(%rdx), %xmm0, %xmm12;
1142 vpxor 4 * 16(%rdx), %xmm0, %xmm11;
1146 vpxor 5 * 16(%rdx), %xmm0, %xmm10;
1150 vpxor 6 * 16(%rdx), %xmm0, %xmm9;
1154 vpxor 7 * 16(%rdx), %xmm0, %xmm8;
1158 vpxor 8 * 16(%rdx), %xmm0, %xmm7;
1162 vpxor 9 * 16(%rdx), %xmm0, %xmm6;
1166 vpxor 10 * 16(%rdx), %xmm0, %xmm5;
1170 vpxor 11 * 16(%rdx), %xmm0, %xmm4;
1174 vpxor 12 * 16(%rdx), %xmm0, %xmm3;
1178 vpxor 13 * 16(%rdx), %xmm0, %xmm2;
1182 vpxor 14 * 16(%rdx), %xmm0, %xmm1;
1186 vpxor 15 * 16(%rdx), %xmm0, %xmm15;
1196 vpxor 0 * 16(%rax), %xmm15, %xmm0;
1197 vpxor %xmm1, %xmm15, %xmm1;
1198 vpxor %xmm2, %xmm15, %xmm2;
1199 vpxor %xmm3, %xmm15, %xmm3;
1200 vpxor %xmm4, %xmm15, %xmm4;
1201 vpxor %xmm5, %xmm15, %xmm5;
1202 vpxor %xmm6, %xmm15, %xmm6;
1203 vpxor %xmm7, %xmm15, %xmm7;
1204 vpxor %xmm8, %xmm15, %xmm8;
1205 vpxor %xmm9, %xmm15, %xmm9;
1206 vpxor %xmm10, %xmm15, %xmm10;
1207 vpxor %xmm11, %xmm15, %xmm11;
1208 vpxor %xmm12, %xmm15, %xmm12;
1209 vpxor %xmm13, %xmm15, %xmm13;
1210 vpxor 14 * 16(%rax), %xmm15, %xmm14;
1211 vpxor 15 * 16(%rax), %xmm15, %xmm15;
1217 vpxor 0 * 16(%rsi), %xmm7, %xmm7;
1218 vpxor 1 * 16(%rsi), %xmm6, %xmm6;
1219 vpxor 2 * 16(%rsi), %xmm5, %xmm5;
1220 vpxor 3 * 16(%rsi), %xmm4, %xmm4;
1221 vpxor 4 * 16(%rsi), %xmm3, %xmm3;
1222 vpxor 5 * 16(%rsi), %xmm2, %xmm2;
1223 vpxor 6 * 16(%rsi), %xmm1, %xmm1;
1224 vpxor 7 * 16(%rsi), %xmm0, %xmm0;
1225 vpxor 8 * 16(%rsi), %xmm15, %xmm15;
1226 vpxor 9 * 16(%rsi), %xmm14, %xmm14;
1227 vpxor 10 * 16(%rsi), %xmm13, %xmm13;
1228 vpxor 11 * 16(%rsi), %xmm12, %xmm12;
1229 vpxor 12 * 16(%rsi), %xmm11, %xmm11;
1230 vpxor 13 * 16(%rsi), %xmm10, %xmm10;
1231 vpxor 14 * 16(%rsi), %xmm9, %xmm9;
1232 vpxor 15 * 16(%rsi), %xmm8, %xmm8;
H A Dglue_helper-asm-avx2.S34 vpxor t0, t0, t0; \
36 vpxor t0, x0, x0; \
37 vpxor (0*32+16)(src), x1, x1; \
38 vpxor (1*32+16)(src), x2, x2; \
39 vpxor (2*32+16)(src), x3, x3; \
40 vpxor (3*32+16)(src), x4, x4; \
41 vpxor (4*32+16)(src), x5, x5; \
42 vpxor (5*32+16)(src), x6, x6; \
43 vpxor (6*32+16)(src), x7, x7; \
94 vpxor (0*32)(src), x0, x0; \
95 vpxor (1*32)(src), x1, x1; \
96 vpxor (2*32)(src), x2, x2; \
97 vpxor (3*32)(src), x3, x3; \
98 vpxor (4*32)(src), x4, x4; \
99 vpxor (5*32)(src), x5, x5; \
100 vpxor (6*32)(src), x6, x6; \
101 vpxor (7*32)(src), x7, x7; \
109 vpxor tmp, iv, iv;
119 vpxor tmp0, iv, iv; \
121 vpxor tmp1, iv, iv;
135 vpxor (0*32)(src), tiv, x0; \
140 vpxor (1*32)(src), tiv, x1; \
144 vpxor (2*32)(src), tiv, x2; \
148 vpxor (3*32)(src), tiv, x3; \
152 vpxor (4*32)(src), tiv, x4; \
156 vpxor (5*32)(src), tiv, x5; \
160 vpxor (6*32)(src), tiv, x6; \
164 vpxor (7*32)(src), tiv, x7; \
172 vpxor (0*32)(dst), x0, x0; \
173 vpxor (1*32)(dst), x1, x1; \
174 vpxor (2*32)(dst), x2, x2; \
175 vpxor (3*32)(dst), x3, x3; \
176 vpxor (4*32)(dst), x4, x4; \
177 vpxor (5*32)(dst), x5, x5; \
178 vpxor (6*32)(dst), x6, x6; \
179 vpxor (7*32)(dst), x7, x7; \
H A Dcamellia-aesni-avx2-asm_64.S35 vpxor tmp0, x, x;
103 vpxor t4##_x, t4##_x, t4##_x; \
156 vpxor t7, t7, t7; \
164 vpxor x5, x0, x0; \
165 vpxor x6, x1, x1; \
166 vpxor x7, x2, x2; \
167 vpxor x4, x3, x3; \
175 vpxor x2, x4, x4; \
176 vpxor x3, x5, x5; \
177 vpxor x0, x6, x6; \
178 vpxor x1, x7, x7; \
184 vpxor x7, x0, x0; \
185 vpxor x4, x1, x1; \
186 vpxor x5, x2, x2; \
187 vpxor x6, x3, x3; \
189 vpxor x3, x4, x4; \
190 vpxor x0, x5, x5; \
191 vpxor x1, x6, x6; \
192 vpxor x2, x7, x7; /* note: high and low parts swapped */ \
196 vpxor t6, x1, x1; \
197 vpxor 5 * 32(mem_cd), x1, x1; \
203 vpxor t7, x0, x0; \
204 vpxor 4 * 32(mem_cd), x0, x0; \
206 vpxor t5, x2, x2; \
207 vpxor 6 * 32(mem_cd), x2, x2; \
209 vpxor t4, x3, x3; \
210 vpxor 7 * 32(mem_cd), x3, x3; \
212 vpxor t3, x4, x4; \
213 vpxor 0 * 32(mem_cd), x4, x4; \
215 vpxor t2, x5, x5; \
216 vpxor 1 * 32(mem_cd), x5, x5; \
218 vpxor t1, x6, x6; \
219 vpxor 2 * 32(mem_cd), x6, x6; \
221 vpxor t0, x7, x7; \
222 vpxor 3 * 32(mem_cd), x7, x7;
344 vpxor tt0, tt0, tt0; \
360 vpxor l4, t0, l4; \
363 vpxor l5, t1, l5; \
365 vpxor l6, t2, l6; \
367 vpxor l7, t3, l7; \
389 vpxor 0 * 32(r), t0, t0; \
390 vpxor 1 * 32(r), t1, t1; \
391 vpxor 2 * 32(r), t2, t2; \
392 vpxor 3 * 32(r), t3, t3; \
419 vpxor 4 * 32(r), t0, t0; \
420 vpxor 5 * 32(r), t1, t1; \
421 vpxor 6 * 32(r), t2, t2; \
422 vpxor 7 * 32(r), t3, t3; \
448 vpxor l0, t0, l0; \
450 vpxor l1, t1, l1; \
452 vpxor l2, t2, l2; \
454 vpxor l3, t3, l3; \
525 vpxor 0 * 32(rio), x0, y7; \
526 vpxor 1 * 32(rio), x0, y6; \
527 vpxor 2 * 32(rio), x0, y5; \
528 vpxor 3 * 32(rio), x0, y4; \
529 vpxor 4 * 32(rio), x0, y3; \
530 vpxor 5 * 32(rio), x0, y2; \
531 vpxor 6 * 32(rio), x0, y1; \
532 vpxor 7 * 32(rio), x0, y0; \
533 vpxor 8 * 32(rio), x0, x7; \
534 vpxor 9 * 32(rio), x0, x6; \
535 vpxor 10 * 32(rio), x0, x5; \
536 vpxor 11 * 32(rio), x0, x4; \
537 vpxor 12 * 32(rio), x0, x3; \
538 vpxor 13 * 32(rio), x0, x2; \
539 vpxor 14 * 32(rio), x0, x1; \
540 vpxor 15 * 32(rio), x0, x0;
576 vpxor x0, y7, y7; \
577 vpxor x0, y6, y6; \
578 vpxor x0, y5, y5; \
579 vpxor x0, y4, y4; \
580 vpxor x0, y3, y3; \
581 vpxor x0, y2, y2; \
582 vpxor x0, y1, y1; \
583 vpxor x0, y0, y0; \
584 vpxor x0, x7, x7; \
585 vpxor x0, x6, x6; \
586 vpxor x0, x5, x5; \
587 vpxor x0, x4, x4; \
588 vpxor x0, x3, x3; \
589 vpxor x0, x2, x2; \
590 vpxor x0, x1, x1; \
591 vpxor stack_tmp0, x0, x0;
1024 vpxor %ymm7, %ymm7, %ymm7;
1026 vpxor (%rax), %ymm7, %ymm7;
1028 vpxor (0 * 32 + 16)(%rdx), %ymm6, %ymm6;
1029 vpxor (1 * 32 + 16)(%rdx), %ymm5, %ymm5;
1030 vpxor (2 * 32 + 16)(%rdx), %ymm4, %ymm4;
1031 vpxor (3 * 32 + 16)(%rdx), %ymm3, %ymm3;
1032 vpxor (4 * 32 + 16)(%rdx), %ymm2, %ymm2;
1033 vpxor (5 * 32 + 16)(%rdx), %ymm1, %ymm1;
1034 vpxor (6 * 32 + 16)(%rdx), %ymm0, %ymm0;
1035 vpxor (7 * 32 + 16)(%rdx), %ymm15, %ymm15;
1036 vpxor (8 * 32 + 16)(%rdx), %ymm14, %ymm14;
1037 vpxor (9 * 32 + 16)(%rdx), %ymm13, %ymm13;
1038 vpxor (10 * 32 + 16)(%rdx), %ymm12, %ymm12;
1039 vpxor (11 * 32 + 16)(%rdx), %ymm11, %ymm11;
1040 vpxor (12 * 32 + 16)(%rdx), %ymm10, %ymm10;
1041 vpxor (13 * 32 + 16)(%rdx), %ymm9, %ymm9;
1042 vpxor (14 * 32 + 16)(%rdx), %ymm8, %ymm8;
1144 vpxor %ymm0, %ymm15, %ymm0;
1145 vpxor %ymm1, %ymm15, %ymm1;
1146 vpxor %ymm2, %ymm15, %ymm2;
1147 vpxor %ymm3, %ymm15, %ymm3;
1148 vpxor %ymm4, %ymm15, %ymm4;
1149 vpxor %ymm5, %ymm15, %ymm5;
1150 vpxor %ymm6, %ymm15, %ymm6;
1151 vpxor %ymm7, %ymm15, %ymm7;
1152 vpxor %ymm8, %ymm15, %ymm8;
1153 vpxor %ymm9, %ymm15, %ymm9;
1154 vpxor %ymm10, %ymm15, %ymm10;
1155 vpxor 11 * 32(%rax), %ymm15, %ymm11;
1156 vpxor 12 * 32(%rax), %ymm15, %ymm12;
1157 vpxor 13 * 32(%rax), %ymm15, %ymm13;
1158 vpxor 14 * 32(%rax), %ymm15, %ymm14;
1159 vpxor 15 * 32(%rax), %ymm15, %ymm15;
1165 vpxor 0 * 32(%rdx), %ymm7, %ymm7;
1166 vpxor 1 * 32(%rdx), %ymm6, %ymm6;
1167 vpxor 2 * 32(%rdx), %ymm5, %ymm5;
1168 vpxor 3 * 32(%rdx), %ymm4, %ymm4;
1169 vpxor 4 * 32(%rdx), %ymm3, %ymm3;
1170 vpxor 5 * 32(%rdx), %ymm2, %ymm2;
1171 vpxor 6 * 32(%rdx), %ymm1, %ymm1;
1172 vpxor 7 * 32(%rdx), %ymm0, %ymm0;
1173 vpxor 8 * 32(%rdx), %ymm15, %ymm15;
1174 vpxor 9 * 32(%rdx), %ymm14, %ymm14;
1175 vpxor 10 * 32(%rdx), %ymm13, %ymm13;
1176 vpxor 11 * 32(%rdx), %ymm12, %ymm12;
1177 vpxor 12 * 32(%rdx), %ymm11, %ymm11;
1178 vpxor 13 * 32(%rdx), %ymm10, %ymm10;
1179 vpxor 14 * 32(%rdx), %ymm9, %ymm9;
1180 vpxor 15 * 32(%rdx), %ymm8, %ymm8;
1195 vpxor tmp, iv, iv;
1205 vpxor tmp0, iv, iv; \
1207 vpxor tmp1, iv, iv;
1233 vpxor 0 * 32(%rdx), %ymm0, %ymm15;
1239 vpxor 1 * 32(%rdx), %ymm0, %ymm15;
1244 vpxor 2 * 32(%rdx), %ymm0, %ymm15;
1249 vpxor 3 * 32(%rdx), %ymm0, %ymm15;
1254 vpxor 4 * 32(%rdx), %ymm0, %ymm11;
1258 vpxor 5 * 32(%rdx), %ymm0, %ymm10;
1262 vpxor 6 * 32(%rdx), %ymm0, %ymm9;
1266 vpxor 7 * 32(%rdx), %ymm0, %ymm8;
1270 vpxor 8 * 32(%rdx), %ymm0, %ymm7;
1274 vpxor 9 * 32(%rdx), %ymm0, %ymm6;
1278 vpxor 10 * 32(%rdx), %ymm0, %ymm5;
1282 vpxor 11 * 32(%rdx), %ymm0, %ymm4;
1286 vpxor 12 * 32(%rdx), %ymm0, %ymm3;
1290 vpxor 13 * 32(%rdx), %ymm0, %ymm2;
1294 vpxor 14 * 32(%rdx), %ymm0, %ymm1;
1298 vpxor 15 * 32(%rdx), %ymm0, %ymm15;
1309 vpxor 0 * 32(%rax), %ymm15, %ymm0;
1310 vpxor %ymm1, %ymm15, %ymm1;
1311 vpxor %ymm2, %ymm15, %ymm2;
1312 vpxor %ymm3, %ymm15, %ymm3;
1313 vpxor %ymm4, %ymm15, %ymm4;
1314 vpxor %ymm5, %ymm15, %ymm5;
1315 vpxor %ymm6, %ymm15, %ymm6;
1316 vpxor %ymm7, %ymm15, %ymm7;
1317 vpxor %ymm8, %ymm15, %ymm8;
1318 vpxor %ymm9, %ymm15, %ymm9;
1319 vpxor %ymm10, %ymm15, %ymm10;
1320 vpxor %ymm11, %ymm15, %ymm11;
1321 vpxor 12 * 32(%rax), %ymm15, %ymm12;
1322 vpxor 13 * 32(%rax), %ymm15, %ymm13;
1323 vpxor 14 * 32(%rax), %ymm15, %ymm14;
1324 vpxor 15 * 32(%rax), %ymm15, %ymm15;
1330 vpxor 0 * 32(%rsi), %ymm7, %ymm7;
1331 vpxor 1 * 32(%rsi), %ymm6, %ymm6;
1332 vpxor 2 * 32(%rsi), %ymm5, %ymm5;
1333 vpxor 3 * 32(%rsi), %ymm4, %ymm4;
1334 vpxor 4 * 32(%rsi), %ymm3, %ymm3;
1335 vpxor 5 * 32(%rsi), %ymm2, %ymm2;
1336 vpxor 6 * 32(%rsi), %ymm1, %ymm1;
1337 vpxor 7 * 32(%rsi), %ymm0, %ymm0;
1338 vpxor 8 * 32(%rsi), %ymm15, %ymm15;
1339 vpxor 9 * 32(%rsi), %ymm14, %ymm14;
1340 vpxor 10 * 32(%rsi), %ymm13, %ymm13;
1341 vpxor 11 * 32(%rsi), %ymm12, %ymm12;
1342 vpxor 12 * 32(%rsi), %ymm11, %ymm11;
1343 vpxor 13 * 32(%rsi), %ymm10, %ymm10;
1344 vpxor 14 * 32(%rsi), %ymm9, %ymm9;
1345 vpxor 15 * 32(%rsi), %ymm8, %ymm8;
H A Daesni-intel_avx-x86_64.S232 vpxor (arg1), \XMM0, \XMM0
255 vpxor \GH , \T2, \T2 # T2 = (a1+a0)
256 vpxor \HK , \T3, \T3 # T3 = (b1+b0)
261 vpxor \GH, \T2,\T2
262 vpxor \T1, \T2,\T2 # T2 = a0*b1+a1*b0
266 vpxor \T3, \GH, \GH
267 vpxor \T2, \T1, \T1 # <T1:GH> = GH x HK
274 vpxor \T3, \T2, \T2 # xor the shifted versions
275 vpxor \T4, \T2, \T2
280 vpxor \T2, \GH, \GH # first phase of the reduction complete
287 vpxor \T3, \T2, \T2 # xor the shifted versions
288 vpxor \T4, \T2, \T2
290 vpxor \T5, \T2, \T2
291 vpxor \T2, \GH, \GH
292 vpxor \T1, \GH, \GH # the result is in GH
303 vpxor \T5, \T1, \T1
309 vpxor \T5, \T1, \T1
315 vpxor \T5, \T1, \T1
321 vpxor \T5, \T1, \T1
327 vpxor \T5, \T1, \T1
333 vpxor \T5, \T1, \T1
339 vpxor \T5, \T1, \T1
345 vpxor \T5, \T1, \T1
367 vpxor reg_i, reg_i, reg_i
372 vpxor \T1, reg_i, reg_i
417 vpxor \T_key, reg_i, reg_i
452 vpxor \T1, reg_i, reg_i
470 vpxor reg_i, reg_j, reg_j
519 vpxor \T_key, \XMM1, \XMM1
520 vpxor \T_key, \XMM2, \XMM2
521 vpxor \T_key, \XMM3, \XMM3
522 vpxor \T_key, \XMM4, \XMM4
523 vpxor \T_key, \XMM5, \XMM5
524 vpxor \T_key, \XMM6, \XMM6
525 vpxor \T_key, \XMM7, \XMM7
526 vpxor \T_key, \XMM8, \XMM8
556 vpxor \T1, \XMM1, \XMM1
563 vpxor \T1, \XMM2, \XMM2
570 vpxor \T1, \XMM3, \XMM3
577 vpxor \T1, \XMM4, \XMM4
584 vpxor \T1, \XMM5, \XMM5
591 vpxor \T1, \XMM6, \XMM6
598 vpxor \T1, \XMM7, \XMM7
605 vpxor \T1, \XMM8, \XMM8
614 vpxor TMP1(%rsp), \XMM1, \XMM1 # combine GHASHed value with the corresponding ciphertext
679 vpxor \T1, \XMM1, \XMM1
680 vpxor \T1, \XMM2, \XMM2
681 vpxor \T1, \XMM3, \XMM3
682 vpxor \T1, \XMM4, \XMM4
683 vpxor \T1, \XMM5, \XMM5
684 vpxor \T1, \XMM6, \XMM6
685 vpxor \T1, \XMM7, \XMM7
686 vpxor \T1, \XMM8, \XMM8
722 vpxor \T2, \T6, \T6
740 vpxor \T3, \T4, \T4
742 vpxor \T3, \T7, \T7
745 vpxor \T1, \T3, \T3
748 vpxor \T3, \T6, \T6
765 vpxor \T3, \T4, \T4
767 vpxor \T3, \T7, \T7
770 vpxor \T1, \T3, \T3
773 vpxor \T3, \T6, \T6
788 vpxor \T3, \T4, \T4
790 vpxor \T3, \T7, \T7
793 vpxor \T1, \T3, \T3
796 vpxor \T3, \T6, \T6
812 vpxor \T3, \T4, \T4
814 vpxor \T3, \T7, \T7
817 vpxor \T1, \T3, \T3
820 vpxor \T3, \T6, \T6
835 vpxor \T3, \T4, \T4
837 vpxor \T3, \T7, \T7
840 vpxor \T1, \T3, \T3
843 vpxor \T3, \T6, \T6
859 vpxor \T3, \T4, \T4
861 vpxor \T3, \T7, \T7
864 vpxor \T1, \T3, \T3
867 vpxor \T3, \T6, \T6
884 vpxor \T3, \T4, \T4
886 vpxor \T3, \T7, \T7
889 vpxor \T1, \T3, \T3
892 vpxor \T3, \T6, \T6
894 vpxor \T4, \T6, \T6
895 vpxor \T7, \T6, \T6
903 vpxor 16*i(arg3, %r11), \T5, \T2
920 vpxor \T3, \T7, \T7
921 vpxor \T4, \T6, \T6 # accumulate the results in T6:T7
932 vpxor \T3, \T2, \T2 # xor the shifted versions
933 vpxor \T4, \T2, \T2
938 vpxor \T2, \T7, \T7 # first phase of the reduction complete
956 vpxor \T3, \T2, \T2 # xor the shifted versions
957 vpxor \T4, \T2, \T2
959 vpxor \T1, \T2, \T2
960 vpxor \T2, \T7, \T7
961 vpxor \T7, \T6, \T6 # the result is in T6
974 vpxor \T6, \XMM1, \XMM1
988 vpxor \XMM1, \T2, \T2
999 vpxor \XMM2, \T2, \T2
1002 vpxor \T4, \T6, \T6
1005 vpxor \T4, \T7, \T7
1009 vpxor \T2, \XMM1, \XMM1
1014 vpxor \XMM3, \T2, \T2
1017 vpxor \T4, \T6, \T6
1020 vpxor \T4, \T7, \T7
1024 vpxor \T2, \XMM1, \XMM1
1029 vpxor \XMM4, \T2, \T2
1032 vpxor \T4, \T6, \T6
1035 vpxor \T4, \T7, \T7
1039 vpxor \T2, \XMM1, \XMM1
1044 vpxor \XMM5, \T2, \T2
1047 vpxor \T4, \T6, \T6
1050 vpxor \T4, \T7, \T7
1054 vpxor \T2, \XMM1, \XMM1
1059 vpxor \XMM6, \T2, \T2
1062 vpxor \T4, \T6, \T6
1065 vpxor \T4, \T7, \T7
1069 vpxor \T2, \XMM1, \XMM1
1074 vpxor \XMM7, \T2, \T2
1077 vpxor \T4, \T6, \T6
1080 vpxor \T4, \T7, \T7
1084 vpxor \T2, \XMM1, \XMM1
1089 vpxor \XMM8, \T2, \T2
1092 vpxor \T4, \T6, \T6
1095 vpxor \T4, \T7, \T7
1100 vpxor \T2, \XMM1, \XMM1
1101 vpxor \T6, \XMM1, \XMM1
1102 vpxor \T7, \XMM1, \T2
1110 vpxor \T4, \T7, \T7
1111 vpxor \T2, \T6, \T6 # <T6:T7> holds the result of
1120 vpxor \T3, \T2, \T2 # xor the shifted versions
1121 vpxor \T4, \T2, \T2
1126 vpxor \T2, \T7, \T7 # first phase of the reduction complete
1134 vpxor \T3, \T2, \T2 # xor the shifted versions
1135 vpxor \T4, \T2, \T2
1137 vpxor \T1, \T2, \T2
1138 vpxor \T2, \T7, \T7
1139 vpxor \T7, \T6, \T6 # the result is in T6
1338 vpxor %xmm1, %xmm9, %xmm9 # Plaintext XOR E(K, Yn)
1344 vpxor %xmm2, %xmm14, %xmm14
1350 vpxor %xmm1, %xmm9, %xmm9 # Plaintext XOR E(K, Yn)
1355 vpxor %xmm9, %xmm14, %xmm14
1392 vpxor %xmm1, %xmm15, %xmm15 # xmm15 = len(A)||len(C)
1394 vpxor %xmm15, %xmm14, %xmm14
1403 vpxor %xmm14, %xmm9, %xmm9
1476 vpxor %xmm2, %xmm6, %xmm6 # xmm6 holds the HashKey<<1 mod poly
1549 vpxor \T3, \GH, \GH
1555 vpxor \T3, \T1, \T1
1556 vpxor \T2, \GH, \GH
1565 vpxor \T2, \GH, \GH # first phase of the reduction complete
1574 vpxor \T2, \GH, \GH # second phase of the reduction complete
1576 vpxor \T1, \GH, \GH # the result is in GH
1626 vpxor reg_i, reg_i, reg_i
1631 vpxor \T1, reg_i, reg_i
1676 vpxor \T_key, reg_i, reg_i
1711 vpxor \T1, reg_i, reg_i
1730 vpxor reg_i, reg_j, reg_j
1779 vpxor \T_key, \XMM1, \XMM1
1780 vpxor \T_key, \XMM2, \XMM2
1781 vpxor \T_key, \XMM3, \XMM3
1782 vpxor \T_key, \XMM4, \XMM4
1783 vpxor \T_key, \XMM5, \XMM5
1784 vpxor \T_key, \XMM6, \XMM6
1785 vpxor \T_key, \XMM7, \XMM7
1786 vpxor \T_key, \XMM8, \XMM8
1816 vpxor \T1, \XMM1, \XMM1
1823 vpxor \T1, \XMM2, \XMM2
1830 vpxor \T1, \XMM3, \XMM3
1837 vpxor \T1, \XMM4, \XMM4
1844 vpxor \T1, \XMM5, \XMM5
1851 vpxor \T1, \XMM6, \XMM6
1858 vpxor \T1, \XMM7, \XMM7
1865 vpxor \T1, \XMM8, \XMM8
1874 vpxor TMP1(%rsp), \XMM1, \XMM1 # combine GHASHed value with
1943 vpxor \T1, \XMM1, \XMM1
1944 vpxor \T1, \XMM2, \XMM2
1945 vpxor \T1, \XMM3, \XMM3
1946 vpxor \T1, \XMM4, \XMM4
1947 vpxor \T1, \XMM5, \XMM5
1948 vpxor \T1, \XMM6, \XMM6
1949 vpxor \T1, \XMM7, \XMM7
1950 vpxor \T1, \XMM8, \XMM8
1986 vpxor \T5, \T6, \T6
2001 vpxor \T3, \T4, \T4
2004 vpxor \T3, \T7, \T7
2007 vpxor \T3, \T6, \T6
2010 vpxor \T3, \T6, \T6
2027 vpxor \T3, \T4, \T4
2030 vpxor \T3, \T7, \T7
2033 vpxor \T3, \T6, \T6
2036 vpxor \T3, \T6, \T6
2051 vpxor \T3, \T4, \T4
2054 vpxor \T3, \T7, \T7
2057 vpxor \T3, \T6, \T6
2060 vpxor \T3, \T6, \T6
2076 vpxor \T3, \T4, \T4
2079 vpxor \T3, \T7, \T7
2082 vpxor \T3, \T6, \T6
2085 vpxor \T3, \T6, \T6
2100 vpxor \T3, \T4, \T4
2103 vpxor \T3, \T7, \T7
2106 vpxor \T3, \T6, \T6
2109 vpxor \T3, \T6, \T6
2124 vpxor \T3, \T4, \T4
2127 vpxor \T3, \T7, \T7
2130 vpxor \T3, \T6, \T6
2133 vpxor \T3, \T6, \T6
2152 vpxor \T3, \T7, \T7
2155 vpxor \T3, \T6, \T6
2158 vpxor \T3, \T6, \T6
2161 vpxor \T3, \T4, \T1
2170 vpxor 16*i(arg3, %r11), \T5, \T2
2187 vpxor \T3, \T7, \T7
2188 vpxor \T6, \T1, \T1 # accumulate the results in T1:T7
2199 vpxor \T2, \T7, \T7 # first phase of the reduction complete
2220 vpxor \T2, \T4, \T4 # second phase of the reduction complete
2222 vpxor \T4, \T1, \T1 # the result is in T1
2234 vpxor \T1, \XMM1, \XMM1
2250 vpxor \XMM1, \T2, \T2
2251 vpxor \T5, \T3, \T3
2263 vpxor \XMM2, \T2, \T2
2264 vpxor \T5, \T3, \T3
2267 vpxor \T4, \T6, \T6
2270 vpxor \T4, \T7, \T7
2274 vpxor \T2, \XMM1, \XMM1
2281 vpxor \XMM3, \T2, \T2
2282 vpxor \T5, \T3, \T3
2285 vpxor \T4, \T6, \T6
2288 vpxor \T4, \T7, \T7
2292 vpxor \T2, \XMM1, \XMM1
2299 vpxor \XMM4, \T2, \T2
2300 vpxor \T5, \T3, \T3
2303 vpxor \T4, \T6, \T6
2306 vpxor \T4, \T7, \T7
2310 vpxor \T2, \XMM1, \XMM1
2317 vpxor \XMM5, \T2, \T2
2318 vpxor \T5, \T3, \T3
2321 vpxor \T4, \T6, \T6
2324 vpxor \T4, \T7, \T7
2328 vpxor \T2, \XMM1, \XMM1
2335 vpxor \XMM6, \T2, \T2
2336 vpxor \T5, \T3, \T3
2339 vpxor \T4, \T6, \T6
2342 vpxor \T4, \T7, \T7
2346 vpxor \T2, \XMM1, \XMM1
2353 vpxor \XMM7, \T2, \T2
2354 vpxor \T5, \T3, \T3
2357 vpxor \T4, \T6, \T6
2360 vpxor \T4, \T7, \T7
2364 vpxor \T2, \XMM1, \XMM1
2371 vpxor \XMM8, \T2, \T2
2372 vpxor \T5, \T3, \T3
2375 vpxor \T4, \T6, \T6
2378 vpxor \T4, \T7, \T7
2382 vpxor \T2, \XMM1, \XMM1
2383 vpxor \T6, \XMM1, \XMM1
2384 vpxor \T7, \XMM1, \T2
2392 vpxor \T4, \T7, \T7
2393 vpxor \T2, \T6, \T6 # <T6:T7> holds the result of the
2403 vpxor \T2, \T7, \T7 # first phase of the reduction complete
2414 vpxor \T2, \T4, \T4 # second phase of the reduction complete
2416 vpxor \T4, \T6, \T6 # the result is in T6
2615 vpxor %xmm1, %xmm9, %xmm9 # Plaintext XOR E(K, Yn)
2620 vpxor %xmm2, %xmm14, %xmm14
2626 vpxor %xmm1, %xmm9, %xmm9 # Plaintext XOR E(K, Yn)
2630 vpxor %xmm9, %xmm14, %xmm14
2667 vpxor %xmm1, %xmm15, %xmm15 # xmm15 = len(A)||len(C)
2669 vpxor %xmm15, %xmm14, %xmm14
2678 vpxor %xmm14, %xmm9, %xmm9
2752 vpxor %xmm2, %xmm6, %xmm6 # xmm6 holds the HashKey<<1 mod poly
H A Dcast5-avx-x86_64-asm_64.S146 vpxor a1, RX, a1; \
147 vpxor a2, RTMP, a2;
152 F_2(a1, b1, a2, b2, vpxor, subl, addl, xorl)
170 vpxor kr(CTX), RKR, RKR;
175 vpxor kr(CTX), RKR, RKR; \
452 vpxor RX, RR1, RR1;
453 vpxor 0*16+8(%r12), RL1, RL1;
454 vpxor 1*16+8(%r12), RR2, RR2;
455 vpxor 2*16+8(%r12), RL2, RL2;
456 vpxor 3*16+8(%r12), RR3, RR3;
457 vpxor 4*16+8(%r12), RL3, RL3;
458 vpxor 5*16+8(%r12), RR4, RR4;
459 vpxor 6*16+8(%r12), RL4, RL4;
526 vpxor (0*16)(%r12), RR1, RR1;
527 vpxor (1*16)(%r12), RL1, RL1;
528 vpxor (2*16)(%r12), RR2, RR2;
529 vpxor (3*16)(%r12), RL2, RL2;
530 vpxor (4*16)(%r12), RR3, RR3;
531 vpxor (5*16)(%r12), RL3, RL3;
532 vpxor (6*16)(%r12), RR4, RR4;
533 vpxor (7*16)(%r12), RL4, RL4;
H A Dtwofish-avx-x86_64-asm_64.S160 vpxor RT, c, c; \
166 vpxor d, y, d; \ define
172 vpxor RT, c, c; \
175 vpxor d, y, d; \ define
233 vpxor x0, wkey, x0; \
234 vpxor x1, wkey, x1; \
235 vpxor x2, wkey, x2; \
236 vpxor x3, wkey, x3; \
243 vpxor x0, wkey, x0; \
244 vpxor x1, wkey, x1; \
245 vpxor x2, wkey, x2; \
246 vpxor x3, wkey, x3;
H A Dsha1_ssse3_asm.S505 vpxor W_minus_08, W, W
506 vpxor W_minus_16, W_TMP1, W_TMP1
508 vpxor W_TMP1, W, W
517 vpxor W, W_TMP1, W_TMP1
518 vpxor W_TMP2, W_TMP1, W
528 vpxor W_minus_28, W, W # W is W_minus_32 before xor
530 vpxor W_minus_16, W_TMP1, W_TMP1
531 vpxor W_TMP1, W, W
H A Dsha1_avx2_x86_64_asm.S242 vpxor WY_minus_08, WY, WY
243 vpxor WY_minus_16, WY_TMP, WY_TMP
245 vpxor WY_TMP, WY, WY
255 vpxor WY, WY_TMP, WY_TMP
257 vpxor WY_TMP2, WY_TMP, WY
283 vpxor WY_minus_28, WY, WY
285 vpxor WY_minus_16, WY_TMP, WY_TMP
287 vpxor WY_TMP, WY, WY
H A Dsha512-avx-asm.S189 vpxor %xmm1, %xmm0, %xmm0 # XMM0 = W[t-2]>>61 ^ W[t-2]>>19
199 vpxor %xmm7, %xmm6, %xmm6 # XMM6 = W[t-15]>>1 ^ W[t-15]>>8
208 vpxor %xmm3, %xmm2, %xmm2 # XMM2 = W[t-2]>>6 ^ W[t-2]<<3
213 vpxor %xmm9, %xmm8, %xmm8 # XMM8 = W[t-15]>>7 ^ W[t-15]<<63
218 vpxor %xmm8, %xmm6, %xmm6 # XMM6 = W[t-15]>>1 ^ W[t-15]>>8 ^
225 vpxor %xmm4, %xmm0, %xmm0 # XMM0 = W[t-2]>>61 ^ W[t-2]>>19 ^
228 vpxor %xmm2, %xmm0, %xmm0 # XMM0 = s1(W[t-2])
242 vpxor %xmm5, %xmm6, %xmm6 # XMM6 = s0(W[t-15])
H A Dsha256-avx-asm.S212 vpxor XTMP1, XTMP3, XTMP3 #
216 vpxor XTMP2, XTMP3, XTMP3 # XTMP1 = W[-15] MY_ROR 7 ^ W[-15] MY_ROR
220 vpxor XTMP4, XTMP3, XTMP1 # XTMP1 = s0
250 vpxor XTMP3, XTMP2, XTMP2 #
254 vpxor XTMP2, XTMP4, XTMP4 # XTMP4 = s1 {xBxA}
288 vpxor XTMP3, XTMP2, XTMP2
292 vpxor XTMP2, XTMP5, XTMP5 # XTMP5 = s1 {xDxC}
H A Dcast6-avx-x86_64-asm_64.S146 vpxor a1, RX, a1; \
147 vpxor a2, RTMP, a2;
152 F_2(a1, b1, a2, b2, vpxor, subl, addl, xorl)
197 vpxor (kr+n*16)(CTX), RKR, RKR; \
H A Daes_ctrby8_avx-x86_64.S185 vpxor xkey0, xdata0, xdata0
196 vpxor xkey0, var_xdata, var_xdata
409 vpxor xkeyA, var_xdata, var_xdata
411 vpxor xkeyB, var_xdata, var_xdata
418 vpxor xkeyA, var_xdata, var_xdata
H A Dsha256-avx2-asm.S234 vpxor XTMP1, XTMP3, XTMP3
238 vpxor XTMP2, XTMP3, XTMP3 # XTMP3 = W[-15] ror 7 ^ W[-15] ror 18
244 vpxor XTMP4, XTMP3, XTMP1 # XTMP1 = s0
278 vpxor XTMP3, XTMP2, XTMP2
284 vpxor XTMP2, XTMP4, XTMP4 # XTMP4 = s1 {xBxA}
335 vpxor XTMP3, XTMP2, XTMP2
339 vpxor XTMP2, XTMP5, XTMP5 # XTMP5 = s1 {xDxC}
H A Dsha512-avx2-asm.S229 vpxor YTMP4, YTMP3, YTMP3 # YTMP3 = W[-15] ror 1 ^ W[-15] >> 7
230 vpxor YTMP1, YTMP3, YTMP1 # YTMP1 = s0
292 vpxor YTMP3, YTMP4, YTMP4 # YTMP4 = W[-2] ror 19 ^ W[-2] >> 6 {BABA}
296 vpxor YTMP3, YTMP4, YTMP4 # YTMP4 = s1 = (W[-2] ror 19) ^
348 vpxor YTMP3, YTMP4, YTMP4 # YTMP4 = W[-2] ror 19 ^ W[-2] >> 6 {DC--}
352 vpxor YTMP3, YTMP4, YTMP4 # YTMP4 = s1 = (W[-2] ror 19) ^
H A DMakefile5 avx_supported := $(call as-instr,vpxor %xmm0$(comma)%xmm0$(comma)%xmm0,yes,no)
/linux-4.1.27/lib/raid6/
H A Davx2.c55 asm volatile("vpxor %ymm3,%ymm3,%ymm3"); /* Zero temp */ raid6_avx21_gen_syndrome()
68 asm volatile("vpxor %ymm5,%ymm4,%ymm4"); raid6_avx21_gen_syndrome()
69 asm volatile("vpxor %ymm6,%ymm2,%ymm2"); raid6_avx21_gen_syndrome()
70 asm volatile("vpxor %ymm6,%ymm4,%ymm4"); raid6_avx21_gen_syndrome()
76 asm volatile("vpxor %ymm5,%ymm4,%ymm4"); raid6_avx21_gen_syndrome()
77 asm volatile("vpxor %ymm6,%ymm2,%ymm2"); raid6_avx21_gen_syndrome()
78 asm volatile("vpxor %ymm6,%ymm4,%ymm4"); raid6_avx21_gen_syndrome()
81 asm volatile("vpxor %ymm2,%ymm2,%ymm2"); raid6_avx21_gen_syndrome()
83 asm volatile("vpxor %ymm4,%ymm4,%ymm4"); raid6_avx21_gen_syndrome()
114 asm volatile("vpxor %ymm1,%ymm1,%ymm1"); /* Zero temp */ raid6_avx22_gen_syndrome()
133 asm volatile("vpxor %ymm5,%ymm4,%ymm4"); raid6_avx22_gen_syndrome()
134 asm volatile("vpxor %ymm7,%ymm6,%ymm6"); raid6_avx22_gen_syndrome()
137 asm volatile("vpxor %ymm5,%ymm2,%ymm2"); raid6_avx22_gen_syndrome()
138 asm volatile("vpxor %ymm7,%ymm3,%ymm3"); raid6_avx22_gen_syndrome()
139 asm volatile("vpxor %ymm5,%ymm4,%ymm4"); raid6_avx22_gen_syndrome()
140 asm volatile("vpxor %ymm7,%ymm6,%ymm6"); raid6_avx22_gen_syndrome()
178 asm volatile("vpxor %ymm1,%ymm1,%ymm1"); /* Zero temp */ raid6_avx24_gen_syndrome()
179 asm volatile("vpxor %ymm2,%ymm2,%ymm2"); /* P[0] */ raid6_avx24_gen_syndrome()
180 asm volatile("vpxor %ymm3,%ymm3,%ymm3"); /* P[1] */ raid6_avx24_gen_syndrome()
181 asm volatile("vpxor %ymm4,%ymm4,%ymm4"); /* Q[0] */ raid6_avx24_gen_syndrome()
182 asm volatile("vpxor %ymm6,%ymm6,%ymm6"); /* Q[1] */ raid6_avx24_gen_syndrome()
183 asm volatile("vpxor %ymm10,%ymm10,%ymm10"); /* P[2] */ raid6_avx24_gen_syndrome()
184 asm volatile("vpxor %ymm11,%ymm11,%ymm11"); /* P[3] */ raid6_avx24_gen_syndrome()
185 asm volatile("vpxor %ymm12,%ymm12,%ymm12"); /* Q[2] */ raid6_avx24_gen_syndrome()
186 asm volatile("vpxor %ymm14,%ymm14,%ymm14"); /* Q[3] */ raid6_avx24_gen_syndrome()
206 asm volatile("vpxor %ymm5,%ymm4,%ymm4"); raid6_avx24_gen_syndrome()
207 asm volatile("vpxor %ymm7,%ymm6,%ymm6"); raid6_avx24_gen_syndrome()
208 asm volatile("vpxor %ymm13,%ymm12,%ymm12"); raid6_avx24_gen_syndrome()
209 asm volatile("vpxor %ymm15,%ymm14,%ymm14"); raid6_avx24_gen_syndrome()
214 asm volatile("vpxor %ymm5,%ymm2,%ymm2"); raid6_avx24_gen_syndrome()
215 asm volatile("vpxor %ymm7,%ymm3,%ymm3"); raid6_avx24_gen_syndrome()
216 asm volatile("vpxor %ymm13,%ymm10,%ymm10"); raid6_avx24_gen_syndrome()
217 asm volatile("vpxor %ymm15,%ymm11,%ymm11"); raid6_avx24_gen_syndrome()
218 asm volatile("vpxor %ymm5,%ymm4,%ymm4"); raid6_avx24_gen_syndrome()
219 asm volatile("vpxor %ymm7,%ymm6,%ymm6"); raid6_avx24_gen_syndrome()
220 asm volatile("vpxor %ymm13,%ymm12,%ymm12"); raid6_avx24_gen_syndrome()
221 asm volatile("vpxor %ymm15,%ymm14,%ymm14"); raid6_avx24_gen_syndrome()
224 asm volatile("vpxor %ymm2,%ymm2,%ymm2"); raid6_avx24_gen_syndrome()
226 asm volatile("vpxor %ymm3,%ymm3,%ymm3"); raid6_avx24_gen_syndrome()
228 asm volatile("vpxor %ymm10,%ymm10,%ymm10"); raid6_avx24_gen_syndrome()
230 asm volatile("vpxor %ymm11,%ymm11,%ymm11"); raid6_avx24_gen_syndrome()
232 asm volatile("vpxor %ymm4,%ymm4,%ymm4"); raid6_avx24_gen_syndrome()
234 asm volatile("vpxor %ymm6,%ymm6,%ymm6"); raid6_avx24_gen_syndrome()
236 asm volatile("vpxor %ymm12,%ymm12,%ymm12"); raid6_avx24_gen_syndrome()
238 asm volatile("vpxor %ymm14,%ymm14,%ymm14"); raid6_avx24_gen_syndrome()
H A Drecov_avx2.c67 asm volatile("vpxor %0, %%ymm1, %%ymm1" : : "m" (dq[0])); raid6_2data_recov_avx2()
68 asm volatile("vpxor %0, %%ymm9, %%ymm9" : : "m" (dq[32])); raid6_2data_recov_avx2()
69 asm volatile("vpxor %0, %%ymm0, %%ymm0" : : "m" (dp[0])); raid6_2data_recov_avx2()
70 asm volatile("vpxor %0, %%ymm8, %%ymm8" : : "m" (dp[32])); raid6_2data_recov_avx2()
92 asm volatile("vpxor %ymm14, %ymm15, %ymm15"); raid6_2data_recov_avx2()
93 asm volatile("vpxor %ymm4, %ymm5, %ymm5"); raid6_2data_recov_avx2()
112 asm volatile("vpxor %ymm4, %ymm1, %ymm1"); raid6_2data_recov_avx2()
113 asm volatile("vpxor %ymm12, %ymm13, %ymm13"); raid6_2data_recov_avx2()
119 asm volatile("vpxor %ymm5, %ymm1, %ymm1"); raid6_2data_recov_avx2()
120 asm volatile("vpxor %ymm15, %ymm13, %ymm13"); raid6_2data_recov_avx2()
128 asm volatile("vpxor %ymm1, %ymm0, %ymm0"); raid6_2data_recov_avx2()
129 asm volatile("vpxor %ymm13, %ymm8, %ymm8"); raid6_2data_recov_avx2()
142 asm volatile("vpxor %0, %%ymm1, %%ymm1" : : "m" (*dq)); raid6_2data_recov_avx2()
143 asm volatile("vpxor %0, %%ymm0, %%ymm0" : : "m" (*dp)); raid6_2data_recov_avx2()
159 asm volatile("vpxor %ymm4, %ymm5, %ymm5"); raid6_2data_recov_avx2()
171 asm volatile("vpxor %ymm4, %ymm1, %ymm1"); raid6_2data_recov_avx2()
174 asm volatile("vpxor %ymm5, %ymm1, %ymm1"); raid6_2data_recov_avx2()
178 asm volatile("vpxor %ymm1, %ymm0, %ymm0"); raid6_2data_recov_avx2()
225 asm volatile("vpxor %0, %%ymm3, %%ymm3" : : "m" (q[0])); raid6_datap_recov_avx2()
226 asm volatile("vpxor %0, %%ymm8, %%ymm8" : : "m" (q[32])); raid6_datap_recov_avx2()
247 asm volatile("vpxor %ymm0, %ymm1, %ymm1"); raid6_datap_recov_avx2()
248 asm volatile("vpxor %ymm13, %ymm14, %ymm14"); raid6_datap_recov_avx2()
256 asm volatile("vpxor %ymm1, %ymm2, %ymm2"); raid6_datap_recov_avx2()
257 asm volatile("vpxor %ymm14, %ymm12, %ymm12"); raid6_datap_recov_avx2()
275 asm volatile("vpxor %0, %%ymm3, %%ymm3" : : "m" (q[0])); raid6_datap_recov_avx2()
287 asm volatile("vpxor %ymm0, %ymm1, %ymm1"); raid6_datap_recov_avx2()
292 asm volatile("vpxor %ymm1, %ymm2, %ymm2"); raid6_datap_recov_avx2()
/linux-4.1.27/arch/x86/crypto/sha-mb/
H A Dsha1_x8_avx2.S129 vpxor \regD, \regC, \regF
131 vpxor \regD, \regF, \regF
136 vpxor \regC, \regD, \regF
137 vpxor \regB, \regF, \regF
180 vpxor W14, W16, W16
182 vpxor offset(%rsp), W16, W16
184 vpxor offset(%rsp), W16, W16

Completed in 487 milliseconds