Lines Matching refs:esi

52 	pushl %esi
56 movl 12(%esp),%esi # Function arg: unsigned char *buff
57 testl $3, %esi # Check alignment.
59 testl $1, %esi # Check alignment.
65 movzbl (%esi), %ebx
68 inc %esi
69 testl $2, %esi
76 1: movw (%esi), %bx
77 addl $2, %esi
84 testl %esi, %esi
85 1: movl (%esi), %ebx
87 movl 4(%esi), %ebx
89 movl 8(%esi), %ebx
91 movl 12(%esi), %ebx
93 movl 16(%esi), %ebx
95 movl 20(%esi), %ebx
97 movl 24(%esi), %ebx
99 movl 28(%esi), %ebx
101 lea 32(%esi), %esi
109 3: adcl (%esi), %eax
110 lea 4(%esi), %esi
118 movw (%esi),%cx
119 leal 2(%esi),%esi
122 5: movb (%esi),%cl
131 popl %esi
140 pushl %esi
144 movl 12(%esp),%esi # Function arg: const unsigned char *buf
146 testl $3, %esi
153 addl %ebx,%esi
157 testl %esi, %esi
161 20: addw (%esi), %ax
162 lea 2(%esi), %esi
166 testl $1, %esi
171 movzbl (%esi), %ebx
175 inc %esi
176 testl $2, %esi
184 movzbl (%esi),%ebx # csumming 1 byte, 2-aligned
189 addw (%esi), %ax # csumming 2 bytes, 2-aligned
194 addl -128(%esi), %eax
195 adcl -124(%esi), %eax
196 adcl -120(%esi), %eax
197 adcl -116(%esi), %eax
198 adcl -112(%esi), %eax
199 adcl -108(%esi), %eax
200 adcl -104(%esi), %eax
201 adcl -100(%esi), %eax
202 adcl -96(%esi), %eax
203 adcl -92(%esi), %eax
204 adcl -88(%esi), %eax
205 adcl -84(%esi), %eax
206 adcl -80(%esi), %eax
207 adcl -76(%esi), %eax
208 adcl -72(%esi), %eax
209 adcl -68(%esi), %eax
210 adcl -64(%esi), %eax
211 adcl -60(%esi), %eax
212 adcl -56(%esi), %eax
213 adcl -52(%esi), %eax
214 adcl -48(%esi), %eax
215 adcl -44(%esi), %eax
216 adcl -40(%esi), %eax
217 adcl -36(%esi), %eax
218 adcl -32(%esi), %eax
219 adcl -28(%esi), %eax
220 adcl -24(%esi), %eax
221 adcl -20(%esi), %eax
222 adcl -16(%esi), %eax
223 adcl -12(%esi), %eax
224 adcl -8(%esi), %eax
225 adcl -4(%esi), %eax
227 lea 128(%esi), %esi
240 andl -128(%esi),%ebx # esi is 4-aligned so should be ok
249 popl %esi
287 pushl %esi
291 movl ARGBASE+4(%esp),%esi # src
300 SRC(1: movw (%esi), %bx )
301 addl $2, %esi
310 testl %esi, %esi
311 SRC(1: movl (%esi), %ebx )
312 SRC( movl 4(%esi), %edx )
318 SRC( movl 8(%esi), %ebx )
319 SRC( movl 12(%esi), %edx )
325 SRC( movl 16(%esi), %ebx )
326 SRC( movl 20(%esi), %edx )
332 SRC( movl 24(%esi), %ebx )
333 SRC( movl 28(%esi), %edx )
339 lea 32(%esi), %esi
349 SRC(3: movl (%esi), %ebx )
352 lea 4(%esi), %esi
361 SRC( movw (%esi), %cx )
362 leal 2(%esi), %esi
367 SRC(5: movb (%esi), %cl )
398 popl %esi
409 SRC(movl x(%esi), %ebx ) ; \
414 SRC(movl x(%esi), %ebx ) ; \
423 pushl %esi
424 movl ARGBASE+4(%esp),%esi #src
430 movl %esi, %edx
434 subl %ebx, %esi
436 lea -1(%esi),%edx
439 testl %esi, %esi
441 1: addl $64,%esi
457 SRC( movw (%esi), %dx )
458 leal 2(%esi), %esi
464 SRC( movb (%esi), %dl )
483 popl %esi