Lines Matching full:q4
65 * Clobbers: r3, ip, q4-q5
80 veor q4, q1, q2
81 vshl.u32 q1, q4, #12
82 vsri.u32 q1, q4, #20
92 veor q4, q1, q2
93 vshl.u32 q1, q4, #7
94 vsri.u32 q1, q4, #25
110 veor q4, q1, q2
111 vshl.u32 q1, q4, #12
112 vsri.u32 q1, q4, #20
122 veor q4, q1, q2
123 vshl.u32 q1, q4, #7
124 vsri.u32 q1, q4, #25
159 vld1.8 {q4-q5}, [r2]
164 veor q0, q0, q4
236 vld1.32 {q4}, [lr, :128]
241 vadd.u32 q12, q12, q4 // x12 += counter values 0-3
247 vdup.32 q4, d2[0]
263 vadd.i32 q0, q0, q4
289 veor q8, q4, q8
291 vshl.u32 q4, q8, #12
293 vsri.u32 q4, q8, #20
308 vadd.i32 q0, q0, q4
340 veor q8, q4, q8
342 vshl.u32 q4, q8, #7
344 vsri.u32 q4, q8, #25
363 vadd.i32 q3, q3, q4
387 veor q9, q4, q9
389 vshl.u32 q4, q9, #12
391 vsri.u32 q4, q9, #20
408 vadd.i32 q3, q3, q4
438 veor q9, q4, q9
440 vshl.u32 q4, q9, #7
442 vsri.u32 q4, q9, #25
462 vzip.32 q4, q5 // => (4 5 4 5) (4 5 4 5)
471 // Swap q1 and q4 so that we'll free up consecutive registers (q0-q1)
473 vswp q1, q4
475 // First two rows of each block are (q0 q1) (q2 q6) (q4 q5) (q3 q7)
480 vadd.u32 q4, q4, q8
548 veor q0, q0, q4
576 vmov q4, q9
584 // Entered with 32 bytes of ChaCha cipher stream in q4-q5, and the
600 vtbl.8 d4, {q4-q5}, d4
601 vtbl.8 d5, {q4-q5}, d5
602 vtbl.8 d6, {q4-q5}, d6
603 vtbl.8 d7, {q4-q5}, d7
613 vmov q11, q4
617 vmov q4, q2
621 vmov q4, q10
625 vmov q4, q3
629 vmov q4, q11