Lines Matching refs:mo

234 a8 __tsan_atomic8_load(const volatile a8 *a, morder mo);
236 a16 __tsan_atomic16_load(const volatile a16 *a, morder mo);
238 a32 __tsan_atomic32_load(const volatile a32 *a, morder mo);
240 a64 __tsan_atomic64_load(const volatile a64 *a, morder mo);
243 a128 __tsan_atomic128_load(const volatile a128 *a, morder mo);
247 void __tsan_atomic8_store(volatile a8 *a, a8 v, morder mo);
249 void __tsan_atomic16_store(volatile a16 *a, a16 v, morder mo);
251 void __tsan_atomic32_store(volatile a32 *a, a32 v, morder mo);
253 void __tsan_atomic64_store(volatile a64 *a, a64 v, morder mo);
256 void __tsan_atomic128_store(volatile a128 *a, a128 v, morder mo);
260 a8 __tsan_atomic8_exchange(volatile a8 *a, a8 v, morder mo);
262 a16 __tsan_atomic16_exchange(volatile a16 *a, a16 v, morder mo);
264 a32 __tsan_atomic32_exchange(volatile a32 *a, a32 v, morder mo);
266 a64 __tsan_atomic64_exchange(volatile a64 *a, a64 v, morder mo);
269 a128 __tsan_atomic128_exchange(volatile a128 *a, a128 v, morder mo);
273 a8 __tsan_atomic8_fetch_add(volatile a8 *a, a8 v, morder mo);
275 a16 __tsan_atomic16_fetch_add(volatile a16 *a, a16 v, morder mo);
277 a32 __tsan_atomic32_fetch_add(volatile a32 *a, a32 v, morder mo);
279 a64 __tsan_atomic64_fetch_add(volatile a64 *a, a64 v, morder mo);
282 a128 __tsan_atomic128_fetch_add(volatile a128 *a, a128 v, morder mo);
286 a8 __tsan_atomic8_fetch_sub(volatile a8 *a, a8 v, morder mo);
288 a16 __tsan_atomic16_fetch_sub(volatile a16 *a, a16 v, morder mo);
290 a32 __tsan_atomic32_fetch_sub(volatile a32 *a, a32 v, morder mo);
292 a64 __tsan_atomic64_fetch_sub(volatile a64 *a, a64 v, morder mo);
295 a128 __tsan_atomic128_fetch_sub(volatile a128 *a, a128 v, morder mo);
299 a8 __tsan_atomic8_fetch_and(volatile a8 *a, a8 v, morder mo);
301 a16 __tsan_atomic16_fetch_and(volatile a16 *a, a16 v, morder mo);
303 a32 __tsan_atomic32_fetch_and(volatile a32 *a, a32 v, morder mo);
305 a64 __tsan_atomic64_fetch_and(volatile a64 *a, a64 v, morder mo);
308 a128 __tsan_atomic128_fetch_and(volatile a128 *a, a128 v, morder mo);
312 a8 __tsan_atomic8_fetch_or(volatile a8 *a, a8 v, morder mo);
314 a16 __tsan_atomic16_fetch_or(volatile a16 *a, a16 v, morder mo);
316 a32 __tsan_atomic32_fetch_or(volatile a32 *a, a32 v, morder mo);
318 a64 __tsan_atomic64_fetch_or(volatile a64 *a, a64 v, morder mo);
321 a128 __tsan_atomic128_fetch_or(volatile a128 *a, a128 v, morder mo);
325 a8 __tsan_atomic8_fetch_xor(volatile a8 *a, a8 v, morder mo);
327 a16 __tsan_atomic16_fetch_xor(volatile a16 *a, a16 v, morder mo);
329 a32 __tsan_atomic32_fetch_xor(volatile a32 *a, a32 v, morder mo);
331 a64 __tsan_atomic64_fetch_xor(volatile a64 *a, a64 v, morder mo);
334 a128 __tsan_atomic128_fetch_xor(volatile a128 *a, a128 v, morder mo);
338 a8 __tsan_atomic8_fetch_nand(volatile a8 *a, a8 v, morder mo);
340 a16 __tsan_atomic16_fetch_nand(volatile a16 *a, a16 v, morder mo);
342 a32 __tsan_atomic32_fetch_nand(volatile a32 *a, a32 v, morder mo);
344 a64 __tsan_atomic64_fetch_nand(volatile a64 *a, a64 v, morder mo);
347 a128 __tsan_atomic128_fetch_nand(volatile a128 *a, a128 v, morder mo);
352 morder mo, morder fmo);
355 morder mo, morder fmo);
358 morder mo, morder fmo);
361 morder mo, morder fmo);
365 morder mo, morder fmo);
369 int __tsan_atomic8_compare_exchange_weak(volatile a8 *a, a8 *c, a8 v, morder mo,
373 morder mo, morder fmo);
376 morder mo, morder fmo);
379 morder mo, morder fmo);
383 morder mo, morder fmo);
387 a8 __tsan_atomic8_compare_exchange_val(volatile a8 *a, a8 c, a8 v, morder mo,
391 morder mo, morder fmo);
394 morder mo, morder fmo);
397 morder mo, morder fmo);
401 morder mo, morder fmo);
405 void __tsan_atomic_thread_fence(morder mo);
407 void __tsan_atomic_signal_fence(morder mo);