d1 = u8x32_blend (d1, s1, u8x32_is_greater (lv, mask));
u8x32_store_unaligned (d1, dst + 32);
-#elif defined (CLIB_HAVE_VEC128) && !defined (__aarch64__)
+#elif defined (CLIB_HAVE_VEC128)
u8x16 s0, s1, s2, s3, d0, d1, d2, d3;
u8x16 mask = { 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15 };
u8x16 lv = u8x16_splat (len);
t##s##x##c##_zero_byte_mask (t##s##x##c x) \
{ uint8x16_t v = vreinterpretq_u8_u##s (vceqq_##i (vdupq_n_##i(0), x)); \
return u8x16_compare_byte_mask (v); } \
+\
+static_always_inline u##s##x##c \
+t##s##x##c##_is_greater (t##s##x##c a, t##s##x##c b) \
+{ return (u##s##x##c) vcgtq_##i (a, b); } \
+\
+static_always_inline t##s##x##c \
+t##s##x##c##_blend (t##s##x##c dst, t##s##x##c src, u##s##x##c mask) \
+{ return (t##s##x##c) vbslq_##i (mask, src, dst); }
foreach_neon_vec128i foreach_neon_vec128u