Lines Matching refs:define

38     %define private_prefix x264
42 %define public_prefix private_prefix
46 %define STACK_ALIGNMENT 16
50 %define STACK_ALIGNMENT 16
52 %define STACK_ALIGNMENT 4
56 %define WIN64 0
57 %define UNIX64 0
60 %define WIN64 1
62 %define WIN64 1
64 %define WIN64 1
66 %define UNIX64 1
70 %define FORMAT_ELF 0
72 %define FORMAT_ELF 1
74 %define FORMAT_ELF 1
76 %define FORMAT_ELF 1
80 %define mangle(x) _ %+ x
82 %define mangle(x) x
103 %define PIC
135 ; %4+/%5+ = list of names to define to registers
162 %define r%1q %2
163 %define r%1d %2d
164 %define r%1w %2w
165 %define r%1b %2b
166 %define r%1h %2h
167 %define %2q %2
169 %define r%1m %2d
170 %define r%1mp %2
172 %define r%1m [rstk + stack_offset + %3]
173 %define r%1mp qword r %+ %1 %+ m
175 %define r%1m [rstk + stack_offset + %3]
176 %define r%1mp dword r %+ %1 %+ m
178 %define r%1 %2
182 %define r%1q r%1
183 %define e%1q r%1
184 %define r%1d e%1
185 %define e%1d e%1
186 %define r%1w %1
187 %define e%1w %1
188 %define r%1h %3
189 %define e%1h %3
190 %define r%1b %2
191 %define e%1b %2
193 %define r%1 e%1
218 %define t%1q t%1 %+ q
219 %define t%1d t%1 %+ d
220 %define t%1w t%1 %+ w
221 %define t%1h t%1 %+ h
222 %define t%1b t%1 %+ b
230 %define gprsize 8
232 %define gprsize 4
343 %define required_stack_alignment ((mmsize + 15) & ~15)
344 %define vzeroupper_required (mmsize > 16 && (ARCH_X86_64 == 0 || xmm_regs_used > 16 || notcpuflag(avx512)))
345 %define high_mm_regs (16*cpuflag(avx512))
519 %define has_epilogue regs_used > 7 || stack_size > 0 || vzeroupper_required || xmm_regs_used > 6+high_mm_regs
569 %define has_epilogue regs_used > 9 || stack_size > 0 || vzeroupper_required
595 %define rsp esp
599 %define r%1m [rstk + stack_offset + 4*%1 + 4]
600 %define r%1mp dword r%1m
633 %define has_epilogue regs_used > 3 || stack_size > 0 || vzeroupper_required
674 %define last_branch_adr $$
715 ; Applies any symbol mangling needed for C linkage, and sets up a define such that
849 %define cpuflag(x) (((((cpuflags & (cpuflags_ %+ x)) ^ (cpuflags_ %+ x)) - 1) >> 31) & 1)
850 %define notcpuflag(x) (cpuflag(x) ^ 1)
876 %define mova movaps
877 %define movu movups
878 %define movnta movntps
881 %define movu mova
883 %define movu lddqu
953 %define RESET_MM_PERMUTATION INIT_MMX %1
954 %define mmsize 8
955 %define mova movq
956 %define movu movq
957 %define movh movd
958 %define movnta movntq
965 %define RESET_MM_PERMUTATION INIT_XMM %1
966 %define mmsize 16
967 %define mova movdqa
968 %define movu movdqu
969 %define movh movq
970 %define movnta movntdq
980 %define RESET_MM_PERMUTATION INIT_YMM %1
981 %define mmsize 32
982 %define mova movdqa
983 %define movu movdqu
985 %define movnta movntdq
993 %define RESET_MM_PERMUTATION INIT_ZMM %1
994 %define mmsize 64
995 %define mova movdqa
996 %define movu movdqu
998 %define movnta movntdq
1007 %define mmmm%1 mm%1
1008 %define mmxmm%1 mm%1
1009 %define mmymm%1 mm%1
1010 %define mmzmm%1 mm%1
1011 %define xmmmm%1 mm%1
1012 %define xmmxmm%1 xmm%1
1013 %define xmmymm%1 xmm%1
1014 %define xmmzmm%1 xmm%1
1015 %define ymmmm%1 mm%1
1016 %define ymmxmm%1 xmm%1
1017 %define ymmymm%1 ymm%1
1018 %define ymmzmm%1 ymm%1
1019 %define zmmmm%1 mm%1
1020 %define zmmxmm%1 xmm%1
1021 %define zmmymm%1 ymm%1
1022 %define zmmzmm%1 zmm%1
1023 %define xm%1 xmm %+ m%1
1024 %define ym%1 ymm %+ m%1
1025 %define zm%1 zmm %+ m%1
1618 %define tzcnt rep bsf
1663 %define %%args %1, %2
1665 %define %%args %1, %2, %3
1667 %define %%args %1, %2, %3, %4