ec8100459afe7727c16497fba9811e08a647635e
[cascardo/linux.git] / arch / x86 / include / asm / cpufeature.h
1 #ifndef _ASM_X86_CPUFEATURE_H
2 #define _ASM_X86_CPUFEATURE_H
3
4 #include <asm/processor.h>
5
6 #if defined(__KERNEL__) && !defined(__ASSEMBLY__)
7
8 #include <asm/asm.h>
9 #include <linux/bitops.h>
10
11 enum cpuid_leafs
12 {
13         CPUID_1_EDX             = 0,
14         CPUID_8000_0001_EDX,
15         CPUID_8086_0001_EDX,
16         CPUID_LNX_1,
17         CPUID_1_ECX,
18         CPUID_C000_0001_EDX,
19         CPUID_8000_0001_ECX,
20         CPUID_LNX_2,
21         CPUID_LNX_3,
22         CPUID_7_0_EBX,
23         CPUID_D_1_EAX,
24         CPUID_F_0_EDX,
25         CPUID_F_1_EDX,
26         CPUID_8000_0008_EBX,
27         CPUID_6_EAX,
28         CPUID_8000_000A_EDX,
29         CPUID_7_ECX,
30         CPUID_8000_0007_EBX,
31 };
32
33 #ifdef CONFIG_X86_FEATURE_NAMES
34 extern const char * const x86_cap_flags[NCAPINTS*32];
35 extern const char * const x86_power_flags[32];
36 #define X86_CAP_FMT "%s"
37 #define x86_cap_flag(flag) x86_cap_flags[flag]
38 #else
39 #define X86_CAP_FMT "%d:%d"
40 #define x86_cap_flag(flag) ((flag) >> 5), ((flag) & 31)
41 #endif
42
43 /*
44  * In order to save room, we index into this array by doing
45  * X86_BUG_<name> - NCAPINTS*32.
46  */
47 extern const char * const x86_bug_flags[NBUGINTS*32];
48
49 #define test_cpu_cap(c, bit)                                            \
50          test_bit(bit, (unsigned long *)((c)->x86_capability))
51
52 #define REQUIRED_MASK_BIT_SET(bit)                                      \
53          ( (((bit)>>5)==0  && (1UL<<((bit)&31) & REQUIRED_MASK0 )) ||   \
54            (((bit)>>5)==1  && (1UL<<((bit)&31) & REQUIRED_MASK1 )) ||   \
55            (((bit)>>5)==2  && (1UL<<((bit)&31) & REQUIRED_MASK2 )) ||   \
56            (((bit)>>5)==3  && (1UL<<((bit)&31) & REQUIRED_MASK3 )) ||   \
57            (((bit)>>5)==4  && (1UL<<((bit)&31) & REQUIRED_MASK4 )) ||   \
58            (((bit)>>5)==5  && (1UL<<((bit)&31) & REQUIRED_MASK5 )) ||   \
59            (((bit)>>5)==6  && (1UL<<((bit)&31) & REQUIRED_MASK6 )) ||   \
60            (((bit)>>5)==7  && (1UL<<((bit)&31) & REQUIRED_MASK7 )) ||   \
61            (((bit)>>5)==8  && (1UL<<((bit)&31) & REQUIRED_MASK8 )) ||   \
62            (((bit)>>5)==9  && (1UL<<((bit)&31) & REQUIRED_MASK9 )) ||   \
63            (((bit)>>5)==10 && (1UL<<((bit)&31) & REQUIRED_MASK10)) ||   \
64            (((bit)>>5)==11 && (1UL<<((bit)&31) & REQUIRED_MASK11)) ||   \
65            (((bit)>>5)==12 && (1UL<<((bit)&31) & REQUIRED_MASK12)) ||   \
66            (((bit)>>5)==13 && (1UL<<((bit)&31) & REQUIRED_MASK13)) ||   \
67            (((bit)>>5)==14 && (1UL<<((bit)&31) & REQUIRED_MASK14)) ||   \
68            (((bit)>>5)==15 && (1UL<<((bit)&31) & REQUIRED_MASK15)) ||   \
69            (((bit)>>5)==16 && (1UL<<((bit)&31) & REQUIRED_MASK16)) ||   \
70            (((bit)>>5)==17 && (1UL<<((bit)&31) & REQUIRED_MASK17)))
71
72 #define DISABLED_MASK_BIT_SET(bit)                                      \
73          ( (((bit)>>5)==0  && (1UL<<((bit)&31) & DISABLED_MASK0 )) ||   \
74            (((bit)>>5)==1  && (1UL<<((bit)&31) & DISABLED_MASK1 )) ||   \
75            (((bit)>>5)==2  && (1UL<<((bit)&31) & DISABLED_MASK2 )) ||   \
76            (((bit)>>5)==3  && (1UL<<((bit)&31) & DISABLED_MASK3 )) ||   \
77            (((bit)>>5)==4  && (1UL<<((bit)&31) & DISABLED_MASK4 )) ||   \
78            (((bit)>>5)==5  && (1UL<<((bit)&31) & DISABLED_MASK5 )) ||   \
79            (((bit)>>5)==6  && (1UL<<((bit)&31) & DISABLED_MASK6 )) ||   \
80            (((bit)>>5)==7  && (1UL<<((bit)&31) & DISABLED_MASK7 )) ||   \
81            (((bit)>>5)==8  && (1UL<<((bit)&31) & DISABLED_MASK8 )) ||   \
82            (((bit)>>5)==9  && (1UL<<((bit)&31) & DISABLED_MASK9 )) ||   \
83            (((bit)>>5)==10 && (1UL<<((bit)&31) & DISABLED_MASK10)) ||   \
84            (((bit)>>5)==11 && (1UL<<((bit)&31) & DISABLED_MASK11)) ||   \
85            (((bit)>>5)==12 && (1UL<<((bit)&31) & DISABLED_MASK12)) ||   \
86            (((bit)>>5)==13 && (1UL<<((bit)&31) & DISABLED_MASK13)) ||   \
87            (((bit)>>5)==14 && (1UL<<((bit)&31) & DISABLED_MASK14)) ||   \
88            (((bit)>>5)==15 && (1UL<<((bit)&31) & DISABLED_MASK15)) ||   \
89            (((bit)>>5)==16 && (1UL<<((bit)&31) & DISABLED_MASK16)) ||   \
90            (((bit)>>5)==17 && (1UL<<((bit)&31) & DISABLED_MASK17)))
91
92 #define cpu_has(c, bit)                                                 \
93         (__builtin_constant_p(bit) && REQUIRED_MASK_BIT_SET(bit) ? 1 :  \
94          test_cpu_cap(c, bit))
95
96 #define this_cpu_has(bit)                                               \
97         (__builtin_constant_p(bit) && REQUIRED_MASK_BIT_SET(bit) ? 1 :  \
98          x86_this_cpu_test_bit(bit, (unsigned long *)&cpu_info.x86_capability))
99
100 /*
101  * This macro is for detection of features which need kernel
102  * infrastructure to be used.  It may *not* directly test the CPU
103  * itself.  Use the cpu_has() family if you want true runtime
104  * testing of CPU features, like in hypervisor code where you are
105  * supporting a possible guest feature where host support for it
106  * is not relevant.
107  */
108 #define cpu_feature_enabled(bit)        \
109         (__builtin_constant_p(bit) && DISABLED_MASK_BIT_SET(bit) ? 0 : static_cpu_has(bit))
110
111 #define boot_cpu_has(bit)       cpu_has(&boot_cpu_data, bit)
112
113 #define set_cpu_cap(c, bit)     set_bit(bit, (unsigned long *)((c)->x86_capability))
114 #define clear_cpu_cap(c, bit)   clear_bit(bit, (unsigned long *)((c)->x86_capability))
115 #define setup_clear_cpu_cap(bit) do { \
116         clear_cpu_cap(&boot_cpu_data, bit);     \
117         set_bit(bit, (unsigned long *)cpu_caps_cleared); \
118 } while (0)
119 #define setup_force_cpu_cap(bit) do { \
120         set_cpu_cap(&boot_cpu_data, bit);       \
121         set_bit(bit, (unsigned long *)cpu_caps_set);    \
122 } while (0)
123
124 #if defined(CC_HAVE_ASM_GOTO) && defined(CONFIG_X86_FAST_FEATURE_TESTS)
125 /*
126  * Static testing of CPU features.  Used the same as boot_cpu_has().
127  * These will statically patch the target code for additional
128  * performance.
129  */
130 static __always_inline __pure bool _static_cpu_has(u16 bit)
131 {
132                 asm_volatile_goto("1: jmp 6f\n"
133                          "2:\n"
134                          ".skip -(((5f-4f) - (2b-1b)) > 0) * "
135                                  "((5f-4f) - (2b-1b)),0x90\n"
136                          "3:\n"
137                          ".section .altinstructions,\"a\"\n"
138                          " .long 1b - .\n"              /* src offset */
139                          " .long 4f - .\n"              /* repl offset */
140                          " .word %P1\n"                 /* always replace */
141                          " .byte 3b - 1b\n"             /* src len */
142                          " .byte 5f - 4f\n"             /* repl len */
143                          " .byte 3b - 2b\n"             /* pad len */
144                          ".previous\n"
145                          ".section .altinstr_replacement,\"ax\"\n"
146                          "4: jmp %l[t_no]\n"
147                          "5:\n"
148                          ".previous\n"
149                          ".section .altinstructions,\"a\"\n"
150                          " .long 1b - .\n"              /* src offset */
151                          " .long 0\n"                   /* no replacement */
152                          " .word %P0\n"                 /* feature bit */
153                          " .byte 3b - 1b\n"             /* src len */
154                          " .byte 0\n"                   /* repl len */
155                          " .byte 0\n"                   /* pad len */
156                          ".previous\n"
157                          ".section .altinstr_aux,\"ax\"\n"
158                          "6:\n"
159                          " testb %[bitnum],%[cap_byte]\n"
160                          " jnz %l[t_yes]\n"
161                          " jmp %l[t_no]\n"
162                          ".previous\n"
163                          : : "i" (bit), "i" (X86_FEATURE_ALWAYS),
164                              [bitnum] "i" (1 << (bit & 7)),
165                              [cap_byte] "m" (((const char *)boot_cpu_data.x86_capability)[bit >> 3])
166                          : : t_yes, t_no);
167         t_yes:
168                 return true;
169         t_no:
170                 return false;
171 }
172
173 #define static_cpu_has(bit)                                     \
174 (                                                               \
175         __builtin_constant_p(boot_cpu_has(bit)) ?               \
176                 boot_cpu_has(bit) :                             \
177                 _static_cpu_has(bit)                            \
178 )
179 #else
180 /*
181  * Fall back to dynamic for gcc versions which don't support asm goto. Should be
182  * a minority now anyway.
183  */
184 #define static_cpu_has(bit)             boot_cpu_has(bit)
185 #endif
186
187 #define cpu_has_bug(c, bit)             cpu_has(c, (bit))
188 #define set_cpu_bug(c, bit)             set_cpu_cap(c, (bit))
189 #define clear_cpu_bug(c, bit)           clear_cpu_cap(c, (bit))
190
191 #define static_cpu_has_bug(bit)         static_cpu_has((bit))
192 #define boot_cpu_has_bug(bit)           cpu_has_bug(&boot_cpu_data, (bit))
193
194 #define MAX_CPU_FEATURES                (NCAPINTS * 32)
195 #define cpu_have_feature                boot_cpu_has
196
197 #define CPU_FEATURE_TYPEFMT             "x86,ven%04Xfam%04Xmod%04X"
198 #define CPU_FEATURE_TYPEVAL             boot_cpu_data.x86_vendor, boot_cpu_data.x86, \
199                                         boot_cpu_data.x86_model
200
201 #endif /* defined(__KERNEL__) && !defined(__ASSEMBLY__) */
202 #endif /* _ASM_X86_CPUFEATURE_H */