Merge tag 'iwlwifi-next-for-kalle-2014-12-30' of https://git.kernel.org/pub/scm/linux...
[cascardo/linux.git] / arch / x86 / include / asm / xsave.h
1 #ifndef __ASM_X86_XSAVE_H
2 #define __ASM_X86_XSAVE_H
3
4 #include <linux/types.h>
5 #include <asm/processor.h>
6
7 #define XSTATE_CPUID            0x0000000d
8
9 #define XSTATE_FP               0x1
10 #define XSTATE_SSE              0x2
11 #define XSTATE_YMM              0x4
12 #define XSTATE_BNDREGS          0x8
13 #define XSTATE_BNDCSR           0x10
14 #define XSTATE_OPMASK           0x20
15 #define XSTATE_ZMM_Hi256        0x40
16 #define XSTATE_Hi16_ZMM         0x80
17
18 #define XSTATE_FPSSE    (XSTATE_FP | XSTATE_SSE)
19 #define XSTATE_AVX512   (XSTATE_OPMASK | XSTATE_ZMM_Hi256 | XSTATE_Hi16_ZMM)
20 /* Bit 63 of XCR0 is reserved for future expansion */
21 #define XSTATE_EXTEND_MASK      (~(XSTATE_FPSSE | (1ULL << 63)))
22
23 #define FXSAVE_SIZE     512
24
25 #define XSAVE_HDR_SIZE      64
26 #define XSAVE_HDR_OFFSET    FXSAVE_SIZE
27
28 #define XSAVE_YMM_SIZE      256
29 #define XSAVE_YMM_OFFSET    (XSAVE_HDR_SIZE + XSAVE_HDR_OFFSET)
30
31 /* Supported features which support lazy state saving */
32 #define XSTATE_LAZY     (XSTATE_FP | XSTATE_SSE | XSTATE_YMM                  \
33                         | XSTATE_OPMASK | XSTATE_ZMM_Hi256 | XSTATE_Hi16_ZMM)
34
35 /* Supported features which require eager state saving */
36 #define XSTATE_EAGER    (XSTATE_BNDREGS | XSTATE_BNDCSR)
37
38 /* All currently supported features */
39 #define XCNTXT_MASK     (XSTATE_LAZY | XSTATE_EAGER)
40
41 #ifdef CONFIG_X86_64
42 #define REX_PREFIX      "0x48, "
43 #else
44 #define REX_PREFIX
45 #endif
46
47 extern unsigned int xstate_size;
48 extern u64 pcntxt_mask;
49 extern u64 xstate_fx_sw_bytes[USER_XSTATE_FX_SW_WORDS];
50 extern struct xsave_struct *init_xstate_buf;
51
52 extern void xsave_init(void);
53 extern void update_regset_xstate_info(unsigned int size, u64 xstate_mask);
54 extern int init_fpu(struct task_struct *child);
55
56 /* These macros all use (%edi)/(%rdi) as the single memory argument. */
57 #define XSAVE           ".byte " REX_PREFIX "0x0f,0xae,0x27"
58 #define XSAVEOPT        ".byte " REX_PREFIX "0x0f,0xae,0x37"
59 #define XSAVES          ".byte " REX_PREFIX "0x0f,0xc7,0x2f"
60 #define XRSTOR          ".byte " REX_PREFIX "0x0f,0xae,0x2f"
61 #define XRSTORS         ".byte " REX_PREFIX "0x0f,0xc7,0x1f"
62
63 #define xstate_fault    ".section .fixup,\"ax\"\n"      \
64                         "3:  movl $-1,%[err]\n"         \
65                         "    jmp  2b\n"                 \
66                         ".previous\n"                   \
67                         _ASM_EXTABLE(1b, 3b)            \
68                         : [err] "=r" (err)
69
70 /*
71  * This function is called only during boot time when x86 caps are not set
72  * up and alternative can not be used yet.
73  */
74 static inline int xsave_state_booting(struct xsave_struct *fx, u64 mask)
75 {
76         u32 lmask = mask;
77         u32 hmask = mask >> 32;
78         int err = 0;
79
80         WARN_ON(system_state != SYSTEM_BOOTING);
81
82         if (boot_cpu_has(X86_FEATURE_XSAVES))
83                 asm volatile("1:"XSAVES"\n\t"
84                         "2:\n\t"
85                         : : "D" (fx), "m" (*fx), "a" (lmask), "d" (hmask)
86                         :   "memory");
87         else
88                 asm volatile("1:"XSAVE"\n\t"
89                         "2:\n\t"
90                         : : "D" (fx), "m" (*fx), "a" (lmask), "d" (hmask)
91                         :   "memory");
92
93         asm volatile(xstate_fault
94                      : "0" (0)
95                      : "memory");
96
97         return err;
98 }
99
100 /*
101  * This function is called only during boot time when x86 caps are not set
102  * up and alternative can not be used yet.
103  */
104 static inline int xrstor_state_booting(struct xsave_struct *fx, u64 mask)
105 {
106         u32 lmask = mask;
107         u32 hmask = mask >> 32;
108         int err = 0;
109
110         WARN_ON(system_state != SYSTEM_BOOTING);
111
112         if (boot_cpu_has(X86_FEATURE_XSAVES))
113                 asm volatile("1:"XRSTORS"\n\t"
114                         "2:\n\t"
115                         : : "D" (fx), "m" (*fx), "a" (lmask), "d" (hmask)
116                         :   "memory");
117         else
118                 asm volatile("1:"XRSTOR"\n\t"
119                         "2:\n\t"
120                         : : "D" (fx), "m" (*fx), "a" (lmask), "d" (hmask)
121                         :   "memory");
122
123         asm volatile(xstate_fault
124                      : "0" (0)
125                      : "memory");
126
127         return err;
128 }
129
130 /*
131  * Save processor xstate to xsave area.
132  */
133 static inline int xsave_state(struct xsave_struct *fx, u64 mask)
134 {
135         u32 lmask = mask;
136         u32 hmask = mask >> 32;
137         int err = 0;
138
139         /*
140          * If xsaves is enabled, xsaves replaces xsaveopt because
141          * it supports compact format and supervisor states in addition to
142          * modified optimization in xsaveopt.
143          *
144          * Otherwise, if xsaveopt is enabled, xsaveopt replaces xsave
145          * because xsaveopt supports modified optimization which is not
146          * supported by xsave.
147          *
148          * If none of xsaves and xsaveopt is enabled, use xsave.
149          */
150         alternative_input_2(
151                 "1:"XSAVE,
152                 "1:"XSAVEOPT,
153                 X86_FEATURE_XSAVEOPT,
154                 "1:"XSAVES,
155                 X86_FEATURE_XSAVES,
156                 [fx] "D" (fx), "a" (lmask), "d" (hmask) :
157                 "memory");
158         asm volatile("2:\n\t"
159                      xstate_fault
160                      : "0" (0)
161                      : "memory");
162
163         return err;
164 }
165
166 /*
167  * Restore processor xstate from xsave area.
168  */
169 static inline int xrstor_state(struct xsave_struct *fx, u64 mask)
170 {
171         int err = 0;
172         u32 lmask = mask;
173         u32 hmask = mask >> 32;
174
175         /*
176          * Use xrstors to restore context if it is enabled. xrstors supports
177          * compacted format of xsave area which is not supported by xrstor.
178          */
179         alternative_input(
180                 "1: " XRSTOR,
181                 "1: " XRSTORS,
182                 X86_FEATURE_XSAVES,
183                 "D" (fx), "m" (*fx), "a" (lmask), "d" (hmask)
184                 : "memory");
185
186         asm volatile("2:\n"
187                      xstate_fault
188                      : "0" (0)
189                      : "memory");
190
191         return err;
192 }
193
194 /*
195  * Save xstate context for old process during context switch.
196  */
197 static inline void fpu_xsave(struct fpu *fpu)
198 {
199         xsave_state(&fpu->state->xsave, -1);
200 }
201
202 /*
203  * Restore xstate context for new process during context switch.
204  */
205 static inline int fpu_xrstor_checking(struct xsave_struct *fx)
206 {
207         return xrstor_state(fx, -1);
208 }
209
210 /*
211  * Save xstate to user space xsave area.
212  *
213  * We don't use modified optimization because xrstor/xrstors might track
214  * a different application.
215  *
216  * We don't use compacted format xsave area for
217  * backward compatibility for old applications which don't understand
218  * compacted format of xsave area.
219  */
220 static inline int xsave_user(struct xsave_struct __user *buf)
221 {
222         int err;
223
224         /*
225          * Clear the xsave header first, so that reserved fields are
226          * initialized to zero.
227          */
228         err = __clear_user(&buf->xsave_hdr, sizeof(buf->xsave_hdr));
229         if (unlikely(err))
230                 return -EFAULT;
231
232         __asm__ __volatile__(ASM_STAC "\n"
233                              "1:"XSAVE"\n"
234                              "2: " ASM_CLAC "\n"
235                              xstate_fault
236                              : "D" (buf), "a" (-1), "d" (-1), "0" (0)
237                              : "memory");
238         return err;
239 }
240
241 /*
242  * Restore xstate from user space xsave area.
243  */
244 static inline int xrestore_user(struct xsave_struct __user *buf, u64 mask)
245 {
246         int err = 0;
247         struct xsave_struct *xstate = ((__force struct xsave_struct *)buf);
248         u32 lmask = mask;
249         u32 hmask = mask >> 32;
250
251         __asm__ __volatile__(ASM_STAC "\n"
252                              "1:"XRSTOR"\n"
253                              "2: " ASM_CLAC "\n"
254                              xstate_fault
255                              : "D" (xstate), "a" (lmask), "d" (hmask), "0" (0)
256                              : "memory");       /* memory required? */
257         return err;
258 }
259
260 void *get_xsave_addr(struct xsave_struct *xsave, int xstate);
261 void setup_xstate_comp(void);
262
263 #endif