Merge branch 'nvmf-4.8-rc' of git://git.infradead.org/nvme-fabrics into for-linus
[cascardo/linux.git] / arch / arm / include / asm / kvm_hyp.h
1 /*
2  * Copyright (C) 2015 - ARM Ltd
3  * Author: Marc Zyngier <marc.zyngier@arm.com>
4  *
5  * This program is free software; you can redistribute it and/or modify
6  * it under the terms of the GNU General Public License version 2 as
7  * published by the Free Software Foundation.
8  *
9  * This program is distributed in the hope that it will be useful,
10  * but WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12  * GNU General Public License for more details.
13  *
14  * You should have received a copy of the GNU General Public License
15  * along with this program.  If not, see <http://www.gnu.org/licenses/>.
16  */
17
18 #ifndef __ARM_KVM_HYP_H__
19 #define __ARM_KVM_HYP_H__
20
21 #include <linux/compiler.h>
22 #include <linux/kvm_host.h>
23 #include <asm/kvm_mmu.h>
24 #include <asm/vfp.h>
25
26 #define __hyp_text __section(.hyp.text) notrace
27
28 #define __ACCESS_CP15(CRn, Op1, CRm, Op2)       \
29         "mrc", "mcr", __stringify(p15, Op1, %0, CRn, CRm, Op2), u32
30 #define __ACCESS_CP15_64(Op1, CRm)              \
31         "mrrc", "mcrr", __stringify(p15, Op1, %Q0, %R0, CRm), u64
32 #define __ACCESS_VFP(CRn)                       \
33         "mrc", "mcr", __stringify(p10, 7, %0, CRn, cr0, 0), u32
34
35 #define __write_sysreg(v, r, w, c, t)   asm volatile(w " " c : : "r" ((t)(v)))
36 #define write_sysreg(v, ...)            __write_sysreg(v, __VA_ARGS__)
37
38 #define __read_sysreg(r, w, c, t) ({                            \
39         t __val;                                                \
40         asm volatile(r " " c : "=r" (__val));                   \
41         __val;                                                  \
42 })
43 #define read_sysreg(...)                __read_sysreg(__VA_ARGS__)
44
45 #define write_special(v, r)                                     \
46         asm volatile("msr " __stringify(r) ", %0" : : "r" (v))
47 #define read_special(r) ({                                      \
48         u32 __val;                                              \
49         asm volatile("mrs %0, " __stringify(r) : "=r" (__val)); \
50         __val;                                                  \
51 })
52
53 #define TTBR0           __ACCESS_CP15_64(0, c2)
54 #define TTBR1           __ACCESS_CP15_64(1, c2)
55 #define VTTBR           __ACCESS_CP15_64(6, c2)
56 #define PAR             __ACCESS_CP15_64(0, c7)
57 #define CNTV_CVAL       __ACCESS_CP15_64(3, c14)
58 #define CNTVOFF         __ACCESS_CP15_64(4, c14)
59
60 #define MIDR            __ACCESS_CP15(c0, 0, c0, 0)
61 #define CSSELR          __ACCESS_CP15(c0, 2, c0, 0)
62 #define VPIDR           __ACCESS_CP15(c0, 4, c0, 0)
63 #define VMPIDR          __ACCESS_CP15(c0, 4, c0, 5)
64 #define SCTLR           __ACCESS_CP15(c1, 0, c0, 0)
65 #define CPACR           __ACCESS_CP15(c1, 0, c0, 2)
66 #define HCR             __ACCESS_CP15(c1, 4, c1, 0)
67 #define HDCR            __ACCESS_CP15(c1, 4, c1, 1)
68 #define HCPTR           __ACCESS_CP15(c1, 4, c1, 2)
69 #define HSTR            __ACCESS_CP15(c1, 4, c1, 3)
70 #define TTBCR           __ACCESS_CP15(c2, 0, c0, 2)
71 #define HTCR            __ACCESS_CP15(c2, 4, c0, 2)
72 #define VTCR            __ACCESS_CP15(c2, 4, c1, 2)
73 #define DACR            __ACCESS_CP15(c3, 0, c0, 0)
74 #define DFSR            __ACCESS_CP15(c5, 0, c0, 0)
75 #define IFSR            __ACCESS_CP15(c5, 0, c0, 1)
76 #define ADFSR           __ACCESS_CP15(c5, 0, c1, 0)
77 #define AIFSR           __ACCESS_CP15(c5, 0, c1, 1)
78 #define HSR             __ACCESS_CP15(c5, 4, c2, 0)
79 #define DFAR            __ACCESS_CP15(c6, 0, c0, 0)
80 #define IFAR            __ACCESS_CP15(c6, 0, c0, 2)
81 #define HDFAR           __ACCESS_CP15(c6, 4, c0, 0)
82 #define HIFAR           __ACCESS_CP15(c6, 4, c0, 2)
83 #define HPFAR           __ACCESS_CP15(c6, 4, c0, 4)
84 #define ICIALLUIS       __ACCESS_CP15(c7, 0, c1, 0)
85 #define ATS1CPR         __ACCESS_CP15(c7, 0, c8, 0)
86 #define TLBIALLIS       __ACCESS_CP15(c8, 0, c3, 0)
87 #define TLBIALLNSNHIS   __ACCESS_CP15(c8, 4, c3, 4)
88 #define PRRR            __ACCESS_CP15(c10, 0, c2, 0)
89 #define NMRR            __ACCESS_CP15(c10, 0, c2, 1)
90 #define AMAIR0          __ACCESS_CP15(c10, 0, c3, 0)
91 #define AMAIR1          __ACCESS_CP15(c10, 0, c3, 1)
92 #define VBAR            __ACCESS_CP15(c12, 0, c0, 0)
93 #define CID             __ACCESS_CP15(c13, 0, c0, 1)
94 #define TID_URW         __ACCESS_CP15(c13, 0, c0, 2)
95 #define TID_URO         __ACCESS_CP15(c13, 0, c0, 3)
96 #define TID_PRIV        __ACCESS_CP15(c13, 0, c0, 4)
97 #define HTPIDR          __ACCESS_CP15(c13, 4, c0, 2)
98 #define CNTKCTL         __ACCESS_CP15(c14, 0, c1, 0)
99 #define CNTV_CTL        __ACCESS_CP15(c14, 0, c3, 1)
100 #define CNTHCTL         __ACCESS_CP15(c14, 4, c1, 0)
101
102 #define VFP_FPEXC       __ACCESS_VFP(FPEXC)
103
104 /* AArch64 compatibility macros, only for the timer so far */
105 #define read_sysreg_el0(r)              read_sysreg(r##_el0)
106 #define write_sysreg_el0(v, r)          write_sysreg(v, r##_el0)
107
108 #define cntv_ctl_el0                    CNTV_CTL
109 #define cntv_cval_el0                   CNTV_CVAL
110 #define cntvoff_el2                     CNTVOFF
111 #define cnthctl_el2                     CNTHCTL
112
113 void __timer_save_state(struct kvm_vcpu *vcpu);
114 void __timer_restore_state(struct kvm_vcpu *vcpu);
115
116 void __vgic_v2_save_state(struct kvm_vcpu *vcpu);
117 void __vgic_v2_restore_state(struct kvm_vcpu *vcpu);
118
119 void __sysreg_save_state(struct kvm_cpu_context *ctxt);
120 void __sysreg_restore_state(struct kvm_cpu_context *ctxt);
121
122 void asmlinkage __vfp_save_state(struct vfp_hard_struct *vfp);
123 void asmlinkage __vfp_restore_state(struct vfp_hard_struct *vfp);
124 static inline bool __vfp_enabled(void)
125 {
126         return !(read_sysreg(HCPTR) & (HCPTR_TCP(11) | HCPTR_TCP(10)));
127 }
128
129 void __hyp_text __banked_save_state(struct kvm_cpu_context *ctxt);
130 void __hyp_text __banked_restore_state(struct kvm_cpu_context *ctxt);
131
132 int asmlinkage __guest_enter(struct kvm_vcpu *vcpu,
133                              struct kvm_cpu_context *host);
134 int asmlinkage __hyp_do_panic(const char *, int, u32);
135
136 #endif /* __ARM_KVM_HYP_H__ */