Merge branch 'for-linus' of git://git.kernel.org/pub/scm/linux/kernel/git/s390/linux
[cascardo/linux.git] / arch / s390 / include / asm / tlbflush.h
index 1a691ef..3984610 100644 (file)
@@ -26,17 +26,6 @@ static inline void __tlb_flush_idte(unsigned long asce)
                : : "a" (2048), "a" (asce) : "cc");
 }
 
-/*
- * Flush TLB entries for a specific ASCE on the local CPU
- */
-static inline void __tlb_flush_idte_local(unsigned long asce)
-{
-       /* Local TLB flush for the mm */
-       asm volatile(
-               "       .insn   rrf,0xb98e0000,0,%0,%1,1"
-               : : "a" (2048), "a" (asce) : "cc");
-}
-
 #ifdef CONFIG_SMP
 void smp_ptlb_all(void);
 
@@ -65,35 +54,33 @@ static inline void __tlb_flush_full(struct mm_struct *mm)
                /* Global TLB flush */
                __tlb_flush_global();
                /* Reset TLB flush mask */
-               if (MACHINE_HAS_TLB_LC)
-                       cpumask_copy(mm_cpumask(mm),
-                                    &mm->context.cpu_attach_mask);
+               cpumask_copy(mm_cpumask(mm), &mm->context.cpu_attach_mask);
        }
        atomic_dec(&mm->context.flush_count);
        preempt_enable();
 }
 
-/*
- * Flush TLB entries for a specific ASCE on all CPUs. Should never be used
- * when more than one asce (e.g. gmap) ran on this mm.
- */
-static inline void __tlb_flush_asce(struct mm_struct *mm, unsigned long asce)
+static inline void __tlb_flush_mm(struct mm_struct *mm)
 {
+       unsigned long gmap_asce;
+
+       /*
+        * If the machine has IDTE we prefer to do a per mm flush
+        * on all cpus instead of doing a local flush if the mm
+        * only ran on the local cpu.
+        */
        preempt_disable();
        atomic_inc(&mm->context.flush_count);
-       if (MACHINE_HAS_TLB_LC &&
-           cpumask_equal(mm_cpumask(mm), cpumask_of(smp_processor_id()))) {
-               __tlb_flush_idte_local(asce);
+       gmap_asce = READ_ONCE(mm->context.gmap_asce);
+       if (MACHINE_HAS_IDTE && gmap_asce != -1UL) {
+               if (gmap_asce)
+                       __tlb_flush_idte(gmap_asce);
+               __tlb_flush_idte(mm->context.asce);
        } else {
-               if (MACHINE_HAS_IDTE)
-                       __tlb_flush_idte(asce);
-               else
-                       __tlb_flush_global();
-               /* Reset TLB flush mask */
-               if (MACHINE_HAS_TLB_LC)
-                       cpumask_copy(mm_cpumask(mm),
-                                    &mm->context.cpu_attach_mask);
+               __tlb_flush_full(mm);
        }
+       /* Reset TLB flush mask */
+       cpumask_copy(mm_cpumask(mm), &mm->context.cpu_attach_mask);
        atomic_dec(&mm->context.flush_count);
        preempt_enable();
 }
@@ -112,36 +99,17 @@ static inline void __tlb_flush_kernel(void)
 /*
  * Flush TLB entries for a specific ASCE on all CPUs.
  */
-static inline void __tlb_flush_asce(struct mm_struct *mm, unsigned long asce)
+static inline void __tlb_flush_mm(struct mm_struct *mm)
 {
-       if (MACHINE_HAS_TLB_LC)
-               __tlb_flush_idte_local(asce);
-       else
-               __tlb_flush_local();
+       __tlb_flush_local();
 }
 
 static inline void __tlb_flush_kernel(void)
 {
-       if (MACHINE_HAS_TLB_LC)
-               __tlb_flush_idte_local(init_mm.context.asce);
-       else
-               __tlb_flush_local();
+       __tlb_flush_local();
 }
 #endif
 
-static inline void __tlb_flush_mm(struct mm_struct * mm)
-{
-       /*
-        * If the machine has IDTE we prefer to do a per mm flush
-        * on all cpus instead of doing a local flush if the mm
-        * only ran on the local cpu.
-        */
-       if (MACHINE_HAS_IDTE && list_empty(&mm->context.gmap_list))
-               __tlb_flush_asce(mm, mm->context.asce);
-       else
-               __tlb_flush_full(mm);
-}
-
 static inline void __tlb_flush_mm_lazy(struct mm_struct * mm)
 {
        if (mm->context.flush_mm) {