crypto: picoxcell - Use skcipher for fallback
[cascardo/linux.git] / mm / memcontrol.c
index fe787f5..925b431 100644 (file)
@@ -1023,22 +1023,40 @@ out:
  * @lru: index of lru list the page is sitting on
  * @nr_pages: positive when adding or negative when removing
  *
- * This function must be called when a page is added to or removed from an
- * lru list.
+ * This function must be called under lru_lock, just before a page is added
+ * to or just after a page is removed from an lru list (that ordering being
+ * so as to allow it to check that lru_size 0 is consistent with list_empty).
  */
 void mem_cgroup_update_lru_size(struct lruvec *lruvec, enum lru_list lru,
                                int nr_pages)
 {
        struct mem_cgroup_per_zone *mz;
        unsigned long *lru_size;
+       long size;
+       bool empty;
+
+       __update_lru_size(lruvec, lru, nr_pages);
 
        if (mem_cgroup_disabled())
                return;
 
        mz = container_of(lruvec, struct mem_cgroup_per_zone, lruvec);
        lru_size = mz->lru_size + lru;
-       *lru_size += nr_pages;
-       VM_BUG_ON((long)(*lru_size) < 0);
+       empty = list_empty(lruvec->lists + lru);
+
+       if (nr_pages < 0)
+               *lru_size += nr_pages;
+
+       size = *lru_size;
+       if (WARN_ONCE(size < 0 || empty != !size,
+               "%s(%p, %d, %d): lru_size %ld but %sempty\n",
+               __func__, lruvec, lru, nr_pages, size, empty ? "" : "not ")) {
+               VM_BUG_ON(1);
+               *lru_size = 0;
+       }
+
+       if (nr_pages > 0)
+               *lru_size += nr_pages;
 }
 
 bool task_in_mem_cgroup(struct task_struct *task, struct mem_cgroup *memcg)
@@ -1090,6 +1108,8 @@ static unsigned long mem_cgroup_margin(struct mem_cgroup *memcg)
                limit = READ_ONCE(memcg->memsw.limit);
                if (count <= limit)
                        margin = min(margin, limit - count);
+               else
+                       margin = 0;
        }
 
        return margin;
@@ -1257,6 +1277,7 @@ static bool mem_cgroup_out_of_memory(struct mem_cgroup *memcg, gfp_t gfp_mask,
         */
        if (fatal_signal_pending(current) || task_will_free_mem(current)) {
                mark_oom_victim(current);
+               try_oom_reaper(current);
                goto unlock;
        }
 
@@ -1283,6 +1304,8 @@ static bool mem_cgroup_out_of_memory(struct mem_cgroup *memcg, gfp_t gfp_mask,
                                mem_cgroup_iter_break(memcg, iter);
                                if (chosen)
                                        put_task_struct(chosen);
+                               /* Set a dummy value to return "true". */
+                               chosen = (void *) 1;
                                goto unlock;
                        case OOM_SCAN_OK:
                                break;
@@ -1389,14 +1412,11 @@ int mem_cgroup_select_victim_node(struct mem_cgroup *memcg)
        mem_cgroup_may_update_nodemask(memcg);
        node = memcg->last_scanned_node;
 
-       node = next_node(node, memcg->scan_nodes);
-       if (node == MAX_NUMNODES)
-               node = first_node(memcg->scan_nodes);
+       node = next_node_in(node, memcg->scan_nodes);
        /*
-        * We call this when we hit limit, not when pages are added to LRU.
-        * No LRU may hold pages because all pages are UNEVICTABLE or
-        * memcg is too small and all pages are not on LRU. In that case,
-        * we use curret node.
+        * mem_cgroup_may_update_nodemask might have seen no reclaimmable pages
+        * last time it really checked all the LRUs due to rate limiting.
+        * Fallback to the current node in that case for simplicity.
         */
        if (unlikely(node == MAX_NUMNODES))
                node = numa_node_id();
@@ -1588,7 +1608,7 @@ static void memcg_oom_recover(struct mem_cgroup *memcg)
 
 static void mem_cgroup_oom(struct mem_cgroup *memcg, gfp_t mask, int order)
 {
-       if (!current->memcg_may_oom)
+       if (!current->memcg_may_oom || current->memcg_in_oom)
                return;
        /*
         * We are in the middle of the charge context here, so we
@@ -2636,8 +2656,7 @@ static inline bool memcg_has_children(struct mem_cgroup *memcg)
 }
 
 /*
- * Reclaims as many pages from the given memcg as possible and moves
- * the rest to the parent.
+ * Reclaims as many pages from the given memcg as possible.
  *
  * Caller is responsible for holding css reference for memcg.
  */
@@ -4290,24 +4309,6 @@ static int mem_cgroup_do_precharge(unsigned long count)
        return 0;
 }
 
-/**
- * get_mctgt_type - get target type of moving charge
- * @vma: the vma the pte to be checked belongs
- * @addr: the address corresponding to the pte to be checked
- * @ptent: the pte to be checked
- * @target: the pointer the target page or swap ent will be stored(can be NULL)
- *
- * Returns
- *   0(MC_TARGET_NONE): if the pte is not a target for move charge.
- *   1(MC_TARGET_PAGE): if the page corresponding to this pte is a target for
- *     move charge. if @target is not NULL, the page is stored in target->page
- *     with extra refcnt got(Callers should handle it).
- *   2(MC_TARGET_SWAP): if the swap entry corresponding to this pte is a
- *     target for charge migration. if @target is not NULL, the entry is stored
- *     in target->ent.
- *
- * Called with pte lock held.
- */
 union mc_target {
        struct page     *page;
        swp_entry_t     ent;
@@ -4496,6 +4497,25 @@ out:
        return ret;
 }
 
+/**
+ * get_mctgt_type - get target type of moving charge
+ * @vma: the vma the pte to be checked belongs
+ * @addr: the address corresponding to the pte to be checked
+ * @ptent: the pte to be checked
+ * @target: the pointer the target page or swap ent will be stored(can be NULL)
+ *
+ * Returns
+ *   0(MC_TARGET_NONE): if the pte is not a target for move charge.
+ *   1(MC_TARGET_PAGE): if the page corresponding to this pte is a target for
+ *     move charge. if @target is not NULL, the page is stored in target->page
+ *     with extra refcnt got(Callers should handle it).
+ *   2(MC_TARGET_SWAP): if the swap entry corresponding to this pte is a
+ *     target for charge migration. if @target is not NULL, the entry is stored
+ *     in target->ent.
+ *
+ * Called with pte lock held.
+ */
+
 static enum mc_target_type get_mctgt_type(struct vm_area_struct *vma,
                unsigned long addr, pte_t ptent, union mc_target *target)
 {