e31f5086f2b5f4c17758c881957d0606c8831237
[cascardo/linux.git] / arch / x86 / kernel / cpu / perf_event_intel_cqm.c
1 /*
2  * Intel Cache Quality-of-Service Monitoring (CQM) support.
3  *
4  * Based very, very heavily on work by Peter Zijlstra.
5  */
6
7 #include <linux/perf_event.h>
8 #include <linux/slab.h>
9 #include <asm/cpu_device_id.h>
10 #include "perf_event.h"
11
12 #define MSR_IA32_PQR_ASSOC      0x0c8f
13 #define MSR_IA32_QM_CTR         0x0c8e
14 #define MSR_IA32_QM_EVTSEL      0x0c8d
15
16 static unsigned int cqm_max_rmid = -1;
17 static unsigned int cqm_l3_scale; /* supposedly cacheline size */
18
19 struct intel_cqm_state {
20         raw_spinlock_t          lock;
21         int                     rmid;
22         int                     cnt;
23 };
24
25 static DEFINE_PER_CPU(struct intel_cqm_state, cqm_state);
26
27 /*
28  * Protects cache_cgroups and cqm_rmid_free_lru and cqm_rmid_limbo_lru.
29  * Also protects event->hw.cqm_rmid
30  *
31  * Hold either for stability, both for modification of ->hw.cqm_rmid.
32  */
33 static DEFINE_MUTEX(cache_mutex);
34 static DEFINE_RAW_SPINLOCK(cache_lock);
35
36 /*
37  * Groups of events that have the same target(s), one RMID per group.
38  */
39 static LIST_HEAD(cache_groups);
40
41 /*
42  * Mask of CPUs for reading CQM values. We only need one per-socket.
43  */
44 static cpumask_t cqm_cpumask;
45
46 #define RMID_VAL_ERROR          (1ULL << 63)
47 #define RMID_VAL_UNAVAIL        (1ULL << 62)
48
49 #define QOS_L3_OCCUP_EVENT_ID   (1 << 0)
50
51 #define QOS_EVENT_MASK  QOS_L3_OCCUP_EVENT_ID
52
53 /*
54  * This is central to the rotation algorithm in __intel_cqm_rmid_rotate().
55  *
56  * This rmid is always free and is guaranteed to have an associated
57  * near-zero occupancy value, i.e. no cachelines are tagged with this
58  * RMID, once __intel_cqm_rmid_rotate() returns.
59  */
60 static unsigned int intel_cqm_rotation_rmid;
61
62 #define INVALID_RMID            (-1)
63
64 /*
65  * Is @rmid valid for programming the hardware?
66  *
67  * rmid 0 is reserved by the hardware for all non-monitored tasks, which
68  * means that we should never come across an rmid with that value.
69  * Likewise, an rmid value of -1 is used to indicate "no rmid currently
70  * assigned" and is used as part of the rotation code.
71  */
72 static inline bool __rmid_valid(unsigned int rmid)
73 {
74         if (!rmid || rmid == INVALID_RMID)
75                 return false;
76
77         return true;
78 }
79
80 static u64 __rmid_read(unsigned int rmid)
81 {
82         u64 val;
83
84         /*
85          * Ignore the SDM, this thing is _NOTHING_ like a regular perfcnt,
86          * it just says that to increase confusion.
87          */
88         wrmsr(MSR_IA32_QM_EVTSEL, QOS_L3_OCCUP_EVENT_ID, rmid);
89         rdmsrl(MSR_IA32_QM_CTR, val);
90
91         /*
92          * Aside from the ERROR and UNAVAIL bits, assume this thing returns
93          * the number of cachelines tagged with @rmid.
94          */
95         return val;
96 }
97
98 enum rmid_recycle_state {
99         RMID_YOUNG = 0,
100         RMID_AVAILABLE,
101         RMID_DIRTY,
102 };
103
104 struct cqm_rmid_entry {
105         unsigned int rmid;
106         enum rmid_recycle_state state;
107         struct list_head list;
108         unsigned long queue_time;
109 };
110
111 /*
112  * cqm_rmid_free_lru - A least recently used list of RMIDs.
113  *
114  * Oldest entry at the head, newest (most recently used) entry at the
115  * tail. This list is never traversed, it's only used to keep track of
116  * the lru order. That is, we only pick entries of the head or insert
117  * them on the tail.
118  *
119  * All entries on the list are 'free', and their RMIDs are not currently
120  * in use. To mark an RMID as in use, remove its entry from the lru
121  * list.
122  *
123  *
124  * cqm_rmid_limbo_lru - list of currently unused but (potentially) dirty RMIDs.
125  *
126  * This list is contains RMIDs that no one is currently using but that
127  * may have a non-zero occupancy value associated with them. The
128  * rotation worker moves RMIDs from the limbo list to the free list once
129  * the occupancy value drops below __intel_cqm_threshold.
130  *
131  * Both lists are protected by cache_mutex.
132  */
133 static LIST_HEAD(cqm_rmid_free_lru);
134 static LIST_HEAD(cqm_rmid_limbo_lru);
135
136 /*
137  * We use a simple array of pointers so that we can lookup a struct
138  * cqm_rmid_entry in O(1). This alleviates the callers of __get_rmid()
139  * and __put_rmid() from having to worry about dealing with struct
140  * cqm_rmid_entry - they just deal with rmids, i.e. integers.
141  *
142  * Once this array is initialized it is read-only. No locks are required
143  * to access it.
144  *
145  * All entries for all RMIDs can be looked up in the this array at all
146  * times.
147  */
148 static struct cqm_rmid_entry **cqm_rmid_ptrs;
149
150 static inline struct cqm_rmid_entry *__rmid_entry(int rmid)
151 {
152         struct cqm_rmid_entry *entry;
153
154         entry = cqm_rmid_ptrs[rmid];
155         WARN_ON(entry->rmid != rmid);
156
157         return entry;
158 }
159
160 /*
161  * Returns < 0 on fail.
162  *
163  * We expect to be called with cache_mutex held.
164  */
165 static int __get_rmid(void)
166 {
167         struct cqm_rmid_entry *entry;
168
169         lockdep_assert_held(&cache_mutex);
170
171         if (list_empty(&cqm_rmid_free_lru))
172                 return INVALID_RMID;
173
174         entry = list_first_entry(&cqm_rmid_free_lru, struct cqm_rmid_entry, list);
175         list_del(&entry->list);
176
177         return entry->rmid;
178 }
179
180 static void __put_rmid(unsigned int rmid)
181 {
182         struct cqm_rmid_entry *entry;
183
184         lockdep_assert_held(&cache_mutex);
185
186         WARN_ON(!__rmid_valid(rmid));
187         entry = __rmid_entry(rmid);
188
189         entry->queue_time = jiffies;
190         entry->state = RMID_YOUNG;
191
192         list_add_tail(&entry->list, &cqm_rmid_limbo_lru);
193 }
194
195 static int intel_cqm_setup_rmid_cache(void)
196 {
197         struct cqm_rmid_entry *entry;
198         unsigned int nr_rmids;
199         int r = 0;
200
201         nr_rmids = cqm_max_rmid + 1;
202         cqm_rmid_ptrs = kmalloc(sizeof(struct cqm_rmid_entry *) *
203                                 nr_rmids, GFP_KERNEL);
204         if (!cqm_rmid_ptrs)
205                 return -ENOMEM;
206
207         for (; r <= cqm_max_rmid; r++) {
208                 struct cqm_rmid_entry *entry;
209
210                 entry = kmalloc(sizeof(*entry), GFP_KERNEL);
211                 if (!entry)
212                         goto fail;
213
214                 INIT_LIST_HEAD(&entry->list);
215                 entry->rmid = r;
216                 cqm_rmid_ptrs[r] = entry;
217
218                 list_add_tail(&entry->list, &cqm_rmid_free_lru);
219         }
220
221         /*
222          * RMID 0 is special and is always allocated. It's used for all
223          * tasks that are not monitored.
224          */
225         entry = __rmid_entry(0);
226         list_del(&entry->list);
227
228         mutex_lock(&cache_mutex);
229         intel_cqm_rotation_rmid = __get_rmid();
230         mutex_unlock(&cache_mutex);
231
232         return 0;
233 fail:
234         while (r--)
235                 kfree(cqm_rmid_ptrs[r]);
236
237         kfree(cqm_rmid_ptrs);
238         return -ENOMEM;
239 }
240
241 /*
242  * Determine if @a and @b measure the same set of tasks.
243  *
244  * If @a and @b measure the same set of tasks then we want to share a
245  * single RMID.
246  */
247 static bool __match_event(struct perf_event *a, struct perf_event *b)
248 {
249         /* Per-cpu and task events don't mix */
250         if ((a->attach_state & PERF_ATTACH_TASK) !=
251             (b->attach_state & PERF_ATTACH_TASK))
252                 return false;
253
254 #ifdef CONFIG_CGROUP_PERF
255         if (a->cgrp != b->cgrp)
256                 return false;
257 #endif
258
259         /* If not task event, we're machine wide */
260         if (!(b->attach_state & PERF_ATTACH_TASK))
261                 return true;
262
263         /*
264          * Events that target same task are placed into the same cache group.
265          */
266         if (a->hw.cqm_target == b->hw.cqm_target)
267                 return true;
268
269         /*
270          * Are we an inherited event?
271          */
272         if (b->parent == a)
273                 return true;
274
275         return false;
276 }
277
278 #ifdef CONFIG_CGROUP_PERF
279 static inline struct perf_cgroup *event_to_cgroup(struct perf_event *event)
280 {
281         if (event->attach_state & PERF_ATTACH_TASK)
282                 return perf_cgroup_from_task(event->hw.cqm_target);
283
284         return event->cgrp;
285 }
286 #endif
287
288 /*
289  * Determine if @a's tasks intersect with @b's tasks
290  *
291  * There are combinations of events that we explicitly prohibit,
292  *
293  *                 PROHIBITS
294  *     system-wide    ->        cgroup and task
295  *     cgroup         ->        system-wide
296  *                    ->        task in cgroup
297  *     task           ->        system-wide
298  *                    ->        task in cgroup
299  *
300  * Call this function before allocating an RMID.
301  */
302 static bool __conflict_event(struct perf_event *a, struct perf_event *b)
303 {
304 #ifdef CONFIG_CGROUP_PERF
305         /*
306          * We can have any number of cgroups but only one system-wide
307          * event at a time.
308          */
309         if (a->cgrp && b->cgrp) {
310                 struct perf_cgroup *ac = a->cgrp;
311                 struct perf_cgroup *bc = b->cgrp;
312
313                 /*
314                  * This condition should have been caught in
315                  * __match_event() and we should be sharing an RMID.
316                  */
317                 WARN_ON_ONCE(ac == bc);
318
319                 if (cgroup_is_descendant(ac->css.cgroup, bc->css.cgroup) ||
320                     cgroup_is_descendant(bc->css.cgroup, ac->css.cgroup))
321                         return true;
322
323                 return false;
324         }
325
326         if (a->cgrp || b->cgrp) {
327                 struct perf_cgroup *ac, *bc;
328
329                 /*
330                  * cgroup and system-wide events are mutually exclusive
331                  */
332                 if ((a->cgrp && !(b->attach_state & PERF_ATTACH_TASK)) ||
333                     (b->cgrp && !(a->attach_state & PERF_ATTACH_TASK)))
334                         return true;
335
336                 /*
337                  * Ensure neither event is part of the other's cgroup
338                  */
339                 ac = event_to_cgroup(a);
340                 bc = event_to_cgroup(b);
341                 if (ac == bc)
342                         return true;
343
344                 /*
345                  * Must have cgroup and non-intersecting task events.
346                  */
347                 if (!ac || !bc)
348                         return false;
349
350                 /*
351                  * We have cgroup and task events, and the task belongs
352                  * to a cgroup. Check for for overlap.
353                  */
354                 if (cgroup_is_descendant(ac->css.cgroup, bc->css.cgroup) ||
355                     cgroup_is_descendant(bc->css.cgroup, ac->css.cgroup))
356                         return true;
357
358                 return false;
359         }
360 #endif
361         /*
362          * If one of them is not a task, same story as above with cgroups.
363          */
364         if (!(a->attach_state & PERF_ATTACH_TASK) ||
365             !(b->attach_state & PERF_ATTACH_TASK))
366                 return true;
367
368         /*
369          * Must be non-overlapping.
370          */
371         return false;
372 }
373
374 struct rmid_read {
375         unsigned int rmid;
376         atomic64_t value;
377 };
378
379 static void __intel_cqm_event_count(void *info);
380
381 /*
382  * Exchange the RMID of a group of events.
383  */
384 static unsigned int
385 intel_cqm_xchg_rmid(struct perf_event *group, unsigned int rmid)
386 {
387         struct perf_event *event;
388         unsigned int old_rmid = group->hw.cqm_rmid;
389         struct list_head *head = &group->hw.cqm_group_entry;
390
391         lockdep_assert_held(&cache_mutex);
392
393         /*
394          * If our RMID is being deallocated, perform a read now.
395          */
396         if (__rmid_valid(old_rmid) && !__rmid_valid(rmid)) {
397                 struct rmid_read rr = {
398                         .value = ATOMIC64_INIT(0),
399                         .rmid = old_rmid,
400                 };
401
402                 on_each_cpu_mask(&cqm_cpumask, __intel_cqm_event_count,
403                                  &rr, 1);
404                 local64_set(&group->count, atomic64_read(&rr.value));
405         }
406
407         raw_spin_lock_irq(&cache_lock);
408
409         group->hw.cqm_rmid = rmid;
410         list_for_each_entry(event, head, hw.cqm_group_entry)
411                 event->hw.cqm_rmid = rmid;
412
413         raw_spin_unlock_irq(&cache_lock);
414
415         return old_rmid;
416 }
417
418 /*
419  * If we fail to assign a new RMID for intel_cqm_rotation_rmid because
420  * cachelines are still tagged with RMIDs in limbo, we progressively
421  * increment the threshold until we find an RMID in limbo with <=
422  * __intel_cqm_threshold lines tagged. This is designed to mitigate the
423  * problem where cachelines tagged with an RMID are not steadily being
424  * evicted.
425  *
426  * On successful rotations we decrease the threshold back towards zero.
427  *
428  * __intel_cqm_max_threshold provides an upper bound on the threshold,
429  * and is measured in bytes because it's exposed to userland.
430  */
431 static unsigned int __intel_cqm_threshold;
432 static unsigned int __intel_cqm_max_threshold;
433
434 /*
435  * Test whether an RMID has a zero occupancy value on this cpu.
436  */
437 static void intel_cqm_stable(void *arg)
438 {
439         struct cqm_rmid_entry *entry;
440
441         list_for_each_entry(entry, &cqm_rmid_limbo_lru, list) {
442                 if (entry->state != RMID_AVAILABLE)
443                         break;
444
445                 if (__rmid_read(entry->rmid) > __intel_cqm_threshold)
446                         entry->state = RMID_DIRTY;
447         }
448 }
449
450 /*
451  * If we have group events waiting for an RMID that don't conflict with
452  * events already running, assign @rmid.
453  */
454 static bool intel_cqm_sched_in_event(unsigned int rmid)
455 {
456         struct perf_event *leader, *event;
457
458         lockdep_assert_held(&cache_mutex);
459
460         leader = list_first_entry(&cache_groups, struct perf_event,
461                                   hw.cqm_groups_entry);
462         event = leader;
463
464         list_for_each_entry_continue(event, &cache_groups,
465                                      hw.cqm_groups_entry) {
466                 if (__rmid_valid(event->hw.cqm_rmid))
467                         continue;
468
469                 if (__conflict_event(event, leader))
470                         continue;
471
472                 intel_cqm_xchg_rmid(event, rmid);
473                 return true;
474         }
475
476         return false;
477 }
478
479 /*
480  * Initially use this constant for both the limbo queue time and the
481  * rotation timer interval, pmu::hrtimer_interval_ms.
482  *
483  * They don't need to be the same, but the two are related since if you
484  * rotate faster than you recycle RMIDs, you may run out of available
485  * RMIDs.
486  */
487 #define RMID_DEFAULT_QUEUE_TIME 250     /* ms */
488
489 static unsigned int __rmid_queue_time_ms = RMID_DEFAULT_QUEUE_TIME;
490
491 /*
492  * intel_cqm_rmid_stabilize - move RMIDs from limbo to free list
493  * @nr_available: number of freeable RMIDs on the limbo list
494  *
495  * Quiescent state; wait for all 'freed' RMIDs to become unused, i.e. no
496  * cachelines are tagged with those RMIDs. After this we can reuse them
497  * and know that the current set of active RMIDs is stable.
498  *
499  * Return %true or %false depending on whether stabilization needs to be
500  * reattempted.
501  *
502  * If we return %true then @nr_available is updated to indicate the
503  * number of RMIDs on the limbo list that have been queued for the
504  * minimum queue time (RMID_AVAILABLE), but whose data occupancy values
505  * are above __intel_cqm_threshold.
506  */
507 static bool intel_cqm_rmid_stabilize(unsigned int *available)
508 {
509         struct cqm_rmid_entry *entry, *tmp;
510         struct perf_event *event;
511
512         lockdep_assert_held(&cache_mutex);
513
514         *available = 0;
515         list_for_each_entry(entry, &cqm_rmid_limbo_lru, list) {
516                 unsigned long min_queue_time;
517                 unsigned long now = jiffies;
518
519                 /*
520                  * We hold RMIDs placed into limbo for a minimum queue
521                  * time. Before the minimum queue time has elapsed we do
522                  * not recycle RMIDs.
523                  *
524                  * The reasoning is that until a sufficient time has
525                  * passed since we stopped using an RMID, any RMID
526                  * placed onto the limbo list will likely still have
527                  * data tagged in the cache, which means we'll probably
528                  * fail to recycle it anyway.
529                  *
530                  * We can save ourselves an expensive IPI by skipping
531                  * any RMIDs that have not been queued for the minimum
532                  * time.
533                  */
534                 min_queue_time = entry->queue_time +
535                         msecs_to_jiffies(__rmid_queue_time_ms);
536
537                 if (time_after(min_queue_time, now))
538                         break;
539
540                 entry->state = RMID_AVAILABLE;
541                 (*available)++;
542         }
543
544         /*
545          * Fast return if none of the RMIDs on the limbo list have been
546          * sitting on the queue for the minimum queue time.
547          */
548         if (!*available)
549                 return false;
550
551         /*
552          * Test whether an RMID is free for each package.
553          */
554         on_each_cpu_mask(&cqm_cpumask, intel_cqm_stable, NULL, true);
555
556         list_for_each_entry_safe(entry, tmp, &cqm_rmid_limbo_lru, list) {
557                 /*
558                  * Exhausted all RMIDs that have waited min queue time.
559                  */
560                 if (entry->state == RMID_YOUNG)
561                         break;
562
563                 if (entry->state == RMID_DIRTY)
564                         continue;
565
566                 list_del(&entry->list); /* remove from limbo */
567
568                 /*
569                  * The rotation RMID gets priority if it's
570                  * currently invalid. In which case, skip adding
571                  * the RMID to the the free lru.
572                  */
573                 if (!__rmid_valid(intel_cqm_rotation_rmid)) {
574                         intel_cqm_rotation_rmid = entry->rmid;
575                         continue;
576                 }
577
578                 /*
579                  * If we have groups waiting for RMIDs, hand
580                  * them one now.
581                  */
582                 list_for_each_entry(event, &cache_groups,
583                                     hw.cqm_groups_entry) {
584                         if (__rmid_valid(event->hw.cqm_rmid))
585                                 continue;
586
587                         intel_cqm_xchg_rmid(event, entry->rmid);
588                         entry = NULL;
589                         break;
590                 }
591
592                 if (!entry)
593                         continue;
594
595                 /*
596                  * Otherwise place it onto the free list.
597                  */
598                 list_add_tail(&entry->list, &cqm_rmid_free_lru);
599         }
600
601
602         return __rmid_valid(intel_cqm_rotation_rmid);
603 }
604
605 /*
606  * Pick a victim group and move it to the tail of the group list.
607  */
608 static struct perf_event *
609 __intel_cqm_pick_and_rotate(void)
610 {
611         struct perf_event *rotor;
612
613         lockdep_assert_held(&cache_mutex);
614         lockdep_assert_held(&cache_lock);
615
616         rotor = list_first_entry(&cache_groups, struct perf_event,
617                                  hw.cqm_groups_entry);
618         list_rotate_left(&cache_groups);
619
620         return rotor;
621 }
622
623 /*
624  * Attempt to rotate the groups and assign new RMIDs.
625  *
626  * Rotating RMIDs is complicated because the hardware doesn't give us
627  * any clues.
628  *
629  * There's problems with the hardware interface; when you change the
630  * task:RMID map cachelines retain their 'old' tags, giving a skewed
631  * picture. In order to work around this, we must always keep one free
632  * RMID - intel_cqm_rotation_rmid.
633  *
634  * Rotation works by taking away an RMID from a group (the old RMID),
635  * and assigning the free RMID to another group (the new RMID). We must
636  * then wait for the old RMID to not be used (no cachelines tagged).
637  * This ensure that all cachelines are tagged with 'active' RMIDs. At
638  * this point we can start reading values for the new RMID and treat the
639  * old RMID as the free RMID for the next rotation.
640  *
641  * Return %true or %false depending on whether we did any rotating.
642  */
643 static bool __intel_cqm_rmid_rotate(void)
644 {
645         struct perf_event *group, *rotor, *start = NULL;
646         unsigned int threshold_limit;
647         unsigned int nr_needed = 0;
648         unsigned int nr_available;
649         unsigned int rmid;
650         bool rotated = false;
651
652         mutex_lock(&cache_mutex);
653
654 again:
655         /*
656          * Fast path through this function if there are no groups and no
657          * RMIDs that need cleaning.
658          */
659         if (list_empty(&cache_groups) && list_empty(&cqm_rmid_limbo_lru))
660                 goto out;
661
662         list_for_each_entry(group, &cache_groups, hw.cqm_groups_entry) {
663                 if (!__rmid_valid(group->hw.cqm_rmid)) {
664                         if (!start)
665                                 start = group;
666                         nr_needed++;
667                 }
668         }
669
670         /*
671          * We have some event groups, but they all have RMIDs assigned
672          * and no RMIDs need cleaning.
673          */
674         if (!nr_needed && list_empty(&cqm_rmid_limbo_lru))
675                 goto out;
676
677         if (!nr_needed)
678                 goto stabilize;
679
680         /*
681          * We have more event groups without RMIDs than available RMIDs.
682          *
683          * We force deallocate the rmid of the group at the head of
684          * cache_groups. The first event group without an RMID then gets
685          * assigned intel_cqm_rotation_rmid. This ensures we always make
686          * forward progress.
687          *
688          * Rotate the cache_groups list so the previous head is now the
689          * tail.
690          */
691         rotor = __intel_cqm_pick_and_rotate();
692         rmid = intel_cqm_xchg_rmid(rotor, INVALID_RMID);
693
694         /*
695          * The group at the front of the list should always have a valid
696          * RMID. If it doesn't then no groups have RMIDs assigned.
697          */
698         if (!__rmid_valid(rmid))
699                 goto stabilize;
700
701         /*
702          * If the rotation is going to succeed, reduce the threshold so
703          * that we don't needlessly reuse dirty RMIDs.
704          */
705         if (__rmid_valid(intel_cqm_rotation_rmid)) {
706                 intel_cqm_xchg_rmid(start, intel_cqm_rotation_rmid);
707                 intel_cqm_rotation_rmid = INVALID_RMID;
708
709                 if (__intel_cqm_threshold)
710                         __intel_cqm_threshold--;
711         }
712
713         __put_rmid(rmid);
714
715         rotated = true;
716
717 stabilize:
718         /*
719          * We now need to stablize the RMID we freed above (if any) to
720          * ensure that the next time we rotate we have an RMID with zero
721          * occupancy value.
722          *
723          * Alternatively, if we didn't need to perform any rotation,
724          * we'll have a bunch of RMIDs in limbo that need stabilizing.
725          */
726         threshold_limit = __intel_cqm_max_threshold / cqm_l3_scale;
727
728         while (intel_cqm_rmid_stabilize(&nr_available) &&
729                __intel_cqm_threshold < threshold_limit) {
730                 unsigned int steal_limit;
731
732                 /*
733                  * Don't spin if nobody is actively waiting for an RMID,
734                  * the rotation worker will be kicked as soon as an
735                  * event needs an RMID anyway.
736                  */
737                 if (!nr_needed)
738                         break;
739
740                 /* Allow max 25% of RMIDs to be in limbo. */
741                 steal_limit = (cqm_max_rmid + 1) / 4;
742
743                 /*
744                  * We failed to stabilize any RMIDs so our rotation
745                  * logic is now stuck. In order to make forward progress
746                  * we have a few options:
747                  *
748                  *   1. rotate ("steal") another RMID
749                  *   2. increase the threshold
750                  *   3. do nothing
751                  *
752                  * We do both of 1. and 2. until we hit the steal limit.
753                  *
754                  * The steal limit prevents all RMIDs ending up on the
755                  * limbo list. This can happen if every RMID has a
756                  * non-zero occupancy above threshold_limit, and the
757                  * occupancy values aren't dropping fast enough.
758                  *
759                  * Note that there is prioritisation at work here - we'd
760                  * rather increase the number of RMIDs on the limbo list
761                  * than increase the threshold, because increasing the
762                  * threshold skews the event data (because we reuse
763                  * dirty RMIDs) - threshold bumps are a last resort.
764                  */
765                 if (nr_available < steal_limit)
766                         goto again;
767
768                 __intel_cqm_threshold++;
769         }
770
771 out:
772         mutex_unlock(&cache_mutex);
773         return rotated;
774 }
775
776 static void intel_cqm_rmid_rotate(struct work_struct *work);
777
778 static DECLARE_DELAYED_WORK(intel_cqm_rmid_work, intel_cqm_rmid_rotate);
779
780 static struct pmu intel_cqm_pmu;
781
782 static void intel_cqm_rmid_rotate(struct work_struct *work)
783 {
784         unsigned long delay;
785
786         __intel_cqm_rmid_rotate();
787
788         delay = msecs_to_jiffies(intel_cqm_pmu.hrtimer_interval_ms);
789         schedule_delayed_work(&intel_cqm_rmid_work, delay);
790 }
791
792 /*
793  * Find a group and setup RMID.
794  *
795  * If we're part of a group, we use the group's RMID.
796  */
797 static int intel_cqm_setup_event(struct perf_event *event,
798                                  struct perf_event **group)
799 {
800         struct perf_event *iter;
801
802         list_for_each_entry(iter, &cache_groups, hw.cqm_groups_entry) {
803                 if (__match_event(iter, event)) {
804                         /* All tasks in a group share an RMID */
805                         event->hw.cqm_rmid = iter->hw.cqm_rmid;
806                         *group = iter;
807                         return 0;
808                 }
809
810                 if (__conflict_event(iter, event))
811                         return -EBUSY;
812         }
813
814         event->hw.cqm_rmid = __get_rmid();
815         return 0;
816 }
817
818 static void intel_cqm_event_read(struct perf_event *event)
819 {
820         unsigned long flags;
821         unsigned int rmid;
822         u64 val;
823
824         /*
825          * Task events are handled by intel_cqm_event_count().
826          */
827         if (event->cpu == -1)
828                 return;
829
830         raw_spin_lock_irqsave(&cache_lock, flags);
831         rmid = event->hw.cqm_rmid;
832
833         if (!__rmid_valid(rmid))
834                 goto out;
835
836         val = __rmid_read(rmid);
837
838         /*
839          * Ignore this reading on error states and do not update the value.
840          */
841         if (val & (RMID_VAL_ERROR | RMID_VAL_UNAVAIL))
842                 goto out;
843
844         local64_set(&event->count, val);
845 out:
846         raw_spin_unlock_irqrestore(&cache_lock, flags);
847 }
848
849 static void __intel_cqm_event_count(void *info)
850 {
851         struct rmid_read *rr = info;
852         u64 val;
853
854         val = __rmid_read(rr->rmid);
855
856         if (val & (RMID_VAL_ERROR | RMID_VAL_UNAVAIL))
857                 return;
858
859         atomic64_add(val, &rr->value);
860 }
861
862 static inline bool cqm_group_leader(struct perf_event *event)
863 {
864         return !list_empty(&event->hw.cqm_groups_entry);
865 }
866
867 static u64 intel_cqm_event_count(struct perf_event *event)
868 {
869         unsigned long flags;
870         struct rmid_read rr = {
871                 .value = ATOMIC64_INIT(0),
872         };
873
874         /*
875          * We only need to worry about task events. System-wide events
876          * are handled like usual, i.e. entirely with
877          * intel_cqm_event_read().
878          */
879         if (event->cpu != -1)
880                 return __perf_event_count(event);
881
882         /*
883          * Only the group leader gets to report values. This stops us
884          * reporting duplicate values to userspace, and gives us a clear
885          * rule for which task gets to report the values.
886          *
887          * Note that it is impossible to attribute these values to
888          * specific packages - we forfeit that ability when we create
889          * task events.
890          */
891         if (!cqm_group_leader(event))
892                 return 0;
893
894         /*
895          * Notice that we don't perform the reading of an RMID
896          * atomically, because we can't hold a spin lock across the
897          * IPIs.
898          *
899          * Speculatively perform the read, since @event might be
900          * assigned a different (possibly invalid) RMID while we're
901          * busying performing the IPI calls. It's therefore necessary to
902          * check @event's RMID afterwards, and if it has changed,
903          * discard the result of the read.
904          */
905         rr.rmid = ACCESS_ONCE(event->hw.cqm_rmid);
906
907         if (!__rmid_valid(rr.rmid))
908                 goto out;
909
910         on_each_cpu_mask(&cqm_cpumask, __intel_cqm_event_count, &rr, 1);
911
912         raw_spin_lock_irqsave(&cache_lock, flags);
913         if (event->hw.cqm_rmid == rr.rmid)
914                 local64_set(&event->count, atomic64_read(&rr.value));
915         raw_spin_unlock_irqrestore(&cache_lock, flags);
916 out:
917         return __perf_event_count(event);
918 }
919
920 static void intel_cqm_event_start(struct perf_event *event, int mode)
921 {
922         struct intel_cqm_state *state = this_cpu_ptr(&cqm_state);
923         unsigned int rmid = event->hw.cqm_rmid;
924         unsigned long flags;
925
926         if (!(event->hw.cqm_state & PERF_HES_STOPPED))
927                 return;
928
929         event->hw.cqm_state &= ~PERF_HES_STOPPED;
930
931         raw_spin_lock_irqsave(&state->lock, flags);
932
933         if (state->cnt++)
934                 WARN_ON_ONCE(state->rmid != rmid);
935         else
936                 WARN_ON_ONCE(state->rmid);
937
938         state->rmid = rmid;
939         wrmsrl(MSR_IA32_PQR_ASSOC, state->rmid);
940
941         raw_spin_unlock_irqrestore(&state->lock, flags);
942 }
943
944 static void intel_cqm_event_stop(struct perf_event *event, int mode)
945 {
946         struct intel_cqm_state *state = this_cpu_ptr(&cqm_state);
947         unsigned long flags;
948
949         if (event->hw.cqm_state & PERF_HES_STOPPED)
950                 return;
951
952         event->hw.cqm_state |= PERF_HES_STOPPED;
953
954         raw_spin_lock_irqsave(&state->lock, flags);
955         intel_cqm_event_read(event);
956
957         if (!--state->cnt) {
958                 state->rmid = 0;
959                 wrmsrl(MSR_IA32_PQR_ASSOC, 0);
960         } else {
961                 WARN_ON_ONCE(!state->rmid);
962         }
963
964         raw_spin_unlock_irqrestore(&state->lock, flags);
965 }
966
967 static int intel_cqm_event_add(struct perf_event *event, int mode)
968 {
969         unsigned long flags;
970         unsigned int rmid;
971
972         raw_spin_lock_irqsave(&cache_lock, flags);
973
974         event->hw.cqm_state = PERF_HES_STOPPED;
975         rmid = event->hw.cqm_rmid;
976
977         if (__rmid_valid(rmid) && (mode & PERF_EF_START))
978                 intel_cqm_event_start(event, mode);
979
980         raw_spin_unlock_irqrestore(&cache_lock, flags);
981
982         return 0;
983 }
984
985 static void intel_cqm_event_del(struct perf_event *event, int mode)
986 {
987         intel_cqm_event_stop(event, mode);
988 }
989
990 static void intel_cqm_event_destroy(struct perf_event *event)
991 {
992         struct perf_event *group_other = NULL;
993
994         mutex_lock(&cache_mutex);
995
996         /*
997          * If there's another event in this group...
998          */
999         if (!list_empty(&event->hw.cqm_group_entry)) {
1000                 group_other = list_first_entry(&event->hw.cqm_group_entry,
1001                                                struct perf_event,
1002                                                hw.cqm_group_entry);
1003                 list_del(&event->hw.cqm_group_entry);
1004         }
1005
1006         /*
1007          * And we're the group leader..
1008          */
1009         if (cqm_group_leader(event)) {
1010                 /*
1011                  * If there was a group_other, make that leader, otherwise
1012                  * destroy the group and return the RMID.
1013                  */
1014                 if (group_other) {
1015                         list_replace(&event->hw.cqm_groups_entry,
1016                                      &group_other->hw.cqm_groups_entry);
1017                 } else {
1018                         unsigned int rmid = event->hw.cqm_rmid;
1019
1020                         if (__rmid_valid(rmid))
1021                                 __put_rmid(rmid);
1022                         list_del(&event->hw.cqm_groups_entry);
1023                 }
1024         }
1025
1026         mutex_unlock(&cache_mutex);
1027 }
1028
1029 static int intel_cqm_event_init(struct perf_event *event)
1030 {
1031         struct perf_event *group = NULL;
1032         bool rotate = false;
1033         int err;
1034
1035         if (event->attr.type != intel_cqm_pmu.type)
1036                 return -ENOENT;
1037
1038         if (event->attr.config & ~QOS_EVENT_MASK)
1039                 return -EINVAL;
1040
1041         /* unsupported modes and filters */
1042         if (event->attr.exclude_user   ||
1043             event->attr.exclude_kernel ||
1044             event->attr.exclude_hv     ||
1045             event->attr.exclude_idle   ||
1046             event->attr.exclude_host   ||
1047             event->attr.exclude_guest  ||
1048             event->attr.sample_period) /* no sampling */
1049                 return -EINVAL;
1050
1051         INIT_LIST_HEAD(&event->hw.cqm_group_entry);
1052         INIT_LIST_HEAD(&event->hw.cqm_groups_entry);
1053
1054         event->destroy = intel_cqm_event_destroy;
1055
1056         mutex_lock(&cache_mutex);
1057
1058         /* Will also set rmid */
1059         err = intel_cqm_setup_event(event, &group);
1060         if (err)
1061                 goto out;
1062
1063         if (group) {
1064                 list_add_tail(&event->hw.cqm_group_entry,
1065                               &group->hw.cqm_group_entry);
1066         } else {
1067                 list_add_tail(&event->hw.cqm_groups_entry,
1068                               &cache_groups);
1069
1070                 /*
1071                  * All RMIDs are either in use or have recently been
1072                  * used. Kick the rotation worker to clean/free some.
1073                  *
1074                  * We only do this for the group leader, rather than for
1075                  * every event in a group to save on needless work.
1076                  */
1077                 if (!__rmid_valid(event->hw.cqm_rmid))
1078                         rotate = true;
1079         }
1080
1081 out:
1082         mutex_unlock(&cache_mutex);
1083
1084         if (rotate)
1085                 schedule_delayed_work(&intel_cqm_rmid_work, 0);
1086
1087         return err;
1088 }
1089
1090 EVENT_ATTR_STR(llc_occupancy, intel_cqm_llc, "event=0x01");
1091 EVENT_ATTR_STR(llc_occupancy.per-pkg, intel_cqm_llc_pkg, "1");
1092 EVENT_ATTR_STR(llc_occupancy.unit, intel_cqm_llc_unit, "Bytes");
1093 EVENT_ATTR_STR(llc_occupancy.scale, intel_cqm_llc_scale, NULL);
1094 EVENT_ATTR_STR(llc_occupancy.snapshot, intel_cqm_llc_snapshot, "1");
1095
1096 static struct attribute *intel_cqm_events_attr[] = {
1097         EVENT_PTR(intel_cqm_llc),
1098         EVENT_PTR(intel_cqm_llc_pkg),
1099         EVENT_PTR(intel_cqm_llc_unit),
1100         EVENT_PTR(intel_cqm_llc_scale),
1101         EVENT_PTR(intel_cqm_llc_snapshot),
1102         NULL,
1103 };
1104
1105 static struct attribute_group intel_cqm_events_group = {
1106         .name = "events",
1107         .attrs = intel_cqm_events_attr,
1108 };
1109
1110 PMU_FORMAT_ATTR(event, "config:0-7");
1111 static struct attribute *intel_cqm_formats_attr[] = {
1112         &format_attr_event.attr,
1113         NULL,
1114 };
1115
1116 static struct attribute_group intel_cqm_format_group = {
1117         .name = "format",
1118         .attrs = intel_cqm_formats_attr,
1119 };
1120
1121 static ssize_t
1122 max_recycle_threshold_show(struct device *dev, struct device_attribute *attr,
1123                            char *page)
1124 {
1125         ssize_t rv;
1126
1127         mutex_lock(&cache_mutex);
1128         rv = snprintf(page, PAGE_SIZE-1, "%u\n", __intel_cqm_max_threshold);
1129         mutex_unlock(&cache_mutex);
1130
1131         return rv;
1132 }
1133
1134 static ssize_t
1135 max_recycle_threshold_store(struct device *dev,
1136                             struct device_attribute *attr,
1137                             const char *buf, size_t count)
1138 {
1139         unsigned int bytes, cachelines;
1140         int ret;
1141
1142         ret = kstrtouint(buf, 0, &bytes);
1143         if (ret)
1144                 return ret;
1145
1146         mutex_lock(&cache_mutex);
1147
1148         __intel_cqm_max_threshold = bytes;
1149         cachelines = bytes / cqm_l3_scale;
1150
1151         /*
1152          * The new maximum takes effect immediately.
1153          */
1154         if (__intel_cqm_threshold > cachelines)
1155                 __intel_cqm_threshold = cachelines;
1156
1157         mutex_unlock(&cache_mutex);
1158
1159         return count;
1160 }
1161
1162 static DEVICE_ATTR_RW(max_recycle_threshold);
1163
1164 static struct attribute *intel_cqm_attrs[] = {
1165         &dev_attr_max_recycle_threshold.attr,
1166         NULL,
1167 };
1168
1169 static const struct attribute_group intel_cqm_group = {
1170         .attrs = intel_cqm_attrs,
1171 };
1172
1173 static const struct attribute_group *intel_cqm_attr_groups[] = {
1174         &intel_cqm_events_group,
1175         &intel_cqm_format_group,
1176         &intel_cqm_group,
1177         NULL,
1178 };
1179
1180 static struct pmu intel_cqm_pmu = {
1181         .hrtimer_interval_ms = RMID_DEFAULT_QUEUE_TIME,
1182         .attr_groups         = intel_cqm_attr_groups,
1183         .task_ctx_nr         = perf_sw_context,
1184         .event_init          = intel_cqm_event_init,
1185         .add                 = intel_cqm_event_add,
1186         .del                 = intel_cqm_event_del,
1187         .start               = intel_cqm_event_start,
1188         .stop                = intel_cqm_event_stop,
1189         .read                = intel_cqm_event_read,
1190         .count               = intel_cqm_event_count,
1191 };
1192
1193 static inline void cqm_pick_event_reader(int cpu)
1194 {
1195         int phys_id = topology_physical_package_id(cpu);
1196         int i;
1197
1198         for_each_cpu(i, &cqm_cpumask) {
1199                 if (phys_id == topology_physical_package_id(i))
1200                         return; /* already got reader for this socket */
1201         }
1202
1203         cpumask_set_cpu(cpu, &cqm_cpumask);
1204 }
1205
1206 static void intel_cqm_cpu_prepare(unsigned int cpu)
1207 {
1208         struct intel_cqm_state *state = &per_cpu(cqm_state, cpu);
1209         struct cpuinfo_x86 *c = &cpu_data(cpu);
1210
1211         raw_spin_lock_init(&state->lock);
1212         state->rmid = 0;
1213         state->cnt  = 0;
1214
1215         WARN_ON(c->x86_cache_max_rmid != cqm_max_rmid);
1216         WARN_ON(c->x86_cache_occ_scale != cqm_l3_scale);
1217 }
1218
1219 static void intel_cqm_cpu_exit(unsigned int cpu)
1220 {
1221         int phys_id = topology_physical_package_id(cpu);
1222         int i;
1223
1224         /*
1225          * Is @cpu a designated cqm reader?
1226          */
1227         if (!cpumask_test_and_clear_cpu(cpu, &cqm_cpumask))
1228                 return;
1229
1230         for_each_online_cpu(i) {
1231                 if (i == cpu)
1232                         continue;
1233
1234                 if (phys_id == topology_physical_package_id(i)) {
1235                         cpumask_set_cpu(i, &cqm_cpumask);
1236                         break;
1237                 }
1238         }
1239 }
1240
1241 static int intel_cqm_cpu_notifier(struct notifier_block *nb,
1242                                   unsigned long action, void *hcpu)
1243 {
1244         unsigned int cpu  = (unsigned long)hcpu;
1245
1246         switch (action & ~CPU_TASKS_FROZEN) {
1247         case CPU_UP_PREPARE:
1248                 intel_cqm_cpu_prepare(cpu);
1249                 break;
1250         case CPU_DOWN_PREPARE:
1251                 intel_cqm_cpu_exit(cpu);
1252                 break;
1253         case CPU_STARTING:
1254                 cqm_pick_event_reader(cpu);
1255                 break;
1256         }
1257
1258         return NOTIFY_OK;
1259 }
1260
1261 static const struct x86_cpu_id intel_cqm_match[] = {
1262         { .vendor = X86_VENDOR_INTEL, .feature = X86_FEATURE_CQM_OCCUP_LLC },
1263         {}
1264 };
1265
1266 static int __init intel_cqm_init(void)
1267 {
1268         char *str, scale[20];
1269         int i, cpu, ret;
1270
1271         if (!x86_match_cpu(intel_cqm_match))
1272                 return -ENODEV;
1273
1274         cqm_l3_scale = boot_cpu_data.x86_cache_occ_scale;
1275
1276         /*
1277          * It's possible that not all resources support the same number
1278          * of RMIDs. Instead of making scheduling much more complicated
1279          * (where we have to match a task's RMID to a cpu that supports
1280          * that many RMIDs) just find the minimum RMIDs supported across
1281          * all cpus.
1282          *
1283          * Also, check that the scales match on all cpus.
1284          */
1285         cpu_notifier_register_begin();
1286
1287         for_each_online_cpu(cpu) {
1288                 struct cpuinfo_x86 *c = &cpu_data(cpu);
1289
1290                 if (c->x86_cache_max_rmid < cqm_max_rmid)
1291                         cqm_max_rmid = c->x86_cache_max_rmid;
1292
1293                 if (c->x86_cache_occ_scale != cqm_l3_scale) {
1294                         pr_err("Multiple LLC scale values, disabling\n");
1295                         ret = -EINVAL;
1296                         goto out;
1297                 }
1298         }
1299
1300         /*
1301          * A reasonable upper limit on the max threshold is the number
1302          * of lines tagged per RMID if all RMIDs have the same number of
1303          * lines tagged in the LLC.
1304          *
1305          * For a 35MB LLC and 56 RMIDs, this is ~1.8% of the LLC.
1306          */
1307         __intel_cqm_max_threshold =
1308                 boot_cpu_data.x86_cache_size * 1024 / (cqm_max_rmid + 1);
1309
1310         snprintf(scale, sizeof(scale), "%u", cqm_l3_scale);
1311         str = kstrdup(scale, GFP_KERNEL);
1312         if (!str) {
1313                 ret = -ENOMEM;
1314                 goto out;
1315         }
1316
1317         event_attr_intel_cqm_llc_scale.event_str = str;
1318
1319         ret = intel_cqm_setup_rmid_cache();
1320         if (ret)
1321                 goto out;
1322
1323         for_each_online_cpu(i) {
1324                 intel_cqm_cpu_prepare(i);
1325                 cqm_pick_event_reader(i);
1326         }
1327
1328         __perf_cpu_notifier(intel_cqm_cpu_notifier);
1329
1330         ret = perf_pmu_register(&intel_cqm_pmu, "intel_cqm",
1331                                 PERF_TYPE_INTEL_CQM);
1332         if (ret)
1333                 pr_err("Intel CQM perf registration failed: %d\n", ret);
1334         else
1335                 pr_info("Intel CQM monitoring enabled\n");
1336
1337 out:
1338         cpu_notifier_register_done();
1339
1340         return ret;
1341 }
1342 device_initcall(intel_cqm_init);