xenpmu_data 21 arch/x86/xen/pmu.c struct xen_pmu_data *xenpmu_data; xenpmu_data 26 arch/x86/xen/pmu.c #define get_xenpmu_data() (this_cpu_ptr(&xenpmu_shared)->xenpmu_data) xenpmu_data 196 arch/x86/xen/pmu.c struct xen_pmu_data *xenpmu_data = get_xenpmu_data(); xenpmu_data 200 arch/x86/xen/pmu.c if (!xenpmu_data || !(xenpmu_flags & XENPMU_IRQ_PROCESSING)) xenpmu_data 203 arch/x86/xen/pmu.c ctxt = &xenpmu_data->pmu.c.intel; xenpmu_data 258 arch/x86/xen/pmu.c struct xen_pmu_data *xenpmu_data = get_xenpmu_data(); xenpmu_data 261 arch/x86/xen/pmu.c if (!xenpmu_data || !(xenpmu_flags & XENPMU_IRQ_PROCESSING)) xenpmu_data 268 arch/x86/xen/pmu.c ctxt = &xenpmu_data->pmu.c.amd; xenpmu_data 341 arch/x86/xen/pmu.c struct xen_pmu_data *xenpmu_data = get_xenpmu_data(); xenpmu_data 344 arch/x86/xen/pmu.c if (!xenpmu_data || !(xenpmu_flags & XENPMU_IRQ_PROCESSING)) { xenpmu_data 352 arch/x86/xen/pmu.c ctxt = &xenpmu_data->pmu.c.amd; xenpmu_data 362 arch/x86/xen/pmu.c struct xen_pmu_data *xenpmu_data = get_xenpmu_data(); xenpmu_data 365 arch/x86/xen/pmu.c if (!xenpmu_data || !(xenpmu_flags & XENPMU_IRQ_PROCESSING)) { xenpmu_data 377 arch/x86/xen/pmu.c ctxt = &xenpmu_data->pmu.c.intel; xenpmu_data 398 arch/x86/xen/pmu.c struct xen_pmu_data *xenpmu_data = get_xenpmu_data(); xenpmu_data 400 arch/x86/xen/pmu.c if (!xenpmu_data) { xenpmu_data 405 arch/x86/xen/pmu.c xenpmu_data->pmu.l.lapic_lvtpc = val; xenpmu_data 418 arch/x86/xen/pmu.c const struct xen_pmu_data *xenpmu_data = get_xenpmu_data(); xenpmu_data 420 arch/x86/xen/pmu.c if (!xenpmu_data) { xenpmu_data 425 arch/x86/xen/pmu.c if (!xen_initial_domain() || (xenpmu_data->domain_id >= DOMID_SELF)) xenpmu_data 433 arch/x86/xen/pmu.c const struct xen_pmu_data *xenpmu_data = get_xenpmu_data(); xenpmu_data 435 arch/x86/xen/pmu.c if (!xenpmu_data) { xenpmu_data 440 arch/x86/xen/pmu.c if (xenpmu_data->pmu.pmu_flags & PMU_SAMPLE_PV) xenpmu_data 441 arch/x86/xen/pmu.c return (xenpmu_data->pmu.pmu_flags & PMU_SAMPLE_USER); xenpmu_data 443 arch/x86/xen/pmu.c return !!(xenpmu_data->pmu.r.regs.cpl & 3); xenpmu_data 448 arch/x86/xen/pmu.c const struct xen_pmu_data *xenpmu_data = get_xenpmu_data(); xenpmu_data 450 arch/x86/xen/pmu.c if (!xenpmu_data) { xenpmu_data 455 arch/x86/xen/pmu.c return xenpmu_data->pmu.r.regs.ip; xenpmu_data 489 arch/x86/xen/pmu.c const struct xen_pmu_data *xenpmu_data = get_xenpmu_data(); xenpmu_data 492 arch/x86/xen/pmu.c if (!xenpmu_data) { xenpmu_data 499 arch/x86/xen/pmu.c xen_convert_regs(&xenpmu_data->pmu.r.regs, ®s, xenpmu_data 500 arch/x86/xen/pmu.c xenpmu_data->pmu.pmu_flags); xenpmu_data 525 arch/x86/xen/pmu.c struct xen_pmu_data *xenpmu_data; xenpmu_data 532 arch/x86/xen/pmu.c xenpmu_data = (struct xen_pmu_data *)get_zeroed_page(GFP_KERNEL); xenpmu_data 533 arch/x86/xen/pmu.c if (!xenpmu_data) { xenpmu_data 537 arch/x86/xen/pmu.c pfn = virt_to_pfn(xenpmu_data); xenpmu_data 547 arch/x86/xen/pmu.c per_cpu(xenpmu_shared, cpu).xenpmu_data = xenpmu_data; xenpmu_data 563 arch/x86/xen/pmu.c free_pages((unsigned long)xenpmu_data, 0); xenpmu_data 579 arch/x86/xen/pmu.c free_pages((unsigned long)per_cpu(xenpmu_shared, cpu).xenpmu_data, 0); xenpmu_data 580 arch/x86/xen/pmu.c per_cpu(xenpmu_shared, cpu).xenpmu_data = NULL;