xenpmu_data        21 arch/x86/xen/pmu.c 	struct xen_pmu_data *xenpmu_data;
xenpmu_data        26 arch/x86/xen/pmu.c #define get_xenpmu_data()    (this_cpu_ptr(&xenpmu_shared)->xenpmu_data)
xenpmu_data       196 arch/x86/xen/pmu.c 	struct xen_pmu_data *xenpmu_data = get_xenpmu_data();
xenpmu_data       200 arch/x86/xen/pmu.c 	if (!xenpmu_data || !(xenpmu_flags & XENPMU_IRQ_PROCESSING))
xenpmu_data       203 arch/x86/xen/pmu.c 	ctxt = &xenpmu_data->pmu.c.intel;
xenpmu_data       258 arch/x86/xen/pmu.c 	struct xen_pmu_data *xenpmu_data = get_xenpmu_data();
xenpmu_data       261 arch/x86/xen/pmu.c 	if (!xenpmu_data || !(xenpmu_flags & XENPMU_IRQ_PROCESSING))
xenpmu_data       268 arch/x86/xen/pmu.c 	ctxt = &xenpmu_data->pmu.c.amd;
xenpmu_data       341 arch/x86/xen/pmu.c 	struct xen_pmu_data *xenpmu_data = get_xenpmu_data();
xenpmu_data       344 arch/x86/xen/pmu.c 	if (!xenpmu_data || !(xenpmu_flags & XENPMU_IRQ_PROCESSING)) {
xenpmu_data       352 arch/x86/xen/pmu.c 	ctxt = &xenpmu_data->pmu.c.amd;
xenpmu_data       362 arch/x86/xen/pmu.c 	struct xen_pmu_data *xenpmu_data = get_xenpmu_data();
xenpmu_data       365 arch/x86/xen/pmu.c 	if (!xenpmu_data || !(xenpmu_flags & XENPMU_IRQ_PROCESSING)) {
xenpmu_data       377 arch/x86/xen/pmu.c 	ctxt = &xenpmu_data->pmu.c.intel;
xenpmu_data       398 arch/x86/xen/pmu.c 	struct xen_pmu_data *xenpmu_data = get_xenpmu_data();
xenpmu_data       400 arch/x86/xen/pmu.c 	if (!xenpmu_data) {
xenpmu_data       405 arch/x86/xen/pmu.c 	xenpmu_data->pmu.l.lapic_lvtpc = val;
xenpmu_data       418 arch/x86/xen/pmu.c 	const struct xen_pmu_data *xenpmu_data = get_xenpmu_data();
xenpmu_data       420 arch/x86/xen/pmu.c 	if (!xenpmu_data) {
xenpmu_data       425 arch/x86/xen/pmu.c 	if (!xen_initial_domain() || (xenpmu_data->domain_id >= DOMID_SELF))
xenpmu_data       433 arch/x86/xen/pmu.c 	const struct xen_pmu_data *xenpmu_data = get_xenpmu_data();
xenpmu_data       435 arch/x86/xen/pmu.c 	if (!xenpmu_data) {
xenpmu_data       440 arch/x86/xen/pmu.c 	if (xenpmu_data->pmu.pmu_flags & PMU_SAMPLE_PV)
xenpmu_data       441 arch/x86/xen/pmu.c 		return (xenpmu_data->pmu.pmu_flags & PMU_SAMPLE_USER);
xenpmu_data       443 arch/x86/xen/pmu.c 		return !!(xenpmu_data->pmu.r.regs.cpl & 3);
xenpmu_data       448 arch/x86/xen/pmu.c 	const struct xen_pmu_data *xenpmu_data = get_xenpmu_data();
xenpmu_data       450 arch/x86/xen/pmu.c 	if (!xenpmu_data) {
xenpmu_data       455 arch/x86/xen/pmu.c 	return xenpmu_data->pmu.r.regs.ip;
xenpmu_data       489 arch/x86/xen/pmu.c 	const struct xen_pmu_data *xenpmu_data = get_xenpmu_data();
xenpmu_data       492 arch/x86/xen/pmu.c 	if (!xenpmu_data) {
xenpmu_data       499 arch/x86/xen/pmu.c 	xen_convert_regs(&xenpmu_data->pmu.r.regs, &regs,
xenpmu_data       500 arch/x86/xen/pmu.c 			 xenpmu_data->pmu.pmu_flags);
xenpmu_data       525 arch/x86/xen/pmu.c 	struct xen_pmu_data *xenpmu_data;
xenpmu_data       532 arch/x86/xen/pmu.c 	xenpmu_data = (struct xen_pmu_data *)get_zeroed_page(GFP_KERNEL);
xenpmu_data       533 arch/x86/xen/pmu.c 	if (!xenpmu_data) {
xenpmu_data       537 arch/x86/xen/pmu.c 	pfn = virt_to_pfn(xenpmu_data);
xenpmu_data       547 arch/x86/xen/pmu.c 	per_cpu(xenpmu_shared, cpu).xenpmu_data = xenpmu_data;
xenpmu_data       563 arch/x86/xen/pmu.c 	free_pages((unsigned long)xenpmu_data, 0);
xenpmu_data       579 arch/x86/xen/pmu.c 	free_pages((unsigned long)per_cpu(xenpmu_shared, cpu).xenpmu_data, 0);
xenpmu_data       580 arch/x86/xen/pmu.c 	per_cpu(xenpmu_shared, cpu).xenpmu_data = NULL;