gtod             1089 arch/s390/kvm/kvm-s390.c 	struct kvm_s390_vm_tod_clock gtod;
gtod             1091 arch/s390/kvm/kvm-s390.c 	if (copy_from_user(&gtod, (void __user *)attr->addr, sizeof(gtod)))
gtod             1094 arch/s390/kvm/kvm-s390.c 	if (!test_kvm_facility(kvm, 139) && gtod.epoch_idx)
gtod             1096 arch/s390/kvm/kvm-s390.c 	kvm_s390_set_tod_clock(kvm, &gtod);
gtod             1099 arch/s390/kvm/kvm-s390.c 		gtod.epoch_idx, gtod.tod);
gtod             1121 arch/s390/kvm/kvm-s390.c 	struct kvm_s390_vm_tod_clock gtod = { 0 };
gtod             1123 arch/s390/kvm/kvm-s390.c 	if (copy_from_user(&gtod.tod, (void __user *)attr->addr,
gtod             1124 arch/s390/kvm/kvm-s390.c 			   sizeof(gtod.tod)))
gtod             1127 arch/s390/kvm/kvm-s390.c 	kvm_s390_set_tod_clock(kvm, &gtod);
gtod             1128 arch/s390/kvm/kvm-s390.c 	VM_EVENT(kvm, 3, "SET: TOD base: 0x%llx", gtod.tod);
gtod             1157 arch/s390/kvm/kvm-s390.c 				   struct kvm_s390_vm_tod_clock *gtod)
gtod             1165 arch/s390/kvm/kvm-s390.c 	gtod->tod = htod.tod + kvm->arch.epoch;
gtod             1166 arch/s390/kvm/kvm-s390.c 	gtod->epoch_idx = 0;
gtod             1168 arch/s390/kvm/kvm-s390.c 		gtod->epoch_idx = htod.epoch_idx + kvm->arch.epdx;
gtod             1169 arch/s390/kvm/kvm-s390.c 		if (gtod->tod < htod.tod)
gtod             1170 arch/s390/kvm/kvm-s390.c 			gtod->epoch_idx += 1;
gtod             1178 arch/s390/kvm/kvm-s390.c 	struct kvm_s390_vm_tod_clock gtod;
gtod             1180 arch/s390/kvm/kvm-s390.c 	memset(&gtod, 0, sizeof(gtod));
gtod             1181 arch/s390/kvm/kvm-s390.c 	kvm_s390_get_tod_clock(kvm, &gtod);
gtod             1182 arch/s390/kvm/kvm-s390.c 	if (copy_to_user((void __user *)attr->addr, &gtod, sizeof(gtod)))
gtod             1186 arch/s390/kvm/kvm-s390.c 		gtod.epoch_idx, gtod.tod);
gtod             1204 arch/s390/kvm/kvm-s390.c 	u64 gtod;
gtod             1206 arch/s390/kvm/kvm-s390.c 	gtod = kvm_s390_get_tod_clock_fast(kvm);
gtod             1207 arch/s390/kvm/kvm-s390.c 	if (copy_to_user((void __user *)attr->addr, &gtod, sizeof(gtod)))
gtod             1209 arch/s390/kvm/kvm-s390.c 	VM_EVENT(kvm, 3, "QUERY: TOD base: 0x%llx", gtod);
gtod             3573 arch/s390/kvm/kvm-s390.c 			    const struct kvm_s390_vm_tod_clock *gtod)
gtod             3584 arch/s390/kvm/kvm-s390.c 	kvm->arch.epoch = gtod->tod - htod.tod;
gtod             3587 arch/s390/kvm/kvm-s390.c 		kvm->arch.epdx = gtod->epoch_idx - htod.epoch_idx;
gtod             3588 arch/s390/kvm/kvm-s390.c 		if (kvm->arch.epoch > gtod->tod)
gtod              285 arch/s390/kvm/kvm-s390.h 			    const struct kvm_s390_vm_tod_clock *gtod);
gtod               88 arch/s390/kvm/priv.c 	struct kvm_s390_vm_tod_clock gtod = { 0 };
gtod              101 arch/s390/kvm/priv.c 	rc = read_guest(vcpu, op2, ar, &gtod.tod, sizeof(gtod.tod));
gtod              105 arch/s390/kvm/priv.c 	VCPU_EVENT(vcpu, 3, "SCK: setting guest TOD to 0x%llx", gtod.tod);
gtod              106 arch/s390/kvm/priv.c 	kvm_s390_set_tod_clock(vcpu->kvm, &gtod);
gtod             1848 arch/x86/kvm/x86.c 	struct pvclock_gtod_data *gtod = &pvclock_gtod_data;
gtod             1862 arch/x86/kvm/x86.c 	    (gtod_is_based_on_tsc(gtod->clock.vclock_mode) && vcpus_matched))
gtod             1867 arch/x86/kvm/x86.c 		            ka->use_master_clock, gtod->clock.vclock_mode);
gtod             2084 arch/x86/kvm/x86.c 	struct pvclock_gtod_data *gtod = &pvclock_gtod_data;
gtod             2087 arch/x86/kvm/x86.c 	switch (gtod->clock.vclock_mode) {
gtod             2094 arch/x86/kvm/x86.c 			v = (tsc_pg_val - gtod->clock.cycle_last) &
gtod             2095 arch/x86/kvm/x86.c 				gtod->clock.mask;
gtod             2104 arch/x86/kvm/x86.c 		v = (*tsc_timestamp - gtod->clock.cycle_last) &
gtod             2105 arch/x86/kvm/x86.c 			gtod->clock.mask;
gtod             2114 arch/x86/kvm/x86.c 	return v * gtod->clock.mult;
gtod             2119 arch/x86/kvm/x86.c 	struct pvclock_gtod_data *gtod = &pvclock_gtod_data;
gtod             2125 arch/x86/kvm/x86.c 		seq = read_seqcount_begin(&gtod->seq);
gtod             2126 arch/x86/kvm/x86.c 		ns = gtod->nsec_base;
gtod             2128 arch/x86/kvm/x86.c 		ns >>= gtod->clock.shift;
gtod             2129 arch/x86/kvm/x86.c 		ns += gtod->boot_ns;
gtod             2130 arch/x86/kvm/x86.c 	} while (unlikely(read_seqcount_retry(&gtod->seq, seq)));
gtod             2138 arch/x86/kvm/x86.c 	struct pvclock_gtod_data *gtod = &pvclock_gtod_data;
gtod             2144 arch/x86/kvm/x86.c 		seq = read_seqcount_begin(&gtod->seq);
gtod             2145 arch/x86/kvm/x86.c 		ts->tv_sec = gtod->wall_time_sec;
gtod             2146 arch/x86/kvm/x86.c 		ns = gtod->nsec_base;
gtod             2148 arch/x86/kvm/x86.c 		ns >>= gtod->clock.shift;
gtod             2149 arch/x86/kvm/x86.c 	} while (unlikely(read_seqcount_retry(&gtod->seq, seq)));
gtod             7221 arch/x86/kvm/x86.c 	struct pvclock_gtod_data *gtod = &pvclock_gtod_data;
gtod             7229 arch/x86/kvm/x86.c 	if (!gtod_is_based_on_tsc(gtod->clock.vclock_mode) &&
gtod              267 kernel/sched/clock.c 	u64 now, clock, old_clock, min_clock, max_clock, gtod;
gtod              284 kernel/sched/clock.c 	gtod = scd->tick_gtod + __gtod_offset;
gtod              285 kernel/sched/clock.c 	clock = gtod + delta;
gtod              286 kernel/sched/clock.c 	min_clock = wrap_max(gtod, old_clock);
gtod              287 kernel/sched/clock.c 	max_clock = wrap_max(old_clock, gtod + TICK_NSEC);
gtod               91 tools/testing/selftests/vDSO/vdso_standalone_test_x86.c 	gtod_t gtod = (gtod_t)vdso_sym("LINUX_2.6", "__vdso_gettimeofday");
gtod               93 tools/testing/selftests/vDSO/vdso_standalone_test_x86.c 	if (!gtod)
gtod               97 tools/testing/selftests/vDSO/vdso_standalone_test_x86.c 	long ret = gtod(&tv, 0);
gtod               49 tools/testing/selftests/vDSO/vdso_test.c 	gtod_t gtod = (gtod_t)vdso_sym(version, name);
gtod               51 tools/testing/selftests/vDSO/vdso_test.c 	if (!gtod) {
gtod               57 tools/testing/selftests/vDSO/vdso_test.c 	long ret = gtod(&tv, 0);