ftrace_list_end   447 kernel/trace/fgraph.c 		    op != &ftrace_list_end) {
ftrace_list_end    83 kernel/trace/ftrace.c struct ftrace_ops ftrace_list_end __read_mostly = {
ftrace_list_end    86 kernel/trace/ftrace.c 	INIT_OPS_HASH(ftrace_list_end)
ftrace_list_end    94 kernel/trace/ftrace.c struct ftrace_ops *function_trace_op __read_mostly = &ftrace_list_end;
ftrace_list_end   120 kernel/trace/ftrace.c struct ftrace_ops __rcu *ftrace_ops_list __read_mostly = &ftrace_list_end;
ftrace_list_end   198 kernel/trace/ftrace.c 	if (set_function_trace_op == &ftrace_list_end) {
ftrace_list_end   207 kernel/trace/ftrace.c 			lockdep_is_held(&ftrace_lock)) == &ftrace_list_end) {
ftrace_list_end   212 kernel/trace/ftrace.c 		set_function_trace_op = &ftrace_list_end;
ftrace_list_end   290 kernel/trace/ftrace.c 			lockdep_is_held(&ftrace_lock)) == &ftrace_list_end) {
ftrace_list_end   291 kernel/trace/ftrace.c 		*list = &ftrace_list_end;
ftrace_list_end   295 kernel/trace/ftrace.c 	for (p = list; *p != &ftrace_list_end; p = &(*p)->next)
ftrace_list_end  1613 kernel/trace/ftrace.c 	     ops != &ftrace_list_end; ops = ops->next) {
ftrace_list_end  2777 kernel/trace/ftrace.c 			lockdep_is_held(&ftrace_lock)) == &ftrace_list_end) {
ftrace_list_end  5701 kernel/trace/ftrace.c 	for (ops = ftrace_ops_list; ops != &ftrace_list_end; ops = ops->next) {
ftrace_list_end  6143 kernel/trace/ftrace.c 	if (mod && ftrace_ops_list != &ftrace_list_end)
ftrace_list_end  6788 kernel/trace/ftrace.c 			lockdep_is_held(&ftrace_lock)) != &ftrace_list_end)
ftrace_list_end    25 kernel/trace/ftrace_internal.h 	       unlikely((op) != &ftrace_list_end))
ftrace_list_end    28 kernel/trace/ftrace_internal.h extern struct ftrace_ops ftrace_list_end;