ftrace_list_end 447 kernel/trace/fgraph.c op != &ftrace_list_end) { ftrace_list_end 83 kernel/trace/ftrace.c struct ftrace_ops ftrace_list_end __read_mostly = { ftrace_list_end 86 kernel/trace/ftrace.c INIT_OPS_HASH(ftrace_list_end) ftrace_list_end 94 kernel/trace/ftrace.c struct ftrace_ops *function_trace_op __read_mostly = &ftrace_list_end; ftrace_list_end 120 kernel/trace/ftrace.c struct ftrace_ops __rcu *ftrace_ops_list __read_mostly = &ftrace_list_end; ftrace_list_end 198 kernel/trace/ftrace.c if (set_function_trace_op == &ftrace_list_end) { ftrace_list_end 207 kernel/trace/ftrace.c lockdep_is_held(&ftrace_lock)) == &ftrace_list_end) { ftrace_list_end 212 kernel/trace/ftrace.c set_function_trace_op = &ftrace_list_end; ftrace_list_end 290 kernel/trace/ftrace.c lockdep_is_held(&ftrace_lock)) == &ftrace_list_end) { ftrace_list_end 291 kernel/trace/ftrace.c *list = &ftrace_list_end; ftrace_list_end 295 kernel/trace/ftrace.c for (p = list; *p != &ftrace_list_end; p = &(*p)->next) ftrace_list_end 1613 kernel/trace/ftrace.c ops != &ftrace_list_end; ops = ops->next) { ftrace_list_end 2777 kernel/trace/ftrace.c lockdep_is_held(&ftrace_lock)) == &ftrace_list_end) { ftrace_list_end 5701 kernel/trace/ftrace.c for (ops = ftrace_ops_list; ops != &ftrace_list_end; ops = ops->next) { ftrace_list_end 6143 kernel/trace/ftrace.c if (mod && ftrace_ops_list != &ftrace_list_end) ftrace_list_end 6788 kernel/trace/ftrace.c lockdep_is_held(&ftrace_lock)) != &ftrace_list_end) ftrace_list_end 25 kernel/trace/ftrace_internal.h unlikely((op) != &ftrace_list_end)) ftrace_list_end 28 kernel/trace/ftrace_internal.h extern struct ftrace_ops ftrace_list_end;