net_cb 955 net/core/net_namespace.c struct rtnl_net_dump_cb *net_cb = (struct rtnl_net_dump_cb *)data; net_cb 958 net/core/net_namespace.c if (net_cb->idx < net_cb->s_idx) net_cb 961 net/core/net_namespace.c net_cb->fillargs.nsid = id; net_cb 962 net/core/net_namespace.c if (net_cb->fillargs.add_ref) net_cb 963 net/core/net_namespace.c net_cb->fillargs.ref_nsid = __peernet2id(net_cb->ref_net, peer); net_cb 964 net/core/net_namespace.c ret = rtnl_net_fill(net_cb->skb, &net_cb->fillargs); net_cb 969 net/core/net_namespace.c net_cb->idx++; net_cb 974 net/core/net_namespace.c struct rtnl_net_dump_cb *net_cb, net_cb 1001 net/core/net_namespace.c net_cb->fillargs.add_ref = true; net_cb 1002 net/core/net_namespace.c net_cb->ref_net = net_cb->tgt_net; net_cb 1003 net/core/net_namespace.c net_cb->tgt_net = net; net_cb 1017 net/core/net_namespace.c struct rtnl_net_dump_cb net_cb = { net_cb 1032 net/core/net_namespace.c err = rtnl_valid_dump_net_req(cb->nlh, skb->sk, &net_cb, cb); net_cb 1037 net/core/net_namespace.c spin_lock_bh(&net_cb.tgt_net->nsid_lock); net_cb 1038 net/core/net_namespace.c if (net_cb.fillargs.add_ref && net_cb 1039 net/core/net_namespace.c !net_eq(net_cb.ref_net, net_cb.tgt_net) && net_cb 1040 net/core/net_namespace.c !spin_trylock_bh(&net_cb.ref_net->nsid_lock)) { net_cb 1041 net/core/net_namespace.c spin_unlock_bh(&net_cb.tgt_net->nsid_lock); net_cb 1045 net/core/net_namespace.c idr_for_each(&net_cb.tgt_net->netns_ids, rtnl_net_dumpid_one, &net_cb); net_cb 1046 net/core/net_namespace.c if (net_cb.fillargs.add_ref && net_cb 1047 net/core/net_namespace.c !net_eq(net_cb.ref_net, net_cb.tgt_net)) net_cb 1048 net/core/net_namespace.c spin_unlock_bh(&net_cb.ref_net->nsid_lock); net_cb 1049 net/core/net_namespace.c spin_unlock_bh(&net_cb.tgt_net->nsid_lock); net_cb 1051 net/core/net_namespace.c cb->args[0] = net_cb.idx; net_cb 1053 net/core/net_namespace.c if (net_cb.fillargs.add_ref) net_cb 1054 net/core/net_namespace.c put_net(net_cb.tgt_net);