12529f56eSJonathan T. Looney /*- 22529f56eSJonathan T. Looney * SPDX-License-Identifier: BSD-2-Clause-FreeBSD 32529f56eSJonathan T. Looney * 452467047SWarner Losh * Copyright (c) 2016-2018 Netflix, Inc. 52529f56eSJonathan T. Looney * 62529f56eSJonathan T. Looney * Redistribution and use in source and binary forms, with or without 72529f56eSJonathan T. Looney * modification, are permitted provided that the following conditions 82529f56eSJonathan T. Looney * are met: 92529f56eSJonathan T. Looney * 1. Redistributions of source code must retain the above copyright 102529f56eSJonathan T. Looney * notice, this list of conditions and the following disclaimer. 112529f56eSJonathan T. Looney * 2. Redistributions in binary form must reproduce the above copyright 122529f56eSJonathan T. Looney * notice, this list of conditions and the following disclaimer in the 132529f56eSJonathan T. Looney * documentation and/or other materials provided with the distribution. 142529f56eSJonathan T. Looney * 152529f56eSJonathan T. Looney * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND 162529f56eSJonathan T. Looney * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE 172529f56eSJonathan T. Looney * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE 182529f56eSJonathan T. Looney * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE 192529f56eSJonathan T. Looney * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL 202529f56eSJonathan T. Looney * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS 212529f56eSJonathan T. Looney * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) 222529f56eSJonathan T. Looney * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT 232529f56eSJonathan T. Looney * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY 242529f56eSJonathan T. Looney * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF 252529f56eSJonathan T. Looney * SUCH DAMAGE. 262529f56eSJonathan T. Looney * 272529f56eSJonathan T. Looney */ 282529f56eSJonathan T. Looney 292529f56eSJonathan T. Looney #include <sys/cdefs.h> 302529f56eSJonathan T. Looney __FBSDID("$FreeBSD$"); 312529f56eSJonathan T. Looney 32*69c7c811SRandall Stewart #include "opt_inet.h" 332529f56eSJonathan T. Looney #include <sys/param.h> 34adc56f5aSEdward Tomasz Napierala #include <sys/arb.h> 35*69c7c811SRandall Stewart #include <sys/hash.h> 362529f56eSJonathan T. Looney #include <sys/kernel.h> 372529f56eSJonathan T. Looney #include <sys/lock.h> 382529f56eSJonathan T. Looney #include <sys/malloc.h> 392529f56eSJonathan T. Looney #include <sys/mutex.h> 40adc56f5aSEdward Tomasz Napierala #include <sys/qmath.h> 412529f56eSJonathan T. Looney #include <sys/queue.h> 422529f56eSJonathan T. Looney #include <sys/refcount.h> 432529f56eSJonathan T. Looney #include <sys/rwlock.h> 442529f56eSJonathan T. Looney #include <sys/socket.h> 452529f56eSJonathan T. Looney #include <sys/socketvar.h> 462529f56eSJonathan T. Looney #include <sys/sysctl.h> 472529f56eSJonathan T. Looney #include <sys/tree.h> 48a9a08eceSRandall Stewart #include <sys/stats.h> /* Must come after qmath.h and tree.h */ 492529f56eSJonathan T. Looney #include <sys/counter.h> 502529f56eSJonathan T. Looney #include <dev/tcp_log/tcp_log_dev.h> 512529f56eSJonathan T. Looney 522529f56eSJonathan T. Looney #include <net/if.h> 532529f56eSJonathan T. Looney #include <net/if_var.h> 542529f56eSJonathan T. Looney #include <net/vnet.h> 552529f56eSJonathan T. Looney 562529f56eSJonathan T. Looney #include <netinet/in.h> 572529f56eSJonathan T. Looney #include <netinet/in_pcb.h> 582529f56eSJonathan T. Looney #include <netinet/in_var.h> 592529f56eSJonathan T. Looney #include <netinet/tcp_var.h> 602529f56eSJonathan T. Looney #include <netinet/tcp_log_buf.h> 61*69c7c811SRandall Stewart #include <netinet/tcp_hpts.h> 622529f56eSJonathan T. Looney 632529f56eSJonathan T. Looney /* Default expiry time */ 642529f56eSJonathan T. Looney #define TCP_LOG_EXPIRE_TIME ((sbintime_t)60 * SBT_1S) 652529f56eSJonathan T. Looney 662529f56eSJonathan T. Looney /* Max interval at which to run the expiry timer */ 672529f56eSJonathan T. Looney #define TCP_LOG_EXPIRE_INTVL ((sbintime_t)5 * SBT_1S) 682529f56eSJonathan T. Looney 692529f56eSJonathan T. Looney bool tcp_log_verbose; 708c47d8f5SAlan Somers static uma_zone_t tcp_log_id_bucket_zone, tcp_log_id_node_zone, tcp_log_zone; 712529f56eSJonathan T. Looney static int tcp_log_session_limit = TCP_LOG_BUF_DEFAULT_SESSION_LIMIT; 722529f56eSJonathan T. Looney static uint32_t tcp_log_version = TCP_LOG_BUF_VER; 732529f56eSJonathan T. Looney RB_HEAD(tcp_log_id_tree, tcp_log_id_bucket); 742529f56eSJonathan T. Looney static struct tcp_log_id_tree tcp_log_id_head; 752529f56eSJonathan T. Looney static STAILQ_HEAD(, tcp_log_id_node) tcp_log_expireq_head = 762529f56eSJonathan T. Looney STAILQ_HEAD_INITIALIZER(tcp_log_expireq_head); 772529f56eSJonathan T. Looney static struct mtx tcp_log_expireq_mtx; 782529f56eSJonathan T. Looney static struct callout tcp_log_expireq_callout; 799959c8b9SJonathan T. Looney static u_long tcp_log_auto_ratio = 0; 809959c8b9SJonathan T. Looney static volatile u_long tcp_log_auto_ratio_cur = 0; 812529f56eSJonathan T. Looney static uint32_t tcp_log_auto_mode = TCP_LOG_STATE_TAIL; 822529f56eSJonathan T. Looney static bool tcp_log_auto_all = false; 83a9a08eceSRandall Stewart static uint32_t tcp_disable_all_bb_logs = 0; 842529f56eSJonathan T. Looney 852529f56eSJonathan T. Looney RB_PROTOTYPE_STATIC(tcp_log_id_tree, tcp_log_id_bucket, tlb_rb, tcp_log_id_cmp) 862529f56eSJonathan T. Looney 877029da5cSPawel Biernacki SYSCTL_NODE(_net_inet_tcp, OID_AUTO, bb, CTLFLAG_RW | CTLFLAG_MPSAFE, 0, 887029da5cSPawel Biernacki "TCP Black Box controls"); 892529f56eSJonathan T. Looney 90*69c7c811SRandall Stewart SYSCTL_NODE(_net_inet_tcp_bb, OID_AUTO, tp, CTLFLAG_RW | CTLFLAG_MPSAFE, 0, 91*69c7c811SRandall Stewart "TCP Black Box Trace Point controls"); 92*69c7c811SRandall Stewart 932529f56eSJonathan T. Looney SYSCTL_BOOL(_net_inet_tcp_bb, OID_AUTO, log_verbose, CTLFLAG_RW, &tcp_log_verbose, 942529f56eSJonathan T. Looney 0, "Force verbose logging for TCP traces"); 952529f56eSJonathan T. Looney 962529f56eSJonathan T. Looney SYSCTL_INT(_net_inet_tcp_bb, OID_AUTO, log_session_limit, 972529f56eSJonathan T. Looney CTLFLAG_RW, &tcp_log_session_limit, 0, 982529f56eSJonathan T. Looney "Maximum number of events maintained for each TCP session"); 992529f56eSJonathan T. Looney 100*69c7c811SRandall Stewart uint32_t tcp_trace_point_config = 0; 101*69c7c811SRandall Stewart SYSCTL_U32(_net_inet_tcp_bb_tp, OID_AUTO, number, CTLFLAG_RW, 102*69c7c811SRandall Stewart &tcp_trace_point_config, TCP_LOG_STATE_HEAD_AUTO, 103*69c7c811SRandall Stewart "What is the trace point number to activate (0=none, 0xffffffff = all)?"); 104*69c7c811SRandall Stewart 105*69c7c811SRandall Stewart uint32_t tcp_trace_point_bb_mode = TCP_LOG_STATE_CONTINUAL; 106*69c7c811SRandall Stewart SYSCTL_U32(_net_inet_tcp_bb_tp, OID_AUTO, bbmode, CTLFLAG_RW, 107*69c7c811SRandall Stewart &tcp_trace_point_bb_mode, TCP_LOG_STATE_HEAD_AUTO, 108*69c7c811SRandall Stewart "What is BB logging mode that is activated?"); 109*69c7c811SRandall Stewart 110*69c7c811SRandall Stewart int32_t tcp_trace_point_count = 0; 111*69c7c811SRandall Stewart SYSCTL_U32(_net_inet_tcp_bb_tp, OID_AUTO, count, CTLFLAG_RW, 112*69c7c811SRandall Stewart &tcp_trace_point_count, TCP_LOG_STATE_HEAD_AUTO, 113*69c7c811SRandall Stewart "How many connections will have BB logging turned on that hit the tracepoint?"); 114*69c7c811SRandall Stewart 115*69c7c811SRandall Stewart 116*69c7c811SRandall Stewart 1172529f56eSJonathan T. Looney SYSCTL_UMA_MAX(_net_inet_tcp_bb, OID_AUTO, log_global_limit, CTLFLAG_RW, 1182529f56eSJonathan T. Looney &tcp_log_zone, "Maximum number of events maintained for all TCP sessions"); 1192529f56eSJonathan T. Looney 1202529f56eSJonathan T. Looney SYSCTL_UMA_CUR(_net_inet_tcp_bb, OID_AUTO, log_global_entries, CTLFLAG_RD, 1212529f56eSJonathan T. Looney &tcp_log_zone, "Current number of events maintained for all TCP sessions"); 1222529f56eSJonathan T. Looney 1232529f56eSJonathan T. Looney SYSCTL_UMA_MAX(_net_inet_tcp_bb, OID_AUTO, log_id_limit, CTLFLAG_RW, 1248c47d8f5SAlan Somers &tcp_log_id_bucket_zone, "Maximum number of log IDs"); 1252529f56eSJonathan T. Looney 1262529f56eSJonathan T. Looney SYSCTL_UMA_CUR(_net_inet_tcp_bb, OID_AUTO, log_id_entries, CTLFLAG_RD, 1278c47d8f5SAlan Somers &tcp_log_id_bucket_zone, "Current number of log IDs"); 1282529f56eSJonathan T. Looney 1292529f56eSJonathan T. Looney SYSCTL_UMA_MAX(_net_inet_tcp_bb, OID_AUTO, log_id_tcpcb_limit, CTLFLAG_RW, 1308c47d8f5SAlan Somers &tcp_log_id_node_zone, "Maximum number of tcpcbs with log IDs"); 1312529f56eSJonathan T. Looney 1322529f56eSJonathan T. Looney SYSCTL_UMA_CUR(_net_inet_tcp_bb, OID_AUTO, log_id_tcpcb_entries, CTLFLAG_RD, 1338c47d8f5SAlan Somers &tcp_log_id_node_zone, "Current number of tcpcbs with log IDs"); 1342529f56eSJonathan T. Looney 1352529f56eSJonathan T. Looney SYSCTL_U32(_net_inet_tcp_bb, OID_AUTO, log_version, CTLFLAG_RD, &tcp_log_version, 1362529f56eSJonathan T. Looney 0, "Version of log formats exported"); 1372529f56eSJonathan T. Looney 138a9a08eceSRandall Stewart SYSCTL_U32(_net_inet_tcp_bb, OID_AUTO, disable_all, CTLFLAG_RW, 13957cc27a3SCheng Cui &tcp_disable_all_bb_logs, 0, 140a9a08eceSRandall Stewart "Disable all BB logging for all connections"); 141a9a08eceSRandall Stewart 1429959c8b9SJonathan T. Looney SYSCTL_ULONG(_net_inet_tcp_bb, OID_AUTO, log_auto_ratio, CTLFLAG_RW, 1432529f56eSJonathan T. Looney &tcp_log_auto_ratio, 0, "Do auto capturing for 1 out of N sessions"); 1442529f56eSJonathan T. Looney 1452529f56eSJonathan T. Looney SYSCTL_U32(_net_inet_tcp_bb, OID_AUTO, log_auto_mode, CTLFLAG_RW, 14657cc27a3SCheng Cui &tcp_log_auto_mode, 0, 14757cc27a3SCheng Cui "Logging mode for auto-selected sessions (default is TCP_LOG_STATE_TAIL)"); 1482529f56eSJonathan T. Looney 1492529f56eSJonathan T. Looney SYSCTL_BOOL(_net_inet_tcp_bb, OID_AUTO, log_auto_all, CTLFLAG_RW, 15057cc27a3SCheng Cui &tcp_log_auto_all, 0, 1512529f56eSJonathan T. Looney "Auto-select from all sessions (rather than just those with IDs)"); 1522529f56eSJonathan T. Looney 1532529f56eSJonathan T. Looney #ifdef TCPLOG_DEBUG_COUNTERS 1542529f56eSJonathan T. Looney counter_u64_t tcp_log_queued; 1552529f56eSJonathan T. Looney counter_u64_t tcp_log_que_fail1; 1562529f56eSJonathan T. Looney counter_u64_t tcp_log_que_fail2; 1572529f56eSJonathan T. Looney counter_u64_t tcp_log_que_fail3; 1582529f56eSJonathan T. Looney counter_u64_t tcp_log_que_fail4; 1592529f56eSJonathan T. Looney counter_u64_t tcp_log_que_fail5; 1602529f56eSJonathan T. Looney counter_u64_t tcp_log_que_copyout; 1612529f56eSJonathan T. Looney counter_u64_t tcp_log_que_read; 1622529f56eSJonathan T. Looney counter_u64_t tcp_log_que_freed; 1632529f56eSJonathan T. Looney 1642529f56eSJonathan T. Looney SYSCTL_COUNTER_U64(_net_inet_tcp_bb, OID_AUTO, queued, CTLFLAG_RD, 1652529f56eSJonathan T. Looney &tcp_log_queued, "Number of entries queued"); 1662529f56eSJonathan T. Looney SYSCTL_COUNTER_U64(_net_inet_tcp_bb, OID_AUTO, fail1, CTLFLAG_RD, 1672529f56eSJonathan T. Looney &tcp_log_que_fail1, "Number of entries queued but fail 1"); 1682529f56eSJonathan T. Looney SYSCTL_COUNTER_U64(_net_inet_tcp_bb, OID_AUTO, fail2, CTLFLAG_RD, 1692529f56eSJonathan T. Looney &tcp_log_que_fail2, "Number of entries queued but fail 2"); 1702529f56eSJonathan T. Looney SYSCTL_COUNTER_U64(_net_inet_tcp_bb, OID_AUTO, fail3, CTLFLAG_RD, 1712529f56eSJonathan T. Looney &tcp_log_que_fail3, "Number of entries queued but fail 3"); 1722529f56eSJonathan T. Looney SYSCTL_COUNTER_U64(_net_inet_tcp_bb, OID_AUTO, fail4, CTLFLAG_RD, 1732529f56eSJonathan T. Looney &tcp_log_que_fail4, "Number of entries queued but fail 4"); 1742529f56eSJonathan T. Looney SYSCTL_COUNTER_U64(_net_inet_tcp_bb, OID_AUTO, fail5, CTLFLAG_RD, 1752529f56eSJonathan T. Looney &tcp_log_que_fail5, "Number of entries queued but fail 4"); 1762529f56eSJonathan T. Looney SYSCTL_COUNTER_U64(_net_inet_tcp_bb, OID_AUTO, copyout, CTLFLAG_RD, 1772529f56eSJonathan T. Looney &tcp_log_que_copyout, "Number of entries copied out"); 1782529f56eSJonathan T. Looney SYSCTL_COUNTER_U64(_net_inet_tcp_bb, OID_AUTO, read, CTLFLAG_RD, 1792529f56eSJonathan T. Looney &tcp_log_que_read, "Number of entries read from the queue"); 1802529f56eSJonathan T. Looney SYSCTL_COUNTER_U64(_net_inet_tcp_bb, OID_AUTO, freed, CTLFLAG_RD, 1812529f56eSJonathan T. Looney &tcp_log_que_freed, "Number of entries freed after reading"); 1822529f56eSJonathan T. Looney #endif 1832529f56eSJonathan T. Looney 1842529f56eSJonathan T. Looney #ifdef INVARIANTS 1852529f56eSJonathan T. Looney #define TCPLOG_DEBUG_RINGBUF 1862529f56eSJonathan T. Looney #endif 187a9a08eceSRandall Stewart /* Number of requests to consider a PBCID "active". */ 188a9a08eceSRandall Stewart #define ACTIVE_REQUEST_COUNT 10 189a9a08eceSRandall Stewart 190a9a08eceSRandall Stewart /* Statistic tracking for "active" PBCIDs. */ 191a9a08eceSRandall Stewart static counter_u64_t tcp_log_pcb_ids_cur; 192a9a08eceSRandall Stewart static counter_u64_t tcp_log_pcb_ids_tot; 193a9a08eceSRandall Stewart 194a9a08eceSRandall Stewart SYSCTL_COUNTER_U64(_net_inet_tcp_bb, OID_AUTO, pcb_ids_cur, CTLFLAG_RD, 195a9a08eceSRandall Stewart &tcp_log_pcb_ids_cur, "Number of pcb IDs allocated in the system"); 196a9a08eceSRandall Stewart SYSCTL_COUNTER_U64(_net_inet_tcp_bb, OID_AUTO, pcb_ids_tot, CTLFLAG_RD, 197a9a08eceSRandall Stewart &tcp_log_pcb_ids_tot, "Total number of pcb IDs that have been allocated"); 1982529f56eSJonathan T. Looney 1992529f56eSJonathan T. Looney struct tcp_log_mem 2002529f56eSJonathan T. Looney { 2012529f56eSJonathan T. Looney STAILQ_ENTRY(tcp_log_mem) tlm_queue; 2022529f56eSJonathan T. Looney struct tcp_log_buffer tlm_buf; 2032529f56eSJonathan T. Looney struct tcp_log_verbose tlm_v; 2042529f56eSJonathan T. Looney #ifdef TCPLOG_DEBUG_RINGBUF 2052529f56eSJonathan T. Looney volatile int tlm_refcnt; 2062529f56eSJonathan T. Looney #endif 2072529f56eSJonathan T. Looney }; 2082529f56eSJonathan T. Looney 2092529f56eSJonathan T. Looney /* 60 bytes for the header, + 16 bytes for padding */ 2102529f56eSJonathan T. Looney static uint8_t zerobuf[76]; 2112529f56eSJonathan T. Looney 2122529f56eSJonathan T. Looney /* 2132529f56eSJonathan T. Looney * Lock order: 2142529f56eSJonathan T. Looney * 1. TCPID_TREE 2152529f56eSJonathan T. Looney * 2. TCPID_BUCKET 2162529f56eSJonathan T. Looney * 3. INP 2172529f56eSJonathan T. Looney * 2182529f56eSJonathan T. Looney * Rules: 2192529f56eSJonathan T. Looney * A. You need a lock on the Tree to add/remove buckets. 2202529f56eSJonathan T. Looney * B. You need a lock on the bucket to add/remove nodes from the bucket. 2212529f56eSJonathan T. Looney * C. To change information in a node, you need the INP lock if the tln_closed 2222529f56eSJonathan T. Looney * field is false. Otherwise, you need the bucket lock. (Note that the 2232529f56eSJonathan T. Looney * tln_closed field can change at any point, so you need to recheck the 2242529f56eSJonathan T. Looney * entry after acquiring the INP lock.) 2252529f56eSJonathan T. Looney * D. To remove a node from the bucket, you must have that entry locked, 2262529f56eSJonathan T. Looney * according to the criteria of Rule C. Also, the node must not be on 2272529f56eSJonathan T. Looney * the expiry queue. 2282529f56eSJonathan T. Looney * E. The exception to C is the expiry queue fields, which are locked by 2292529f56eSJonathan T. Looney * the TCPLOG_EXPIREQ lock. 2302529f56eSJonathan T. Looney * 2312529f56eSJonathan T. Looney * Buckets have a reference count. Each node is a reference. Further, 2322529f56eSJonathan T. Looney * other callers may add reference counts to keep a bucket from disappearing. 2332529f56eSJonathan T. Looney * You can add a reference as long as you own a lock sufficient to keep the 2342529f56eSJonathan T. Looney * bucket from disappearing. For example, a common use is: 2352529f56eSJonathan T. Looney * a. Have a locked INP, but need to lock the TCPID_BUCKET. 2362529f56eSJonathan T. Looney * b. Add a refcount on the bucket. (Safe because the INP lock prevents 2372529f56eSJonathan T. Looney * the TCPID_BUCKET from going away.) 2382529f56eSJonathan T. Looney * c. Drop the INP lock. 2392529f56eSJonathan T. Looney * d. Acquire a lock on the TCPID_BUCKET. 2402529f56eSJonathan T. Looney * e. Acquire a lock on the INP. 2412529f56eSJonathan T. Looney * f. Drop the refcount on the bucket. 2422529f56eSJonathan T. Looney * (At this point, the bucket may disappear.) 2432529f56eSJonathan T. Looney * 2442529f56eSJonathan T. Looney * Expire queue lock: 2452529f56eSJonathan T. Looney * You can acquire this with either the bucket or INP lock. Don't reverse it. 2462529f56eSJonathan T. Looney * When the expire code has committed to freeing a node, it resets the expiry 2472529f56eSJonathan T. Looney * time to SBT_MAX. That is the signal to everyone else that they should 2482529f56eSJonathan T. Looney * leave that node alone. 2492529f56eSJonathan T. Looney */ 2502529f56eSJonathan T. Looney static struct rwlock tcp_id_tree_lock; 2512529f56eSJonathan T. Looney #define TCPID_TREE_WLOCK() rw_wlock(&tcp_id_tree_lock) 2522529f56eSJonathan T. Looney #define TCPID_TREE_RLOCK() rw_rlock(&tcp_id_tree_lock) 2532529f56eSJonathan T. Looney #define TCPID_TREE_UPGRADE() rw_try_upgrade(&tcp_id_tree_lock) 2542529f56eSJonathan T. Looney #define TCPID_TREE_WUNLOCK() rw_wunlock(&tcp_id_tree_lock) 2552529f56eSJonathan T. Looney #define TCPID_TREE_RUNLOCK() rw_runlock(&tcp_id_tree_lock) 2562529f56eSJonathan T. Looney #define TCPID_TREE_WLOCK_ASSERT() rw_assert(&tcp_id_tree_lock, RA_WLOCKED) 2572529f56eSJonathan T. Looney #define TCPID_TREE_RLOCK_ASSERT() rw_assert(&tcp_id_tree_lock, RA_RLOCKED) 2582529f56eSJonathan T. Looney #define TCPID_TREE_UNLOCK_ASSERT() rw_assert(&tcp_id_tree_lock, RA_UNLOCKED) 2592529f56eSJonathan T. Looney 2602529f56eSJonathan T. Looney #define TCPID_BUCKET_LOCK_INIT(tlb) mtx_init(&((tlb)->tlb_mtx), "tcp log id bucket", NULL, MTX_DEF) 2612529f56eSJonathan T. Looney #define TCPID_BUCKET_LOCK_DESTROY(tlb) mtx_destroy(&((tlb)->tlb_mtx)) 2622529f56eSJonathan T. Looney #define TCPID_BUCKET_LOCK(tlb) mtx_lock(&((tlb)->tlb_mtx)) 2632529f56eSJonathan T. Looney #define TCPID_BUCKET_UNLOCK(tlb) mtx_unlock(&((tlb)->tlb_mtx)) 2642529f56eSJonathan T. Looney #define TCPID_BUCKET_LOCK_ASSERT(tlb) mtx_assert(&((tlb)->tlb_mtx), MA_OWNED) 2652529f56eSJonathan T. Looney #define TCPID_BUCKET_UNLOCK_ASSERT(tlb) mtx_assert(&((tlb)->tlb_mtx), MA_NOTOWNED) 2662529f56eSJonathan T. Looney 2672529f56eSJonathan T. Looney #define TCPID_BUCKET_REF(tlb) refcount_acquire(&((tlb)->tlb_refcnt)) 2682529f56eSJonathan T. Looney #define TCPID_BUCKET_UNREF(tlb) refcount_release(&((tlb)->tlb_refcnt)) 2692529f56eSJonathan T. Looney 2702529f56eSJonathan T. Looney #define TCPLOG_EXPIREQ_LOCK() mtx_lock(&tcp_log_expireq_mtx) 2712529f56eSJonathan T. Looney #define TCPLOG_EXPIREQ_UNLOCK() mtx_unlock(&tcp_log_expireq_mtx) 2722529f56eSJonathan T. Looney 2732529f56eSJonathan T. Looney SLIST_HEAD(tcp_log_id_head, tcp_log_id_node); 2742529f56eSJonathan T. Looney 2752529f56eSJonathan T. Looney struct tcp_log_id_bucket 2762529f56eSJonathan T. Looney { 2772529f56eSJonathan T. Looney /* 2782529f56eSJonathan T. Looney * tlb_id must be first. This lets us use strcmp on 2792529f56eSJonathan T. Looney * (struct tcp_log_id_bucket *) and (char *) interchangeably. 2802529f56eSJonathan T. Looney */ 2812529f56eSJonathan T. Looney char tlb_id[TCP_LOG_ID_LEN]; 282a9a08eceSRandall Stewart char tlb_tag[TCP_LOG_TAG_LEN]; 2832529f56eSJonathan T. Looney RB_ENTRY(tcp_log_id_bucket) tlb_rb; 2842529f56eSJonathan T. Looney struct tcp_log_id_head tlb_head; 2852529f56eSJonathan T. Looney struct mtx tlb_mtx; 2862529f56eSJonathan T. Looney volatile u_int tlb_refcnt; 287a9a08eceSRandall Stewart volatile u_int tlb_reqcnt; 288a9a08eceSRandall Stewart uint32_t tlb_loglimit; 289*69c7c811SRandall Stewart int8_t tlb_logstate; 2902529f56eSJonathan T. Looney }; 2912529f56eSJonathan T. Looney 2922529f56eSJonathan T. Looney struct tcp_log_id_node 2932529f56eSJonathan T. Looney { 2942529f56eSJonathan T. Looney SLIST_ENTRY(tcp_log_id_node) tln_list; 2952529f56eSJonathan T. Looney STAILQ_ENTRY(tcp_log_id_node) tln_expireq; /* Locked by the expireq lock */ 2962529f56eSJonathan T. Looney sbintime_t tln_expiretime; /* Locked by the expireq lock */ 2972529f56eSJonathan T. Looney 2982529f56eSJonathan T. Looney /* 2992529f56eSJonathan T. Looney * If INP is NULL, that means the connection has closed. We've 3002529f56eSJonathan T. Looney * saved the connection endpoint information and the log entries 3012529f56eSJonathan T. Looney * in the tln_ie and tln_entries members. We've also saved a pointer 3022529f56eSJonathan T. Looney * to the enclosing bucket here. If INP is not NULL, the information is 3032529f56eSJonathan T. Looney * in the PCB and not here. 3042529f56eSJonathan T. Looney */ 3052529f56eSJonathan T. Looney struct inpcb *tln_inp; 3062529f56eSJonathan T. Looney struct tcpcb *tln_tp; 3072529f56eSJonathan T. Looney struct tcp_log_id_bucket *tln_bucket; 3082529f56eSJonathan T. Looney struct in_endpoints tln_ie; 3092529f56eSJonathan T. Looney struct tcp_log_stailq tln_entries; 3102529f56eSJonathan T. Looney int tln_count; 3112529f56eSJonathan T. Looney volatile int tln_closed; 3122529f56eSJonathan T. Looney uint8_t tln_af; 3132529f56eSJonathan T. Looney }; 3142529f56eSJonathan T. Looney 3152529f56eSJonathan T. Looney enum tree_lock_state { 3162529f56eSJonathan T. Looney TREE_UNLOCKED = 0, 3172529f56eSJonathan T. Looney TREE_RLOCKED, 3182529f56eSJonathan T. Looney TREE_WLOCKED, 3192529f56eSJonathan T. Looney }; 3202529f56eSJonathan T. Looney 3212529f56eSJonathan T. Looney /* Do we want to select this session for auto-logging? */ 3222529f56eSJonathan T. Looney static __inline bool 3232529f56eSJonathan T. Looney tcp_log_selectauto(void) 3242529f56eSJonathan T. Looney { 3252529f56eSJonathan T. Looney 3262529f56eSJonathan T. Looney /* 3272529f56eSJonathan T. Looney * If we are doing auto-capturing, figure out whether we will capture 3282529f56eSJonathan T. Looney * this session. 3292529f56eSJonathan T. Looney */ 3302529f56eSJonathan T. Looney if (tcp_log_auto_ratio && 331a9a08eceSRandall Stewart (tcp_disable_all_bb_logs == 0) && 3329959c8b9SJonathan T. Looney (atomic_fetchadd_long(&tcp_log_auto_ratio_cur, 1) % 3332529f56eSJonathan T. Looney tcp_log_auto_ratio) == 0) 3342529f56eSJonathan T. Looney return (true); 3352529f56eSJonathan T. Looney return (false); 3362529f56eSJonathan T. Looney } 3372529f56eSJonathan T. Looney 3382529f56eSJonathan T. Looney static __inline int 3392529f56eSJonathan T. Looney tcp_log_id_cmp(struct tcp_log_id_bucket *a, struct tcp_log_id_bucket *b) 3402529f56eSJonathan T. Looney { 3412529f56eSJonathan T. Looney KASSERT(a != NULL, ("tcp_log_id_cmp: argument a is unexpectedly NULL")); 3422529f56eSJonathan T. Looney KASSERT(b != NULL, ("tcp_log_id_cmp: argument b is unexpectedly NULL")); 3432529f56eSJonathan T. Looney return strncmp(a->tlb_id, b->tlb_id, TCP_LOG_ID_LEN); 3442529f56eSJonathan T. Looney } 3452529f56eSJonathan T. Looney 3462529f56eSJonathan T. Looney RB_GENERATE_STATIC(tcp_log_id_tree, tcp_log_id_bucket, tlb_rb, tcp_log_id_cmp) 3472529f56eSJonathan T. Looney 3482529f56eSJonathan T. Looney static __inline void 3492529f56eSJonathan T. Looney tcp_log_id_validate_tree_lock(int tree_locked) 3502529f56eSJonathan T. Looney { 3512529f56eSJonathan T. Looney 3522529f56eSJonathan T. Looney #ifdef INVARIANTS 3532529f56eSJonathan T. Looney switch (tree_locked) { 3542529f56eSJonathan T. Looney case TREE_WLOCKED: 3552529f56eSJonathan T. Looney TCPID_TREE_WLOCK_ASSERT(); 3562529f56eSJonathan T. Looney break; 3572529f56eSJonathan T. Looney case TREE_RLOCKED: 3582529f56eSJonathan T. Looney TCPID_TREE_RLOCK_ASSERT(); 3592529f56eSJonathan T. Looney break; 3602529f56eSJonathan T. Looney case TREE_UNLOCKED: 3612529f56eSJonathan T. Looney TCPID_TREE_UNLOCK_ASSERT(); 3622529f56eSJonathan T. Looney break; 3632529f56eSJonathan T. Looney default: 3642529f56eSJonathan T. Looney kassert_panic("%s:%d: unknown tree lock state", __func__, 3652529f56eSJonathan T. Looney __LINE__); 3662529f56eSJonathan T. Looney } 3672529f56eSJonathan T. Looney #endif 3682529f56eSJonathan T. Looney } 3692529f56eSJonathan T. Looney 3702529f56eSJonathan T. Looney static __inline void 3712529f56eSJonathan T. Looney tcp_log_remove_bucket(struct tcp_log_id_bucket *tlb) 3722529f56eSJonathan T. Looney { 3732529f56eSJonathan T. Looney 3742529f56eSJonathan T. Looney TCPID_TREE_WLOCK_ASSERT(); 3752529f56eSJonathan T. Looney KASSERT(SLIST_EMPTY(&tlb->tlb_head), 3762529f56eSJonathan T. Looney ("%s: Attempt to remove non-empty bucket", __func__)); 3772529f56eSJonathan T. Looney if (RB_REMOVE(tcp_log_id_tree, &tcp_log_id_head, tlb) == NULL) { 3782529f56eSJonathan T. Looney #ifdef INVARIANTS 3792529f56eSJonathan T. Looney kassert_panic("%s:%d: error removing element from tree", 3802529f56eSJonathan T. Looney __func__, __LINE__); 3812529f56eSJonathan T. Looney #endif 3822529f56eSJonathan T. Looney } 3832529f56eSJonathan T. Looney TCPID_BUCKET_LOCK_DESTROY(tlb); 384a9a08eceSRandall Stewart counter_u64_add(tcp_log_pcb_ids_cur, (int64_t)-1); 3858c47d8f5SAlan Somers uma_zfree(tcp_log_id_bucket_zone, tlb); 3862529f56eSJonathan T. Looney } 3872529f56eSJonathan T. Looney 3882529f56eSJonathan T. Looney /* 3892529f56eSJonathan T. Looney * Call with a referenced and locked bucket. 3902529f56eSJonathan T. Looney * Will return true if the bucket was freed; otherwise, false. 3912529f56eSJonathan T. Looney * tlb: The bucket to unreference. 3922529f56eSJonathan T. Looney * tree_locked: A pointer to the state of the tree lock. If the tree lock 3932529f56eSJonathan T. Looney * state changes, the function will update it. 3942529f56eSJonathan T. Looney * inp: If not NULL and the function needs to drop the inp lock to relock the 3952529f56eSJonathan T. Looney * tree, it will do so. (The caller must ensure inp will not become invalid, 3962529f56eSJonathan T. Looney * probably by holding a reference to it.) 3972529f56eSJonathan T. Looney */ 3982529f56eSJonathan T. Looney static bool 3992529f56eSJonathan T. Looney tcp_log_unref_bucket(struct tcp_log_id_bucket *tlb, int *tree_locked, 4002529f56eSJonathan T. Looney struct inpcb *inp) 4012529f56eSJonathan T. Looney { 4022529f56eSJonathan T. Looney 4032529f56eSJonathan T. Looney KASSERT(tlb != NULL, ("%s: called with NULL tlb", __func__)); 4042529f56eSJonathan T. Looney KASSERT(tree_locked != NULL, ("%s: called with NULL tree_locked", 4052529f56eSJonathan T. Looney __func__)); 4062529f56eSJonathan T. Looney 4072529f56eSJonathan T. Looney tcp_log_id_validate_tree_lock(*tree_locked); 4082529f56eSJonathan T. Looney 4092529f56eSJonathan T. Looney /* 4102529f56eSJonathan T. Looney * Did we hold the last reference on the tlb? If so, we may need 4112529f56eSJonathan T. Looney * to free it. (Note that we can realistically only execute the 4122529f56eSJonathan T. Looney * loop twice: once without a write lock and once with a write 4132529f56eSJonathan T. Looney * lock.) 4142529f56eSJonathan T. Looney */ 4152529f56eSJonathan T. Looney while (TCPID_BUCKET_UNREF(tlb)) { 4162529f56eSJonathan T. Looney /* 4172529f56eSJonathan T. Looney * We need a write lock on the tree to free this. 4182529f56eSJonathan T. Looney * If we can upgrade the tree lock, this is "easy". If we 4192529f56eSJonathan T. Looney * can't upgrade the tree lock, we need to do this the 4202529f56eSJonathan T. Looney * "hard" way: unwind all our locks and relock everything. 4212529f56eSJonathan T. Looney * In the meantime, anything could have changed. We even 4222529f56eSJonathan T. Looney * need to validate that we still need to free the bucket. 4232529f56eSJonathan T. Looney */ 4242529f56eSJonathan T. Looney if (*tree_locked == TREE_RLOCKED && TCPID_TREE_UPGRADE()) 4252529f56eSJonathan T. Looney *tree_locked = TREE_WLOCKED; 4262529f56eSJonathan T. Looney else if (*tree_locked != TREE_WLOCKED) { 4272529f56eSJonathan T. Looney TCPID_BUCKET_REF(tlb); 4282529f56eSJonathan T. Looney if (inp != NULL) 4292529f56eSJonathan T. Looney INP_WUNLOCK(inp); 4302529f56eSJonathan T. Looney TCPID_BUCKET_UNLOCK(tlb); 4312529f56eSJonathan T. Looney if (*tree_locked == TREE_RLOCKED) 4322529f56eSJonathan T. Looney TCPID_TREE_RUNLOCK(); 4332529f56eSJonathan T. Looney TCPID_TREE_WLOCK(); 4342529f56eSJonathan T. Looney *tree_locked = TREE_WLOCKED; 4352529f56eSJonathan T. Looney TCPID_BUCKET_LOCK(tlb); 4362529f56eSJonathan T. Looney if (inp != NULL) 4372529f56eSJonathan T. Looney INP_WLOCK(inp); 4382529f56eSJonathan T. Looney continue; 4392529f56eSJonathan T. Looney } 4402529f56eSJonathan T. Looney 4412529f56eSJonathan T. Looney /* 4422529f56eSJonathan T. Looney * We have an empty bucket and a write lock on the tree. 4432529f56eSJonathan T. Looney * Remove the empty bucket. 4442529f56eSJonathan T. Looney */ 4452529f56eSJonathan T. Looney tcp_log_remove_bucket(tlb); 4462529f56eSJonathan T. Looney return (true); 4472529f56eSJonathan T. Looney } 4482529f56eSJonathan T. Looney return (false); 4492529f56eSJonathan T. Looney } 4502529f56eSJonathan T. Looney 4512529f56eSJonathan T. Looney /* 4522529f56eSJonathan T. Looney * Call with a locked bucket. This function will release the lock on the 4532529f56eSJonathan T. Looney * bucket before returning. 4542529f56eSJonathan T. Looney * 4552529f56eSJonathan T. Looney * The caller is responsible for freeing the tp->t_lin/tln node! 4562529f56eSJonathan T. Looney * 4572529f56eSJonathan T. Looney * Note: one of tp or both tlb and tln must be supplied. 4582529f56eSJonathan T. Looney * 4592529f56eSJonathan T. Looney * inp: A pointer to the inp. If the function needs to drop the inp lock to 4602529f56eSJonathan T. Looney * acquire the tree write lock, it will do so. (The caller must ensure inp 4612529f56eSJonathan T. Looney * will not become invalid, probably by holding a reference to it.) 4622529f56eSJonathan T. Looney * tp: A pointer to the tcpcb. (optional; if specified, tlb and tln are ignored) 4632529f56eSJonathan T. Looney * tlb: A pointer to the bucket. (optional; ignored if tp is specified) 4642529f56eSJonathan T. Looney * tln: A pointer to the node. (optional; ignored if tp is specified) 4652529f56eSJonathan T. Looney * tree_locked: A pointer to the state of the tree lock. If the tree lock 4662529f56eSJonathan T. Looney * state changes, the function will update it. 4672529f56eSJonathan T. Looney * 4682529f56eSJonathan T. Looney * Will return true if the INP lock was reacquired; otherwise, false. 4692529f56eSJonathan T. Looney */ 4702529f56eSJonathan T. Looney static bool 4712529f56eSJonathan T. Looney tcp_log_remove_id_node(struct inpcb *inp, struct tcpcb *tp, 4722529f56eSJonathan T. Looney struct tcp_log_id_bucket *tlb, struct tcp_log_id_node *tln, 4732529f56eSJonathan T. Looney int *tree_locked) 4742529f56eSJonathan T. Looney { 4752529f56eSJonathan T. Looney int orig_tree_locked; 4762529f56eSJonathan T. Looney 4772529f56eSJonathan T. Looney KASSERT(tp != NULL || (tlb != NULL && tln != NULL), 4782529f56eSJonathan T. Looney ("%s: called with tp=%p, tlb=%p, tln=%p", __func__, 4792529f56eSJonathan T. Looney tp, tlb, tln)); 4802529f56eSJonathan T. Looney KASSERT(tree_locked != NULL, ("%s: called with NULL tree_locked", 4812529f56eSJonathan T. Looney __func__)); 4822529f56eSJonathan T. Looney 4832529f56eSJonathan T. Looney if (tp != NULL) { 4842529f56eSJonathan T. Looney tlb = tp->t_lib; 4852529f56eSJonathan T. Looney tln = tp->t_lin; 4862529f56eSJonathan T. Looney KASSERT(tlb != NULL, ("%s: unexpectedly NULL tlb", __func__)); 4872529f56eSJonathan T. Looney KASSERT(tln != NULL, ("%s: unexpectedly NULL tln", __func__)); 4882529f56eSJonathan T. Looney } 4892529f56eSJonathan T. Looney 4902529f56eSJonathan T. Looney tcp_log_id_validate_tree_lock(*tree_locked); 4912529f56eSJonathan T. Looney TCPID_BUCKET_LOCK_ASSERT(tlb); 4922529f56eSJonathan T. Looney 4932529f56eSJonathan T. Looney /* 4942529f56eSJonathan T. Looney * Remove the node, clear the log bucket and node from the TCPCB, and 4952529f56eSJonathan T. Looney * decrement the bucket refcount. In the process, if this is the 4962529f56eSJonathan T. Looney * last reference, the bucket will be freed. 4972529f56eSJonathan T. Looney */ 4982529f56eSJonathan T. Looney SLIST_REMOVE(&tlb->tlb_head, tln, tcp_log_id_node, tln_list); 4992529f56eSJonathan T. Looney if (tp != NULL) { 5002529f56eSJonathan T. Looney tp->t_lib = NULL; 5012529f56eSJonathan T. Looney tp->t_lin = NULL; 5022529f56eSJonathan T. Looney } 5032529f56eSJonathan T. Looney orig_tree_locked = *tree_locked; 5042529f56eSJonathan T. Looney if (!tcp_log_unref_bucket(tlb, tree_locked, inp)) 5052529f56eSJonathan T. Looney TCPID_BUCKET_UNLOCK(tlb); 5062529f56eSJonathan T. Looney return (*tree_locked != orig_tree_locked); 5072529f56eSJonathan T. Looney } 5082529f56eSJonathan T. Looney 5092529f56eSJonathan T. Looney #define RECHECK_INP_CLEAN(cleanup) do { \ 51053af6903SGleb Smirnoff if (inp->inp_flags & INP_DROPPED) { \ 5112529f56eSJonathan T. Looney rv = ECONNRESET; \ 5122529f56eSJonathan T. Looney cleanup; \ 5132529f56eSJonathan T. Looney goto done; \ 5142529f56eSJonathan T. Looney } \ 5152529f56eSJonathan T. Looney tp = intotcpcb(inp); \ 5162529f56eSJonathan T. Looney } while (0) 5172529f56eSJonathan T. Looney 5182529f56eSJonathan T. Looney #define RECHECK_INP() RECHECK_INP_CLEAN(/* noop */) 5192529f56eSJonathan T. Looney 5202529f56eSJonathan T. Looney static void 5212529f56eSJonathan T. Looney tcp_log_grow_tlb(char *tlb_id, struct tcpcb *tp) 5222529f56eSJonathan T. Looney { 5232529f56eSJonathan T. Looney 5249eb0e832SGleb Smirnoff INP_WLOCK_ASSERT(tptoinpcb(tp)); 5252529f56eSJonathan T. Looney 526adc56f5aSEdward Tomasz Napierala #ifdef STATS 5272529f56eSJonathan T. Looney if (V_tcp_perconn_stats_enable == 2 && tp->t_stats == NULL) 5282529f56eSJonathan T. Looney (void)tcp_stats_sample_rollthedice(tp, tlb_id, strlen(tlb_id)); 5292529f56eSJonathan T. Looney #endif 5302529f56eSJonathan T. Looney } 5312529f56eSJonathan T. Looney 532a9a08eceSRandall Stewart static void 533a9a08eceSRandall Stewart tcp_log_increment_reqcnt(struct tcp_log_id_bucket *tlb) 534a9a08eceSRandall Stewart { 535a9a08eceSRandall Stewart 536a9a08eceSRandall Stewart atomic_fetchadd_int(&tlb->tlb_reqcnt, 1); 537a9a08eceSRandall Stewart } 538a9a08eceSRandall Stewart 539*69c7c811SRandall Stewart int 540*69c7c811SRandall Stewart tcp_log_apply_ratio(struct tcpcb *tp, int ratio) 541*69c7c811SRandall Stewart { 542*69c7c811SRandall Stewart struct tcp_log_id_bucket *tlb; 543*69c7c811SRandall Stewart struct inpcb *inp = tptoinpcb(tp); 544*69c7c811SRandall Stewart uint32_t hash, ratio_hash_thresh; 545*69c7c811SRandall Stewart int rv, tree_locked; 546*69c7c811SRandall Stewart 547*69c7c811SRandall Stewart rv = 0; 548*69c7c811SRandall Stewart tree_locked = TREE_UNLOCKED; 549*69c7c811SRandall Stewart tlb = tp->t_lib; 550*69c7c811SRandall Stewart 551*69c7c811SRandall Stewart INP_WLOCK_ASSERT(inp); 552*69c7c811SRandall Stewart if (tlb == NULL) { 553*69c7c811SRandall Stewart INP_WUNLOCK(inp); 554*69c7c811SRandall Stewart return (EOPNOTSUPP); 555*69c7c811SRandall Stewart } 556*69c7c811SRandall Stewart ratio_hash_thresh = max(1, UINT32_MAX / ratio); 557*69c7c811SRandall Stewart TCPID_BUCKET_REF(tlb); 558*69c7c811SRandall Stewart INP_WUNLOCK(inp); 559*69c7c811SRandall Stewart TCPID_BUCKET_LOCK(tlb); 560*69c7c811SRandall Stewart 561*69c7c811SRandall Stewart hash = hash32_buf(tlb->tlb_id, strlen(tlb->tlb_id), 0); 562*69c7c811SRandall Stewart if (hash > ratio_hash_thresh && tp->_t_logstate == TCP_LOG_STATE_OFF && 563*69c7c811SRandall Stewart tlb->tlb_logstate == TCP_LOG_STATE_OFF) { 564*69c7c811SRandall Stewart /* 565*69c7c811SRandall Stewart * Ratio decision not to log this log ID (and this connection by 566*69c7c811SRandall Stewart * way of association). We only apply a log ratio log disable 567*69c7c811SRandall Stewart * decision if it would not interfere with a log enable decision 568*69c7c811SRandall Stewart * made elsewhere e.g. tcp_log_selectauto() or setsockopt(). 569*69c7c811SRandall Stewart */ 570*69c7c811SRandall Stewart tlb->tlb_logstate = TCP_LOG_STATE_RATIO_OFF; 571*69c7c811SRandall Stewart INP_WLOCK(inp); 572*69c7c811SRandall Stewart RECHECK_INP(); 573*69c7c811SRandall Stewart (void)tcp_log_state_change(tp, TCP_LOG_STATE_OFF); 574*69c7c811SRandall Stewart done: 575*69c7c811SRandall Stewart INP_WUNLOCK(inp); 576*69c7c811SRandall Stewart } 577*69c7c811SRandall Stewart 578*69c7c811SRandall Stewart INP_UNLOCK_ASSERT(inp); 579*69c7c811SRandall Stewart if (!tcp_log_unref_bucket(tlb, &tree_locked, NULL)) 580*69c7c811SRandall Stewart TCPID_BUCKET_UNLOCK(tlb); 581*69c7c811SRandall Stewart 582*69c7c811SRandall Stewart if (tree_locked == TREE_WLOCKED) { 583*69c7c811SRandall Stewart TCPID_TREE_WLOCK_ASSERT(); 584*69c7c811SRandall Stewart TCPID_TREE_WUNLOCK(); 585*69c7c811SRandall Stewart } else if (tree_locked == TREE_RLOCKED) { 586*69c7c811SRandall Stewart TCPID_TREE_RLOCK_ASSERT(); 587*69c7c811SRandall Stewart TCPID_TREE_RUNLOCK(); 588*69c7c811SRandall Stewart } else 589*69c7c811SRandall Stewart TCPID_TREE_UNLOCK_ASSERT(); 590*69c7c811SRandall Stewart 591*69c7c811SRandall Stewart return (rv); 592*69c7c811SRandall Stewart } 593*69c7c811SRandall Stewart 594a9a08eceSRandall Stewart /* 595a9a08eceSRandall Stewart * Associate the specified tag with a particular TCP log ID. 596a9a08eceSRandall Stewart * Called with INPCB locked. Returns with it unlocked. 597a9a08eceSRandall Stewart * Returns 0 on success or EOPNOTSUPP if the connection has no TCP log ID. 598a9a08eceSRandall Stewart */ 599a9a08eceSRandall Stewart int 600a9a08eceSRandall Stewart tcp_log_set_tag(struct tcpcb *tp, char *tag) 601a9a08eceSRandall Stewart { 6029eb0e832SGleb Smirnoff struct inpcb *inp = tptoinpcb(tp); 603a9a08eceSRandall Stewart struct tcp_log_id_bucket *tlb; 604a9a08eceSRandall Stewart int tree_locked; 605a9a08eceSRandall Stewart 6069eb0e832SGleb Smirnoff INP_WLOCK_ASSERT(inp); 607a9a08eceSRandall Stewart 608a9a08eceSRandall Stewart tree_locked = TREE_UNLOCKED; 609a9a08eceSRandall Stewart tlb = tp->t_lib; 610a9a08eceSRandall Stewart if (tlb == NULL) { 6119eb0e832SGleb Smirnoff INP_WUNLOCK(inp); 612a9a08eceSRandall Stewart return (EOPNOTSUPP); 613a9a08eceSRandall Stewart } 614a9a08eceSRandall Stewart 615a9a08eceSRandall Stewart TCPID_BUCKET_REF(tlb); 6169eb0e832SGleb Smirnoff INP_WUNLOCK(inp); 617a9a08eceSRandall Stewart TCPID_BUCKET_LOCK(tlb); 618a9a08eceSRandall Stewart strlcpy(tlb->tlb_tag, tag, TCP_LOG_TAG_LEN); 619a9a08eceSRandall Stewart if (!tcp_log_unref_bucket(tlb, &tree_locked, NULL)) 620a9a08eceSRandall Stewart TCPID_BUCKET_UNLOCK(tlb); 621a9a08eceSRandall Stewart 622a9a08eceSRandall Stewart if (tree_locked == TREE_WLOCKED) { 623a9a08eceSRandall Stewart TCPID_TREE_WLOCK_ASSERT(); 624a9a08eceSRandall Stewart TCPID_TREE_WUNLOCK(); 625a9a08eceSRandall Stewart } else if (tree_locked == TREE_RLOCKED) { 626a9a08eceSRandall Stewart TCPID_TREE_RLOCK_ASSERT(); 627a9a08eceSRandall Stewart TCPID_TREE_RUNLOCK(); 628a9a08eceSRandall Stewart } else 629a9a08eceSRandall Stewart TCPID_TREE_UNLOCK_ASSERT(); 630a9a08eceSRandall Stewart 631a9a08eceSRandall Stewart return (0); 632a9a08eceSRandall Stewart } 633a9a08eceSRandall Stewart 6342529f56eSJonathan T. Looney /* 6352529f56eSJonathan T. Looney * Set the TCP log ID for a TCPCB. 6362529f56eSJonathan T. Looney * Called with INPCB locked. Returns with it unlocked. 6372529f56eSJonathan T. Looney */ 6382529f56eSJonathan T. Looney int 6392529f56eSJonathan T. Looney tcp_log_set_id(struct tcpcb *tp, char *id) 6402529f56eSJonathan T. Looney { 6412529f56eSJonathan T. Looney struct tcp_log_id_bucket *tlb, *tmp_tlb; 6422529f56eSJonathan T. Looney struct tcp_log_id_node *tln; 6439eb0e832SGleb Smirnoff struct inpcb *inp = tptoinpcb(tp); 6442529f56eSJonathan T. Looney int tree_locked, rv; 645*69c7c811SRandall Stewart bool bucket_locked, same; 6462529f56eSJonathan T. Looney 6472529f56eSJonathan T. Looney tlb = NULL; 6482529f56eSJonathan T. Looney tln = NULL; 6492529f56eSJonathan T. Looney tree_locked = TREE_UNLOCKED; 6502529f56eSJonathan T. Looney bucket_locked = false; 6512529f56eSJonathan T. Looney 6522529f56eSJonathan T. Looney restart: 6532529f56eSJonathan T. Looney INP_WLOCK_ASSERT(inp); 6542529f56eSJonathan T. Looney /* See if the ID is unchanged. */ 655*69c7c811SRandall Stewart same = ((tp->t_lib != NULL && !strcmp(tp->t_lib->tlb_id, id)) || 656*69c7c811SRandall Stewart (tp->t_lib == NULL && *id == 0)); 657*69c7c811SRandall Stewart if (tp->_t_logstate && STAILQ_FIRST(&tp->t_logs) && !same) { 658*69c7c811SRandall Stewart /* 659*69c7c811SRandall Stewart * There are residual logs left we may 660*69c7c811SRandall Stewart * be changing id's so dump what we can. 661*69c7c811SRandall Stewart */ 662*69c7c811SRandall Stewart switch(tp->_t_logstate) { 663*69c7c811SRandall Stewart case TCP_LOG_STATE_HEAD_AUTO: 664*69c7c811SRandall Stewart (void)tcp_log_dump_tp_logbuf(tp, "auto-dumped from head at id switch", 665*69c7c811SRandall Stewart M_NOWAIT, false); 666*69c7c811SRandall Stewart break; 667*69c7c811SRandall Stewart case TCP_LOG_STATE_TAIL_AUTO: 668*69c7c811SRandall Stewart (void)tcp_log_dump_tp_logbuf(tp, "auto-dumped from tail at id switch", 669*69c7c811SRandall Stewart M_NOWAIT, false); 670*69c7c811SRandall Stewart break; 671*69c7c811SRandall Stewart case TCP_LOG_STATE_CONTINUAL: 672*69c7c811SRandall Stewart (void)tcp_log_dump_tp_logbuf(tp, "auto-dumped from continual at id switch", 673*69c7c811SRandall Stewart M_NOWAIT, false); 674*69c7c811SRandall Stewart break; 675*69c7c811SRandall Stewart case TCP_LOG_VIA_BBPOINTS: 676*69c7c811SRandall Stewart (void)tcp_log_dump_tp_logbuf(tp, "auto-dumped from bbpoints at id switch", 677*69c7c811SRandall Stewart M_NOWAIT, false); 678*69c7c811SRandall Stewart break; 679*69c7c811SRandall Stewart } 680*69c7c811SRandall Stewart } 681*69c7c811SRandall Stewart if (same) { 682a9a08eceSRandall Stewart if (tp->t_lib != NULL) { 683a9a08eceSRandall Stewart tcp_log_increment_reqcnt(tp->t_lib); 684*69c7c811SRandall Stewart if ((tp->t_lib->tlb_logstate > TCP_LOG_STATE_OFF) && 685a9a08eceSRandall Stewart (tp->t_log_state_set == 0)) { 686a9a08eceSRandall Stewart /* Clone in any logging */ 687a9a08eceSRandall Stewart 688*69c7c811SRandall Stewart tp->_t_logstate = tp->t_lib->tlb_logstate; 689a9a08eceSRandall Stewart } 690a9a08eceSRandall Stewart if ((tp->t_lib->tlb_loglimit) && 691a9a08eceSRandall Stewart (tp->t_log_state_set == 0)) { 692a9a08eceSRandall Stewart /* We also have a limit set */ 693a9a08eceSRandall Stewart 694a9a08eceSRandall Stewart tp->t_loglimit = tp->t_lib->tlb_loglimit; 695a9a08eceSRandall Stewart } 696a9a08eceSRandall Stewart } 6972529f56eSJonathan T. Looney rv = 0; 6982529f56eSJonathan T. Looney goto done; 6992529f56eSJonathan T. Looney } 7002529f56eSJonathan T. Looney 7012529f56eSJonathan T. Looney /* 7022529f56eSJonathan T. Looney * If the TCPCB had a previous ID, we need to extricate it from 7032529f56eSJonathan T. Looney * the previous list. 7042529f56eSJonathan T. Looney * 7052529f56eSJonathan T. Looney * Drop the TCPCB lock and lock the tree and the bucket. 7062529f56eSJonathan T. Looney * Because this is called in the socket context, we (theoretically) 7072529f56eSJonathan T. Looney * don't need to worry about the INPCB completely going away 7082529f56eSJonathan T. Looney * while we are gone. 7092529f56eSJonathan T. Looney */ 7102529f56eSJonathan T. Looney if (tp->t_lib != NULL) { 7112529f56eSJonathan T. Looney tlb = tp->t_lib; 7122529f56eSJonathan T. Looney TCPID_BUCKET_REF(tlb); 7132529f56eSJonathan T. Looney INP_WUNLOCK(inp); 7142529f56eSJonathan T. Looney 7152529f56eSJonathan T. Looney if (tree_locked == TREE_UNLOCKED) { 7162529f56eSJonathan T. Looney TCPID_TREE_RLOCK(); 7172529f56eSJonathan T. Looney tree_locked = TREE_RLOCKED; 7182529f56eSJonathan T. Looney } 7192529f56eSJonathan T. Looney TCPID_BUCKET_LOCK(tlb); 7202529f56eSJonathan T. Looney bucket_locked = true; 7212529f56eSJonathan T. Looney INP_WLOCK(inp); 7222529f56eSJonathan T. Looney 7232529f56eSJonathan T. Looney /* 7242529f56eSJonathan T. Looney * Unreference the bucket. If our bucket went away, it is no 7252529f56eSJonathan T. Looney * longer locked or valid. 7262529f56eSJonathan T. Looney */ 7272529f56eSJonathan T. Looney if (tcp_log_unref_bucket(tlb, &tree_locked, inp)) { 7282529f56eSJonathan T. Looney bucket_locked = false; 7292529f56eSJonathan T. Looney tlb = NULL; 7302529f56eSJonathan T. Looney } 7312529f56eSJonathan T. Looney 7322529f56eSJonathan T. Looney /* Validate the INP. */ 7332529f56eSJonathan T. Looney RECHECK_INP(); 7342529f56eSJonathan T. Looney 7352529f56eSJonathan T. Looney /* 7362529f56eSJonathan T. Looney * Evaluate whether the bucket changed while we were unlocked. 7372529f56eSJonathan T. Looney * 7382529f56eSJonathan T. Looney * Possible scenarios here: 7392529f56eSJonathan T. Looney * 1. Bucket is unchanged and the same one we started with. 7402529f56eSJonathan T. Looney * 2. The TCPCB no longer has a bucket and our bucket was 7412529f56eSJonathan T. Looney * freed. 7422529f56eSJonathan T. Looney * 3. The TCPCB has a new bucket, whether ours was freed. 7432529f56eSJonathan T. Looney * 4. The TCPCB no longer has a bucket and our bucket was 7442529f56eSJonathan T. Looney * not freed. 7452529f56eSJonathan T. Looney * 7462529f56eSJonathan T. Looney * In cases 2-4, we will start over. In case 1, we will 7472529f56eSJonathan T. Looney * proceed here to remove the bucket. 7482529f56eSJonathan T. Looney */ 7492529f56eSJonathan T. Looney if (tlb == NULL || tp->t_lib != tlb) { 7502529f56eSJonathan T. Looney KASSERT(bucket_locked || tlb == NULL, 7512529f56eSJonathan T. Looney ("%s: bucket_locked (%d) and tlb (%p) are " 7522529f56eSJonathan T. Looney "inconsistent", __func__, bucket_locked, tlb)); 7532529f56eSJonathan T. Looney 7542529f56eSJonathan T. Looney if (bucket_locked) { 7552529f56eSJonathan T. Looney TCPID_BUCKET_UNLOCK(tlb); 7562529f56eSJonathan T. Looney bucket_locked = false; 7572529f56eSJonathan T. Looney tlb = NULL; 7582529f56eSJonathan T. Looney } 7592529f56eSJonathan T. Looney goto restart; 7602529f56eSJonathan T. Looney } 7612529f56eSJonathan T. Looney 7622529f56eSJonathan T. Looney /* 7632529f56eSJonathan T. Looney * Store the (struct tcp_log_id_node) for reuse. Then, remove 7642529f56eSJonathan T. Looney * it from the bucket. In the process, we may end up relocking. 7652529f56eSJonathan T. Looney * If so, we need to validate that the INP is still valid, and 7662529f56eSJonathan T. Looney * the TCPCB entries match we expect. 7672529f56eSJonathan T. Looney * 7682529f56eSJonathan T. Looney * We will clear tlb and change the bucket_locked state just 7692529f56eSJonathan T. Looney * before calling tcp_log_remove_id_node(), since that function 7702529f56eSJonathan T. Looney * will unlock the bucket. 7712529f56eSJonathan T. Looney */ 7722529f56eSJonathan T. Looney if (tln != NULL) 7738c47d8f5SAlan Somers uma_zfree(tcp_log_id_node_zone, tln); 7742529f56eSJonathan T. Looney tln = tp->t_lin; 7752529f56eSJonathan T. Looney tlb = NULL; 7762529f56eSJonathan T. Looney bucket_locked = false; 7772529f56eSJonathan T. Looney if (tcp_log_remove_id_node(inp, tp, NULL, NULL, &tree_locked)) { 7782529f56eSJonathan T. Looney RECHECK_INP(); 7792529f56eSJonathan T. Looney 7802529f56eSJonathan T. Looney /* 7812529f56eSJonathan T. Looney * If the TCPCB moved to a new bucket while we had 7822529f56eSJonathan T. Looney * dropped the lock, restart. 7832529f56eSJonathan T. Looney */ 7842529f56eSJonathan T. Looney if (tp->t_lib != NULL || tp->t_lin != NULL) 7852529f56eSJonathan T. Looney goto restart; 7862529f56eSJonathan T. Looney } 7872529f56eSJonathan T. Looney 7882529f56eSJonathan T. Looney /* 7892529f56eSJonathan T. Looney * Yay! We successfully removed the TCPCB from its old 7902529f56eSJonathan T. Looney * bucket. Phew! 7912529f56eSJonathan T. Looney * 7922529f56eSJonathan T. Looney * On to bigger and better things... 7932529f56eSJonathan T. Looney */ 7942529f56eSJonathan T. Looney } 7952529f56eSJonathan T. Looney 7962529f56eSJonathan T. Looney /* At this point, the TCPCB should not be in any bucket. */ 7972529f56eSJonathan T. Looney KASSERT(tp->t_lib == NULL, ("%s: tp->t_lib is not NULL", __func__)); 7982529f56eSJonathan T. Looney 7992529f56eSJonathan T. Looney /* 8002529f56eSJonathan T. Looney * If the new ID is not empty, we need to now assign this TCPCB to a 8012529f56eSJonathan T. Looney * new bucket. 8022529f56eSJonathan T. Looney */ 8032529f56eSJonathan T. Looney if (*id) { 8042529f56eSJonathan T. Looney /* Get a new tln, if we don't already have one to reuse. */ 8052529f56eSJonathan T. Looney if (tln == NULL) { 8068c47d8f5SAlan Somers tln = uma_zalloc(tcp_log_id_node_zone, 8078c47d8f5SAlan Somers M_NOWAIT | M_ZERO); 8082529f56eSJonathan T. Looney if (tln == NULL) { 8092529f56eSJonathan T. Looney rv = ENOBUFS; 8102529f56eSJonathan T. Looney goto done; 8112529f56eSJonathan T. Looney } 8122529f56eSJonathan T. Looney tln->tln_inp = inp; 8132529f56eSJonathan T. Looney tln->tln_tp = tp; 8142529f56eSJonathan T. Looney } 8152529f56eSJonathan T. Looney 8162529f56eSJonathan T. Looney /* 8172529f56eSJonathan T. Looney * Drop the INP lock for a bit. We don't need it, and dropping 8182529f56eSJonathan T. Looney * it prevents lock order reversals. 8192529f56eSJonathan T. Looney */ 8202529f56eSJonathan T. Looney INP_WUNLOCK(inp); 8212529f56eSJonathan T. Looney 8222529f56eSJonathan T. Looney /* Make sure we have at least a read lock on the tree. */ 8232529f56eSJonathan T. Looney tcp_log_id_validate_tree_lock(tree_locked); 8242529f56eSJonathan T. Looney if (tree_locked == TREE_UNLOCKED) { 8252529f56eSJonathan T. Looney TCPID_TREE_RLOCK(); 8262529f56eSJonathan T. Looney tree_locked = TREE_RLOCKED; 8272529f56eSJonathan T. Looney } 8282529f56eSJonathan T. Looney 8292529f56eSJonathan T. Looney refind: 8302529f56eSJonathan T. Looney /* 8312529f56eSJonathan T. Looney * Remember that we constructed (struct tcp_log_id_node) so 8322529f56eSJonathan T. Looney * we can safely cast the id to it for the purposes of finding. 8332529f56eSJonathan T. Looney */ 8342529f56eSJonathan T. Looney KASSERT(tlb == NULL, ("%s:%d tlb unexpectedly non-NULL", 8352529f56eSJonathan T. Looney __func__, __LINE__)); 8362529f56eSJonathan T. Looney tmp_tlb = RB_FIND(tcp_log_id_tree, &tcp_log_id_head, 8372529f56eSJonathan T. Looney (struct tcp_log_id_bucket *) id); 8382529f56eSJonathan T. Looney 8392529f56eSJonathan T. Looney /* 8402529f56eSJonathan T. Looney * If we didn't find a matching bucket, we need to add a new 8412529f56eSJonathan T. Looney * one. This requires a write lock. But, of course, we will 8422529f56eSJonathan T. Looney * need to recheck some things when we re-acquire the lock. 8432529f56eSJonathan T. Looney */ 8442529f56eSJonathan T. Looney if (tmp_tlb == NULL && tree_locked != TREE_WLOCKED) { 8452529f56eSJonathan T. Looney tree_locked = TREE_WLOCKED; 8462529f56eSJonathan T. Looney if (!TCPID_TREE_UPGRADE()) { 8472529f56eSJonathan T. Looney TCPID_TREE_RUNLOCK(); 8482529f56eSJonathan T. Looney TCPID_TREE_WLOCK(); 8492529f56eSJonathan T. Looney 8502529f56eSJonathan T. Looney /* 8512529f56eSJonathan T. Looney * The tree may have changed while we were 8522529f56eSJonathan T. Looney * unlocked. 8532529f56eSJonathan T. Looney */ 8542529f56eSJonathan T. Looney goto refind; 8552529f56eSJonathan T. Looney } 8562529f56eSJonathan T. Looney } 8572529f56eSJonathan T. Looney 8582529f56eSJonathan T. Looney /* If we need to add a new bucket, do it now. */ 8592529f56eSJonathan T. Looney if (tmp_tlb == NULL) { 8602529f56eSJonathan T. Looney /* Allocate new bucket. */ 8618c47d8f5SAlan Somers tlb = uma_zalloc(tcp_log_id_bucket_zone, M_NOWAIT); 8622529f56eSJonathan T. Looney if (tlb == NULL) { 8632529f56eSJonathan T. Looney rv = ENOBUFS; 8642529f56eSJonathan T. Looney goto done_noinp; 8652529f56eSJonathan T. Looney } 866a9a08eceSRandall Stewart counter_u64_add(tcp_log_pcb_ids_cur, 1); 867a9a08eceSRandall Stewart counter_u64_add(tcp_log_pcb_ids_tot, 1); 868a9a08eceSRandall Stewart 869a9a08eceSRandall Stewart if ((tcp_log_auto_all == false) && 870a9a08eceSRandall Stewart tcp_log_auto_mode && 871a9a08eceSRandall Stewart tcp_log_selectauto()) { 872a9a08eceSRandall Stewart /* Save off the log state */ 873a9a08eceSRandall Stewart tlb->tlb_logstate = tcp_log_auto_mode; 874a9a08eceSRandall Stewart } else 875a9a08eceSRandall Stewart tlb->tlb_logstate = TCP_LOG_STATE_OFF; 876a9a08eceSRandall Stewart tlb->tlb_loglimit = 0; 877a9a08eceSRandall Stewart tlb->tlb_tag[0] = '\0'; /* Default to an empty tag. */ 8782529f56eSJonathan T. Looney 8792529f56eSJonathan T. Looney /* 8802529f56eSJonathan T. Looney * Copy the ID to the bucket. 8812529f56eSJonathan T. Looney * NB: Don't use strlcpy() unless you are sure 8822529f56eSJonathan T. Looney * we've always validated NULL termination. 8832529f56eSJonathan T. Looney * 8842529f56eSJonathan T. Looney * TODO: When I'm done writing this, see if we 8852529f56eSJonathan T. Looney * we have correctly validated NULL termination and 8862529f56eSJonathan T. Looney * can use strlcpy(). :-) 8872529f56eSJonathan T. Looney */ 8882529f56eSJonathan T. Looney strncpy(tlb->tlb_id, id, TCP_LOG_ID_LEN - 1); 8892529f56eSJonathan T. Looney tlb->tlb_id[TCP_LOG_ID_LEN - 1] = '\0'; 8902529f56eSJonathan T. Looney 8912529f56eSJonathan T. Looney /* 8922529f56eSJonathan T. Looney * Take the refcount for the first node and go ahead 8932529f56eSJonathan T. Looney * and lock this. Note that we zero the tlb_mtx 8942529f56eSJonathan T. Looney * structure, since 0xdeadc0de flips the right bits 8952529f56eSJonathan T. Looney * for the code to think that this mutex has already 8962529f56eSJonathan T. Looney * been initialized. :-( 8972529f56eSJonathan T. Looney */ 8982529f56eSJonathan T. Looney SLIST_INIT(&tlb->tlb_head); 8992529f56eSJonathan T. Looney refcount_init(&tlb->tlb_refcnt, 1); 900a9a08eceSRandall Stewart tlb->tlb_reqcnt = 1; 9012529f56eSJonathan T. Looney memset(&tlb->tlb_mtx, 0, sizeof(struct mtx)); 9022529f56eSJonathan T. Looney TCPID_BUCKET_LOCK_INIT(tlb); 9032529f56eSJonathan T. Looney TCPID_BUCKET_LOCK(tlb); 9042529f56eSJonathan T. Looney bucket_locked = true; 9052529f56eSJonathan T. Looney 9062529f56eSJonathan T. Looney #define FREE_NEW_TLB() do { \ 9072529f56eSJonathan T. Looney TCPID_BUCKET_LOCK_DESTROY(tlb); \ 9088c47d8f5SAlan Somers uma_zfree(tcp_log_id_bucket_zone, tlb); \ 909a9a08eceSRandall Stewart counter_u64_add(tcp_log_pcb_ids_cur, (int64_t)-1); \ 910a9a08eceSRandall Stewart counter_u64_add(tcp_log_pcb_ids_tot, (int64_t)-1); \ 9112529f56eSJonathan T. Looney bucket_locked = false; \ 9122529f56eSJonathan T. Looney tlb = NULL; \ 9132529f56eSJonathan T. Looney } while (0) 9142529f56eSJonathan T. Looney /* 9152529f56eSJonathan T. Looney * Relock the INP and make sure we are still 9162529f56eSJonathan T. Looney * unassigned. 9172529f56eSJonathan T. Looney */ 9182529f56eSJonathan T. Looney INP_WLOCK(inp); 9192529f56eSJonathan T. Looney RECHECK_INP_CLEAN(FREE_NEW_TLB()); 9202529f56eSJonathan T. Looney if (tp->t_lib != NULL) { 9212529f56eSJonathan T. Looney FREE_NEW_TLB(); 9222529f56eSJonathan T. Looney goto restart; 9232529f56eSJonathan T. Looney } 9242529f56eSJonathan T. Looney 9252529f56eSJonathan T. Looney /* Add the new bucket to the tree. */ 9262529f56eSJonathan T. Looney tmp_tlb = RB_INSERT(tcp_log_id_tree, &tcp_log_id_head, 9272529f56eSJonathan T. Looney tlb); 9282529f56eSJonathan T. Looney KASSERT(tmp_tlb == NULL, 9292529f56eSJonathan T. Looney ("%s: Unexpected conflicting bucket (%p) while " 9302529f56eSJonathan T. Looney "adding new bucket (%p)", __func__, tmp_tlb, tlb)); 9312529f56eSJonathan T. Looney 9322529f56eSJonathan T. Looney /* 9332529f56eSJonathan T. Looney * If we found a conflicting bucket, free the new 9342529f56eSJonathan T. Looney * one we made and fall through to use the existing 9352529f56eSJonathan T. Looney * bucket. 9362529f56eSJonathan T. Looney */ 9372529f56eSJonathan T. Looney if (tmp_tlb != NULL) { 9382529f56eSJonathan T. Looney FREE_NEW_TLB(); 9392529f56eSJonathan T. Looney INP_WUNLOCK(inp); 9402529f56eSJonathan T. Looney } 9412529f56eSJonathan T. Looney #undef FREE_NEW_TLB 9422529f56eSJonathan T. Looney } 9432529f56eSJonathan T. Looney 9442529f56eSJonathan T. Looney /* If we found an existing bucket, use it. */ 9452529f56eSJonathan T. Looney if (tmp_tlb != NULL) { 9462529f56eSJonathan T. Looney tlb = tmp_tlb; 9472529f56eSJonathan T. Looney TCPID_BUCKET_LOCK(tlb); 9482529f56eSJonathan T. Looney bucket_locked = true; 9492529f56eSJonathan T. Looney 9502529f56eSJonathan T. Looney /* 9512529f56eSJonathan T. Looney * Relock the INP and make sure we are still 9522529f56eSJonathan T. Looney * unassigned. 9532529f56eSJonathan T. Looney */ 9542529f56eSJonathan T. Looney INP_UNLOCK_ASSERT(inp); 9552529f56eSJonathan T. Looney INP_WLOCK(inp); 9562529f56eSJonathan T. Looney RECHECK_INP(); 9572529f56eSJonathan T. Looney if (tp->t_lib != NULL) { 9582529f56eSJonathan T. Looney TCPID_BUCKET_UNLOCK(tlb); 95980219286SRandall Stewart bucket_locked = false; 9602529f56eSJonathan T. Looney tlb = NULL; 9612529f56eSJonathan T. Looney goto restart; 9622529f56eSJonathan T. Looney } 9632529f56eSJonathan T. Looney 9642529f56eSJonathan T. Looney /* Take a reference on the bucket. */ 9652529f56eSJonathan T. Looney TCPID_BUCKET_REF(tlb); 966a9a08eceSRandall Stewart 967a9a08eceSRandall Stewart /* Record the request. */ 968a9a08eceSRandall Stewart tcp_log_increment_reqcnt(tlb); 9692529f56eSJonathan T. Looney } 9702529f56eSJonathan T. Looney 9712529f56eSJonathan T. Looney tcp_log_grow_tlb(tlb->tlb_id, tp); 9722529f56eSJonathan T. Looney 9732529f56eSJonathan T. Looney /* Add the new node to the list. */ 9742529f56eSJonathan T. Looney SLIST_INSERT_HEAD(&tlb->tlb_head, tln, tln_list); 9752529f56eSJonathan T. Looney tp->t_lib = tlb; 9762529f56eSJonathan T. Looney tp->t_lin = tln; 977*69c7c811SRandall Stewart if (tp->t_lib->tlb_logstate > TCP_LOG_STATE_OFF) { 978a9a08eceSRandall Stewart /* Clone in any logging */ 979a9a08eceSRandall Stewart 980*69c7c811SRandall Stewart tp->_t_logstate = tp->t_lib->tlb_logstate; 981a9a08eceSRandall Stewart } 982a9a08eceSRandall Stewart if (tp->t_lib->tlb_loglimit) { 983a9a08eceSRandall Stewart /* The loglimit too */ 984a9a08eceSRandall Stewart 985a9a08eceSRandall Stewart tp->t_loglimit = tp->t_lib->tlb_loglimit; 986a9a08eceSRandall Stewart } 9872529f56eSJonathan T. Looney tln = NULL; 9882529f56eSJonathan T. Looney } 9892529f56eSJonathan T. Looney 9902529f56eSJonathan T. Looney rv = 0; 9912529f56eSJonathan T. Looney 9922529f56eSJonathan T. Looney done: 9932529f56eSJonathan T. Looney /* Unlock things, as needed, and return. */ 9942529f56eSJonathan T. Looney INP_WUNLOCK(inp); 9952529f56eSJonathan T. Looney done_noinp: 9962529f56eSJonathan T. Looney INP_UNLOCK_ASSERT(inp); 9972529f56eSJonathan T. Looney if (bucket_locked) { 9982529f56eSJonathan T. Looney TCPID_BUCKET_LOCK_ASSERT(tlb); 9992529f56eSJonathan T. Looney TCPID_BUCKET_UNLOCK(tlb); 10002529f56eSJonathan T. Looney } else if (tlb != NULL) 10012529f56eSJonathan T. Looney TCPID_BUCKET_UNLOCK_ASSERT(tlb); 10022529f56eSJonathan T. Looney if (tree_locked == TREE_WLOCKED) { 10032529f56eSJonathan T. Looney TCPID_TREE_WLOCK_ASSERT(); 10042529f56eSJonathan T. Looney TCPID_TREE_WUNLOCK(); 10052529f56eSJonathan T. Looney } else if (tree_locked == TREE_RLOCKED) { 10062529f56eSJonathan T. Looney TCPID_TREE_RLOCK_ASSERT(); 10072529f56eSJonathan T. Looney TCPID_TREE_RUNLOCK(); 10082529f56eSJonathan T. Looney } else 10092529f56eSJonathan T. Looney TCPID_TREE_UNLOCK_ASSERT(); 10102529f56eSJonathan T. Looney if (tln != NULL) 10118c47d8f5SAlan Somers uma_zfree(tcp_log_id_node_zone, tln); 10122529f56eSJonathan T. Looney return (rv); 10132529f56eSJonathan T. Looney } 10142529f56eSJonathan T. Looney 10152529f56eSJonathan T. Looney /* 10162529f56eSJonathan T. Looney * Get the TCP log ID for a TCPCB. 10172529f56eSJonathan T. Looney * Called with INPCB locked. 10182529f56eSJonathan T. Looney * 'buf' must point to a buffer that is at least TCP_LOG_ID_LEN bytes long. 10192529f56eSJonathan T. Looney * Returns number of bytes copied. 10202529f56eSJonathan T. Looney */ 10212529f56eSJonathan T. Looney size_t 10222529f56eSJonathan T. Looney tcp_log_get_id(struct tcpcb *tp, char *buf) 10232529f56eSJonathan T. Looney { 10242529f56eSJonathan T. Looney size_t len; 10252529f56eSJonathan T. Looney 10269eb0e832SGleb Smirnoff INP_LOCK_ASSERT(tptoinpcb(tp)); 10272529f56eSJonathan T. Looney if (tp->t_lib != NULL) { 10282529f56eSJonathan T. Looney len = strlcpy(buf, tp->t_lib->tlb_id, TCP_LOG_ID_LEN); 10292529f56eSJonathan T. Looney KASSERT(len < TCP_LOG_ID_LEN, 10302529f56eSJonathan T. Looney ("%s:%d: tp->t_lib->tlb_id too long (%zu)", 10312529f56eSJonathan T. Looney __func__, __LINE__, len)); 10322529f56eSJonathan T. Looney } else { 10332529f56eSJonathan T. Looney *buf = '\0'; 10342529f56eSJonathan T. Looney len = 0; 10352529f56eSJonathan T. Looney } 10362529f56eSJonathan T. Looney return (len); 10372529f56eSJonathan T. Looney } 10382529f56eSJonathan T. Looney 10392529f56eSJonathan T. Looney /* 1040a9a08eceSRandall Stewart * Get the tag associated with the TCPCB's log ID. 1041a9a08eceSRandall Stewart * Called with INPCB locked. Returns with it unlocked. 1042a9a08eceSRandall Stewart * 'buf' must point to a buffer that is at least TCP_LOG_TAG_LEN bytes long. 1043a9a08eceSRandall Stewart * Returns number of bytes copied. 1044a9a08eceSRandall Stewart */ 1045a9a08eceSRandall Stewart size_t 1046a9a08eceSRandall Stewart tcp_log_get_tag(struct tcpcb *tp, char *buf) 1047a9a08eceSRandall Stewart { 10489eb0e832SGleb Smirnoff struct inpcb *inp = tptoinpcb(tp); 1049a9a08eceSRandall Stewart struct tcp_log_id_bucket *tlb; 1050a9a08eceSRandall Stewart size_t len; 1051a9a08eceSRandall Stewart int tree_locked; 1052a9a08eceSRandall Stewart 10539eb0e832SGleb Smirnoff INP_WLOCK_ASSERT(inp); 1054a9a08eceSRandall Stewart 1055a9a08eceSRandall Stewart tree_locked = TREE_UNLOCKED; 1056a9a08eceSRandall Stewart tlb = tp->t_lib; 1057a9a08eceSRandall Stewart 1058a9a08eceSRandall Stewart if (tlb != NULL) { 1059a9a08eceSRandall Stewart TCPID_BUCKET_REF(tlb); 10609eb0e832SGleb Smirnoff INP_WUNLOCK(inp); 1061a9a08eceSRandall Stewart TCPID_BUCKET_LOCK(tlb); 1062a9a08eceSRandall Stewart len = strlcpy(buf, tlb->tlb_tag, TCP_LOG_TAG_LEN); 1063a9a08eceSRandall Stewart KASSERT(len < TCP_LOG_TAG_LEN, 1064a9a08eceSRandall Stewart ("%s:%d: tp->t_lib->tlb_tag too long (%zu)", 1065a9a08eceSRandall Stewart __func__, __LINE__, len)); 1066a9a08eceSRandall Stewart if (!tcp_log_unref_bucket(tlb, &tree_locked, NULL)) 1067a9a08eceSRandall Stewart TCPID_BUCKET_UNLOCK(tlb); 1068a9a08eceSRandall Stewart 1069a9a08eceSRandall Stewart if (tree_locked == TREE_WLOCKED) { 1070a9a08eceSRandall Stewart TCPID_TREE_WLOCK_ASSERT(); 1071a9a08eceSRandall Stewart TCPID_TREE_WUNLOCK(); 1072a9a08eceSRandall Stewart } else if (tree_locked == TREE_RLOCKED) { 1073a9a08eceSRandall Stewart TCPID_TREE_RLOCK_ASSERT(); 1074a9a08eceSRandall Stewart TCPID_TREE_RUNLOCK(); 1075a9a08eceSRandall Stewart } else 1076a9a08eceSRandall Stewart TCPID_TREE_UNLOCK_ASSERT(); 1077a9a08eceSRandall Stewart } else { 10789eb0e832SGleb Smirnoff INP_WUNLOCK(inp); 1079a9a08eceSRandall Stewart *buf = '\0'; 1080a9a08eceSRandall Stewart len = 0; 1081a9a08eceSRandall Stewart } 1082a9a08eceSRandall Stewart 1083a9a08eceSRandall Stewart return (len); 1084a9a08eceSRandall Stewart } 1085a9a08eceSRandall Stewart 1086a9a08eceSRandall Stewart /* 10872529f56eSJonathan T. Looney * Get number of connections with the same log ID. 10882529f56eSJonathan T. Looney * Log ID is taken from given TCPCB. 10892529f56eSJonathan T. Looney * Called with INPCB locked. 10902529f56eSJonathan T. Looney */ 10912529f56eSJonathan T. Looney u_int 10922529f56eSJonathan T. Looney tcp_log_get_id_cnt(struct tcpcb *tp) 10932529f56eSJonathan T. Looney { 10942529f56eSJonathan T. Looney 10959eb0e832SGleb Smirnoff INP_WLOCK_ASSERT(tptoinpcb(tp)); 10962529f56eSJonathan T. Looney return ((tp->t_lib == NULL) ? 0 : tp->t_lib->tlb_refcnt); 10972529f56eSJonathan T. Looney } 10982529f56eSJonathan T. Looney 10992529f56eSJonathan T. Looney #ifdef TCPLOG_DEBUG_RINGBUF 11002529f56eSJonathan T. Looney /* 11012529f56eSJonathan T. Looney * Functions/macros to increment/decrement reference count for a log 11022529f56eSJonathan T. Looney * entry. This should catch when we do a double-free/double-remove or 11032529f56eSJonathan T. Looney * a double-add. 11042529f56eSJonathan T. Looney */ 11052529f56eSJonathan T. Looney static inline void 11062529f56eSJonathan T. Looney _tcp_log_entry_refcnt_add(struct tcp_log_mem *log_entry, const char *func, 11072529f56eSJonathan T. Looney int line) 11082529f56eSJonathan T. Looney { 11092529f56eSJonathan T. Looney int refcnt; 11102529f56eSJonathan T. Looney 11112529f56eSJonathan T. Looney refcnt = atomic_fetchadd_int(&log_entry->tlm_refcnt, 1); 11122529f56eSJonathan T. Looney if (refcnt != 0) 11132529f56eSJonathan T. Looney panic("%s:%d: log_entry(%p)->tlm_refcnt is %d (expected 0)", 11142529f56eSJonathan T. Looney func, line, log_entry, refcnt); 11152529f56eSJonathan T. Looney } 11162529f56eSJonathan T. Looney #define tcp_log_entry_refcnt_add(l) \ 11172529f56eSJonathan T. Looney _tcp_log_entry_refcnt_add((l), __func__, __LINE__) 11182529f56eSJonathan T. Looney 11192529f56eSJonathan T. Looney static inline void 11202529f56eSJonathan T. Looney _tcp_log_entry_refcnt_rem(struct tcp_log_mem *log_entry, const char *func, 11212529f56eSJonathan T. Looney int line) 11222529f56eSJonathan T. Looney { 11232529f56eSJonathan T. Looney int refcnt; 11242529f56eSJonathan T. Looney 11252529f56eSJonathan T. Looney refcnt = atomic_fetchadd_int(&log_entry->tlm_refcnt, -1); 11262529f56eSJonathan T. Looney if (refcnt != 1) 11272529f56eSJonathan T. Looney panic("%s:%d: log_entry(%p)->tlm_refcnt is %d (expected 1)", 11282529f56eSJonathan T. Looney func, line, log_entry, refcnt); 11292529f56eSJonathan T. Looney } 11302529f56eSJonathan T. Looney #define tcp_log_entry_refcnt_rem(l) \ 11312529f56eSJonathan T. Looney _tcp_log_entry_refcnt_rem((l), __func__, __LINE__) 11322529f56eSJonathan T. Looney 11332529f56eSJonathan T. Looney #else /* !TCPLOG_DEBUG_RINGBUF */ 11342529f56eSJonathan T. Looney 11352529f56eSJonathan T. Looney #define tcp_log_entry_refcnt_add(l) 11362529f56eSJonathan T. Looney #define tcp_log_entry_refcnt_rem(l) 11372529f56eSJonathan T. Looney 11382529f56eSJonathan T. Looney #endif 11392529f56eSJonathan T. Looney 11402529f56eSJonathan T. Looney /* 11412529f56eSJonathan T. Looney * Cleanup after removing a log entry, but only decrement the count if we 11422529f56eSJonathan T. Looney * are running INVARIANTS. 11432529f56eSJonathan T. Looney */ 11442529f56eSJonathan T. Looney static inline void 11452529f56eSJonathan T. Looney tcp_log_free_log_common(struct tcp_log_mem *log_entry, int *count __unused) 11462529f56eSJonathan T. Looney { 11472529f56eSJonathan T. Looney 11482529f56eSJonathan T. Looney uma_zfree(tcp_log_zone, log_entry); 11492529f56eSJonathan T. Looney #ifdef INVARIANTS 11502529f56eSJonathan T. Looney (*count)--; 11512529f56eSJonathan T. Looney KASSERT(*count >= 0, 11522529f56eSJonathan T. Looney ("%s: count unexpectedly negative", __func__)); 11532529f56eSJonathan T. Looney #endif 11542529f56eSJonathan T. Looney } 11552529f56eSJonathan T. Looney 11562529f56eSJonathan T. Looney static void 11572529f56eSJonathan T. Looney tcp_log_free_entries(struct tcp_log_stailq *head, int *count) 11582529f56eSJonathan T. Looney { 11592529f56eSJonathan T. Looney struct tcp_log_mem *log_entry; 11602529f56eSJonathan T. Looney 11612529f56eSJonathan T. Looney /* Free the entries. */ 11622529f56eSJonathan T. Looney while ((log_entry = STAILQ_FIRST(head)) != NULL) { 11632529f56eSJonathan T. Looney STAILQ_REMOVE_HEAD(head, tlm_queue); 11642529f56eSJonathan T. Looney tcp_log_entry_refcnt_rem(log_entry); 11652529f56eSJonathan T. Looney tcp_log_free_log_common(log_entry, count); 11662529f56eSJonathan T. Looney } 11672529f56eSJonathan T. Looney } 11682529f56eSJonathan T. Looney 11692529f56eSJonathan T. Looney /* Cleanup after removing a log entry. */ 11702529f56eSJonathan T. Looney static inline void 11712529f56eSJonathan T. Looney tcp_log_remove_log_cleanup(struct tcpcb *tp, struct tcp_log_mem *log_entry) 11722529f56eSJonathan T. Looney { 11732529f56eSJonathan T. Looney uma_zfree(tcp_log_zone, log_entry); 11742529f56eSJonathan T. Looney tp->t_lognum--; 11752529f56eSJonathan T. Looney KASSERT(tp->t_lognum >= 0, 11762529f56eSJonathan T. Looney ("%s: tp->t_lognum unexpectedly negative", __func__)); 11772529f56eSJonathan T. Looney } 11782529f56eSJonathan T. Looney 11792529f56eSJonathan T. Looney /* Remove a log entry from the head of a list. */ 11802529f56eSJonathan T. Looney static inline void 11812529f56eSJonathan T. Looney tcp_log_remove_log_head(struct tcpcb *tp, struct tcp_log_mem *log_entry) 11822529f56eSJonathan T. Looney { 11832529f56eSJonathan T. Looney 11842529f56eSJonathan T. Looney KASSERT(log_entry == STAILQ_FIRST(&tp->t_logs), 11852529f56eSJonathan T. Looney ("%s: attempt to remove non-HEAD log entry", __func__)); 11862529f56eSJonathan T. Looney STAILQ_REMOVE_HEAD(&tp->t_logs, tlm_queue); 11872529f56eSJonathan T. Looney tcp_log_entry_refcnt_rem(log_entry); 11882529f56eSJonathan T. Looney tcp_log_remove_log_cleanup(tp, log_entry); 11892529f56eSJonathan T. Looney } 11902529f56eSJonathan T. Looney 11912529f56eSJonathan T. Looney #ifdef TCPLOG_DEBUG_RINGBUF 11922529f56eSJonathan T. Looney /* 11932529f56eSJonathan T. Looney * Initialize the log entry's reference count, which we want to 11942529f56eSJonathan T. Looney * survive allocations. 11952529f56eSJonathan T. Looney */ 11962529f56eSJonathan T. Looney static int 11972529f56eSJonathan T. Looney tcp_log_zone_init(void *mem, int size, int flags __unused) 11982529f56eSJonathan T. Looney { 11992529f56eSJonathan T. Looney struct tcp_log_mem *tlm; 12002529f56eSJonathan T. Looney 12012529f56eSJonathan T. Looney KASSERT(size >= sizeof(struct tcp_log_mem), 12022529f56eSJonathan T. Looney ("%s: unexpectedly short (%d) allocation", __func__, size)); 12032529f56eSJonathan T. Looney tlm = (struct tcp_log_mem *)mem; 12042529f56eSJonathan T. Looney tlm->tlm_refcnt = 0; 12052529f56eSJonathan T. Looney return (0); 12062529f56eSJonathan T. Looney } 12072529f56eSJonathan T. Looney 12082529f56eSJonathan T. Looney /* 12092529f56eSJonathan T. Looney * Double check that the refcnt is zero on allocation and return. 12102529f56eSJonathan T. Looney */ 12112529f56eSJonathan T. Looney static int 12122529f56eSJonathan T. Looney tcp_log_zone_ctor(void *mem, int size, void *args __unused, int flags __unused) 12132529f56eSJonathan T. Looney { 12142529f56eSJonathan T. Looney struct tcp_log_mem *tlm; 12152529f56eSJonathan T. Looney 12162529f56eSJonathan T. Looney KASSERT(size >= sizeof(struct tcp_log_mem), 12172529f56eSJonathan T. Looney ("%s: unexpectedly short (%d) allocation", __func__, size)); 12182529f56eSJonathan T. Looney tlm = (struct tcp_log_mem *)mem; 12192529f56eSJonathan T. Looney if (tlm->tlm_refcnt != 0) 12202529f56eSJonathan T. Looney panic("%s:%d: tlm(%p)->tlm_refcnt is %d (expected 0)", 12212529f56eSJonathan T. Looney __func__, __LINE__, tlm, tlm->tlm_refcnt); 12222529f56eSJonathan T. Looney return (0); 12232529f56eSJonathan T. Looney } 12242529f56eSJonathan T. Looney 12252529f56eSJonathan T. Looney static void 12262529f56eSJonathan T. Looney tcp_log_zone_dtor(void *mem, int size, void *args __unused) 12272529f56eSJonathan T. Looney { 12282529f56eSJonathan T. Looney struct tcp_log_mem *tlm; 12292529f56eSJonathan T. Looney 12302529f56eSJonathan T. Looney KASSERT(size >= sizeof(struct tcp_log_mem), 12312529f56eSJonathan T. Looney ("%s: unexpectedly short (%d) allocation", __func__, size)); 12322529f56eSJonathan T. Looney tlm = (struct tcp_log_mem *)mem; 12332529f56eSJonathan T. Looney if (tlm->tlm_refcnt != 0) 12342529f56eSJonathan T. Looney panic("%s:%d: tlm(%p)->tlm_refcnt is %d (expected 0)", 12352529f56eSJonathan T. Looney __func__, __LINE__, tlm, tlm->tlm_refcnt); 12362529f56eSJonathan T. Looney } 12372529f56eSJonathan T. Looney #endif /* TCPLOG_DEBUG_RINGBUF */ 12382529f56eSJonathan T. Looney 12392529f56eSJonathan T. Looney /* Do global initialization. */ 12402529f56eSJonathan T. Looney void 12412529f56eSJonathan T. Looney tcp_log_init(void) 12422529f56eSJonathan T. Looney { 12432529f56eSJonathan T. Looney 12442529f56eSJonathan T. Looney tcp_log_zone = uma_zcreate("tcp_log", sizeof(struct tcp_log_mem), 12452529f56eSJonathan T. Looney #ifdef TCPLOG_DEBUG_RINGBUF 12462529f56eSJonathan T. Looney tcp_log_zone_ctor, tcp_log_zone_dtor, tcp_log_zone_init, 12472529f56eSJonathan T. Looney #else 12482529f56eSJonathan T. Looney NULL, NULL, NULL, 12492529f56eSJonathan T. Looney #endif 12502529f56eSJonathan T. Looney NULL, UMA_ALIGN_PTR, 0); 12512529f56eSJonathan T. Looney (void)uma_zone_set_max(tcp_log_zone, TCP_LOG_BUF_DEFAULT_GLOBAL_LIMIT); 12528c47d8f5SAlan Somers tcp_log_id_bucket_zone = uma_zcreate("tcp_log_id_bucket", 12532529f56eSJonathan T. Looney sizeof(struct tcp_log_id_bucket), NULL, NULL, NULL, NULL, 12542529f56eSJonathan T. Looney UMA_ALIGN_PTR, 0); 12558c47d8f5SAlan Somers tcp_log_id_node_zone = uma_zcreate("tcp_log_id_node", 12562529f56eSJonathan T. Looney sizeof(struct tcp_log_id_node), NULL, NULL, NULL, NULL, 12572529f56eSJonathan T. Looney UMA_ALIGN_PTR, 0); 12582529f56eSJonathan T. Looney #ifdef TCPLOG_DEBUG_COUNTERS 12592529f56eSJonathan T. Looney tcp_log_queued = counter_u64_alloc(M_WAITOK); 12602529f56eSJonathan T. Looney tcp_log_que_fail1 = counter_u64_alloc(M_WAITOK); 12612529f56eSJonathan T. Looney tcp_log_que_fail2 = counter_u64_alloc(M_WAITOK); 12622529f56eSJonathan T. Looney tcp_log_que_fail3 = counter_u64_alloc(M_WAITOK); 12632529f56eSJonathan T. Looney tcp_log_que_fail4 = counter_u64_alloc(M_WAITOK); 12642529f56eSJonathan T. Looney tcp_log_que_fail5 = counter_u64_alloc(M_WAITOK); 12652529f56eSJonathan T. Looney tcp_log_que_copyout = counter_u64_alloc(M_WAITOK); 12662529f56eSJonathan T. Looney tcp_log_que_read = counter_u64_alloc(M_WAITOK); 12672529f56eSJonathan T. Looney tcp_log_que_freed = counter_u64_alloc(M_WAITOK); 12682529f56eSJonathan T. Looney #endif 1269a9a08eceSRandall Stewart tcp_log_pcb_ids_cur = counter_u64_alloc(M_WAITOK); 1270a9a08eceSRandall Stewart tcp_log_pcb_ids_tot = counter_u64_alloc(M_WAITOK); 12712529f56eSJonathan T. Looney 12722529f56eSJonathan T. Looney rw_init_flags(&tcp_id_tree_lock, "TCP ID tree", RW_NEW); 12732529f56eSJonathan T. Looney mtx_init(&tcp_log_expireq_mtx, "TCP log expireq", NULL, MTX_DEF); 12742529f56eSJonathan T. Looney callout_init(&tcp_log_expireq_callout, 1); 12752529f56eSJonathan T. Looney } 12762529f56eSJonathan T. Looney 12772529f56eSJonathan T. Looney /* Do per-TCPCB initialization. */ 12782529f56eSJonathan T. Looney void 12792529f56eSJonathan T. Looney tcp_log_tcpcbinit(struct tcpcb *tp) 12802529f56eSJonathan T. Looney { 12812529f56eSJonathan T. Looney 12822529f56eSJonathan T. Looney /* A new TCPCB should start out zero-initialized. */ 12832529f56eSJonathan T. Looney STAILQ_INIT(&tp->t_logs); 12842529f56eSJonathan T. Looney 12852529f56eSJonathan T. Looney /* 12862529f56eSJonathan T. Looney * If we are doing auto-capturing, figure out whether we will capture 12872529f56eSJonathan T. Looney * this session. 12882529f56eSJonathan T. Looney */ 1289a9a08eceSRandall Stewart tp->t_loglimit = tcp_log_session_limit; 1290a9a08eceSRandall Stewart if ((tcp_log_auto_all == true) && 1291a9a08eceSRandall Stewart tcp_log_auto_mode && 1292a9a08eceSRandall Stewart tcp_log_selectauto()) { 1293*69c7c811SRandall Stewart tp->_t_logstate = tcp_log_auto_mode; 12942529f56eSJonathan T. Looney tp->t_flags2 |= TF2_LOG_AUTO; 12952529f56eSJonathan T. Looney } 12962529f56eSJonathan T. Looney } 12972529f56eSJonathan T. Looney 12982529f56eSJonathan T. Looney /* Remove entries */ 12992529f56eSJonathan T. Looney static void 13002529f56eSJonathan T. Looney tcp_log_expire(void *unused __unused) 13012529f56eSJonathan T. Looney { 13022529f56eSJonathan T. Looney struct tcp_log_id_bucket *tlb; 13032529f56eSJonathan T. Looney struct tcp_log_id_node *tln; 13042529f56eSJonathan T. Looney sbintime_t expiry_limit; 13052529f56eSJonathan T. Looney int tree_locked; 13062529f56eSJonathan T. Looney 13072529f56eSJonathan T. Looney TCPLOG_EXPIREQ_LOCK(); 13082529f56eSJonathan T. Looney if (callout_pending(&tcp_log_expireq_callout)) { 13092529f56eSJonathan T. Looney /* Callout was reset. */ 13102529f56eSJonathan T. Looney TCPLOG_EXPIREQ_UNLOCK(); 13112529f56eSJonathan T. Looney return; 13122529f56eSJonathan T. Looney } 13132529f56eSJonathan T. Looney 13142529f56eSJonathan T. Looney /* 13152529f56eSJonathan T. Looney * Process entries until we reach one that expires too far in the 13162529f56eSJonathan T. Looney * future. Look one second in the future. 13172529f56eSJonathan T. Looney */ 13182529f56eSJonathan T. Looney expiry_limit = getsbinuptime() + SBT_1S; 13192529f56eSJonathan T. Looney tree_locked = TREE_UNLOCKED; 13202529f56eSJonathan T. Looney 13212529f56eSJonathan T. Looney while ((tln = STAILQ_FIRST(&tcp_log_expireq_head)) != NULL && 13222529f56eSJonathan T. Looney tln->tln_expiretime <= expiry_limit) { 13232529f56eSJonathan T. Looney if (!callout_active(&tcp_log_expireq_callout)) { 13242529f56eSJonathan T. Looney /* 13252529f56eSJonathan T. Looney * Callout was stopped. I guess we should 13262529f56eSJonathan T. Looney * just quit at this point. 13272529f56eSJonathan T. Looney */ 13282529f56eSJonathan T. Looney TCPLOG_EXPIREQ_UNLOCK(); 13292529f56eSJonathan T. Looney return; 13302529f56eSJonathan T. Looney } 13312529f56eSJonathan T. Looney 13322529f56eSJonathan T. Looney /* 13332529f56eSJonathan T. Looney * Remove the node from the head of the list and unlock 13342529f56eSJonathan T. Looney * the list. Change the expiry time to SBT_MAX as a signal 13352529f56eSJonathan T. Looney * to other threads that we now own this. 13362529f56eSJonathan T. Looney */ 13372529f56eSJonathan T. Looney STAILQ_REMOVE_HEAD(&tcp_log_expireq_head, tln_expireq); 13382529f56eSJonathan T. Looney tln->tln_expiretime = SBT_MAX; 13392529f56eSJonathan T. Looney TCPLOG_EXPIREQ_UNLOCK(); 13402529f56eSJonathan T. Looney 13412529f56eSJonathan T. Looney /* 13422529f56eSJonathan T. Looney * Remove the node from the bucket. 13432529f56eSJonathan T. Looney */ 13442529f56eSJonathan T. Looney tlb = tln->tln_bucket; 13452529f56eSJonathan T. Looney TCPID_BUCKET_LOCK(tlb); 13462529f56eSJonathan T. Looney if (tcp_log_remove_id_node(NULL, NULL, tlb, tln, &tree_locked)) { 13472529f56eSJonathan T. Looney tcp_log_id_validate_tree_lock(tree_locked); 13482529f56eSJonathan T. Looney if (tree_locked == TREE_WLOCKED) 13492529f56eSJonathan T. Looney TCPID_TREE_WUNLOCK(); 13502529f56eSJonathan T. Looney else 13512529f56eSJonathan T. Looney TCPID_TREE_RUNLOCK(); 13522529f56eSJonathan T. Looney tree_locked = TREE_UNLOCKED; 13532529f56eSJonathan T. Looney } 13542529f56eSJonathan T. Looney 13552529f56eSJonathan T. Looney /* Drop the INP reference. */ 13562529f56eSJonathan T. Looney INP_WLOCK(tln->tln_inp); 13572529f56eSJonathan T. Looney if (!in_pcbrele_wlocked(tln->tln_inp)) 13582529f56eSJonathan T. Looney INP_WUNLOCK(tln->tln_inp); 13592529f56eSJonathan T. Looney 13602529f56eSJonathan T. Looney /* Free the log records. */ 13612529f56eSJonathan T. Looney tcp_log_free_entries(&tln->tln_entries, &tln->tln_count); 13622529f56eSJonathan T. Looney 13632529f56eSJonathan T. Looney /* Free the node. */ 13648c47d8f5SAlan Somers uma_zfree(tcp_log_id_node_zone, tln); 13652529f56eSJonathan T. Looney 13662529f56eSJonathan T. Looney /* Relock the expiry queue. */ 13672529f56eSJonathan T. Looney TCPLOG_EXPIREQ_LOCK(); 13682529f56eSJonathan T. Looney } 13692529f56eSJonathan T. Looney 13702529f56eSJonathan T. Looney /* 13712529f56eSJonathan T. Looney * We've expired all the entries we can. Do we need to reschedule 13722529f56eSJonathan T. Looney * ourselves? 13732529f56eSJonathan T. Looney */ 13742529f56eSJonathan T. Looney callout_deactivate(&tcp_log_expireq_callout); 13752529f56eSJonathan T. Looney if (tln != NULL) { 13762529f56eSJonathan T. Looney /* 13772529f56eSJonathan T. Looney * Get max(now + TCP_LOG_EXPIRE_INTVL, tln->tln_expiretime) and 13782529f56eSJonathan T. Looney * set the next callout to that. (This helps ensure we generally 13792529f56eSJonathan T. Looney * run the callout no more often than desired.) 13802529f56eSJonathan T. Looney */ 13812529f56eSJonathan T. Looney expiry_limit = getsbinuptime() + TCP_LOG_EXPIRE_INTVL; 13822529f56eSJonathan T. Looney if (expiry_limit < tln->tln_expiretime) 13832529f56eSJonathan T. Looney expiry_limit = tln->tln_expiretime; 13842529f56eSJonathan T. Looney callout_reset_sbt(&tcp_log_expireq_callout, expiry_limit, 13852529f56eSJonathan T. Looney SBT_1S, tcp_log_expire, NULL, C_ABSOLUTE); 13862529f56eSJonathan T. Looney } 13872529f56eSJonathan T. Looney 13882529f56eSJonathan T. Looney /* We're done. */ 13892529f56eSJonathan T. Looney TCPLOG_EXPIREQ_UNLOCK(); 13902529f56eSJonathan T. Looney return; 13912529f56eSJonathan T. Looney } 13922529f56eSJonathan T. Looney 13932529f56eSJonathan T. Looney /* 13942529f56eSJonathan T. Looney * Move log data from the TCPCB to a new node. This will reset the TCPCB log 13952529f56eSJonathan T. Looney * entries and log count; however, it will not touch other things from the 13962529f56eSJonathan T. Looney * TCPCB (e.g. t_lin, t_lib). 13972529f56eSJonathan T. Looney * 13982529f56eSJonathan T. Looney * NOTE: Must hold a lock on the INP. 13992529f56eSJonathan T. Looney */ 14002529f56eSJonathan T. Looney static void 14012529f56eSJonathan T. Looney tcp_log_move_tp_to_node(struct tcpcb *tp, struct tcp_log_id_node *tln) 14022529f56eSJonathan T. Looney { 14039eb0e832SGleb Smirnoff struct inpcb *inp = tptoinpcb(tp); 14042529f56eSJonathan T. Looney 14059eb0e832SGleb Smirnoff INP_WLOCK_ASSERT(inp); 14062529f56eSJonathan T. Looney 14079eb0e832SGleb Smirnoff tln->tln_ie = inp->inp_inc.inc_ie; 14089eb0e832SGleb Smirnoff if (inp->inp_inc.inc_flags & INC_ISIPV6) 14092529f56eSJonathan T. Looney tln->tln_af = AF_INET6; 14102529f56eSJonathan T. Looney else 14112529f56eSJonathan T. Looney tln->tln_af = AF_INET; 14122529f56eSJonathan T. Looney tln->tln_entries = tp->t_logs; 14132529f56eSJonathan T. Looney tln->tln_count = tp->t_lognum; 14142529f56eSJonathan T. Looney tln->tln_bucket = tp->t_lib; 14152529f56eSJonathan T. Looney 14162529f56eSJonathan T. Looney /* Clear information from the PCB. */ 14172529f56eSJonathan T. Looney STAILQ_INIT(&tp->t_logs); 14182529f56eSJonathan T. Looney tp->t_lognum = 0; 14192529f56eSJonathan T. Looney } 14202529f56eSJonathan T. Looney 14212529f56eSJonathan T. Looney /* Do per-TCPCB cleanup */ 14222529f56eSJonathan T. Looney void 14232529f56eSJonathan T. Looney tcp_log_tcpcbfini(struct tcpcb *tp) 14242529f56eSJonathan T. Looney { 14252529f56eSJonathan T. Looney struct tcp_log_id_node *tln, *tln_first; 14262529f56eSJonathan T. Looney struct tcp_log_mem *log_entry; 14272529f56eSJonathan T. Looney sbintime_t callouttime; 14282529f56eSJonathan T. Looney 1429*69c7c811SRandall Stewart 14309eb0e832SGleb Smirnoff INP_WLOCK_ASSERT(tptoinpcb(tp)); 1431*69c7c811SRandall Stewart #ifdef TCP_ACCOUNTING 1432*69c7c811SRandall Stewart if (tp->_t_logstate) { 1433*69c7c811SRandall Stewart struct tcp_log_buffer *lgb; 1434*69c7c811SRandall Stewart union tcp_log_stackspecific log; 1435*69c7c811SRandall Stewart struct timeval tv; 1436*69c7c811SRandall Stewart int i; 14372529f56eSJonathan T. Looney 1438*69c7c811SRandall Stewart memset(&log, 0, sizeof(log)); 1439*69c7c811SRandall Stewart if (tp->t_flags2 & TF2_TCP_ACCOUNTING) { 1440*69c7c811SRandall Stewart for (i = 0; i<TCP_NUM_CNT_COUNTERS; i++) { 1441*69c7c811SRandall Stewart log.u_raw.u64_flex[i] = tp->tcp_cnt_counters[i]; 1442*69c7c811SRandall Stewart } 1443*69c7c811SRandall Stewart lgb = tcp_log_event(tp, NULL, 1444*69c7c811SRandall Stewart NULL, 1445*69c7c811SRandall Stewart NULL, 1446*69c7c811SRandall Stewart TCP_LOG_ACCOUNTING, 0, 1447*69c7c811SRandall Stewart 0, &log, false, NULL, NULL, 0, &tv); 1448*69c7c811SRandall Stewart lgb->tlb_flex1 = TCP_NUM_CNT_COUNTERS; 1449*69c7c811SRandall Stewart lgb->tlb_flex2 = 1; 1450*69c7c811SRandall Stewart for (i = 0; i<TCP_NUM_CNT_COUNTERS; i++) { 1451*69c7c811SRandall Stewart log.u_raw.u64_flex[i] = tp->tcp_proc_time[i]; 1452*69c7c811SRandall Stewart } 1453*69c7c811SRandall Stewart lgb = tcp_log_event(tp, NULL, 1454*69c7c811SRandall Stewart NULL, 1455*69c7c811SRandall Stewart NULL, 1456*69c7c811SRandall Stewart TCP_LOG_ACCOUNTING, 0, 1457*69c7c811SRandall Stewart 0, &log, false, NULL, NULL, 0, &tv); 1458*69c7c811SRandall Stewart if (tptoinpcb(tp)->inp_flags2 & INP_MBUF_ACKCMP) 1459*69c7c811SRandall Stewart lgb->tlb_flex1 = TCP_NUM_CNT_COUNTERS; 1460*69c7c811SRandall Stewart else 1461*69c7c811SRandall Stewart lgb->tlb_flex1 = TCP_NUM_PROC_COUNTERS; 1462*69c7c811SRandall Stewart lgb->tlb_flex2 = 2; 1463*69c7c811SRandall Stewart } 1464*69c7c811SRandall Stewart log.u_bbr.timeStamp = tcp_get_usecs(&tv); 1465*69c7c811SRandall Stewart log.u_bbr.cur_del_rate = tp->t_end_info; 1466*69c7c811SRandall Stewart TCP_LOG_EVENTP(tp, NULL, 1467*69c7c811SRandall Stewart NULL, 1468*69c7c811SRandall Stewart NULL, 1469*69c7c811SRandall Stewart TCP_LOG_CONNEND, 0, 1470*69c7c811SRandall Stewart 0, &log, false, &tv); 1471*69c7c811SRandall Stewart } 1472*69c7c811SRandall Stewart #endif 14732529f56eSJonathan T. Looney /* 14742529f56eSJonathan T. Looney * If we were gathering packets to be automatically dumped, try to do 14752529f56eSJonathan T. Looney * it now. If this succeeds, the log information in the TCPCB will be 14762529f56eSJonathan T. Looney * cleared. Otherwise, we'll handle the log information as we do 14772529f56eSJonathan T. Looney * for other states. 14782529f56eSJonathan T. Looney */ 1479*69c7c811SRandall Stewart switch(tp->_t_logstate) { 14802529f56eSJonathan T. Looney case TCP_LOG_STATE_HEAD_AUTO: 14812529f56eSJonathan T. Looney (void)tcp_log_dump_tp_logbuf(tp, "auto-dumped from head", 14822529f56eSJonathan T. Looney M_NOWAIT, false); 14832529f56eSJonathan T. Looney break; 14842529f56eSJonathan T. Looney case TCP_LOG_STATE_TAIL_AUTO: 14852529f56eSJonathan T. Looney (void)tcp_log_dump_tp_logbuf(tp, "auto-dumped from tail", 14862529f56eSJonathan T. Looney M_NOWAIT, false); 14872529f56eSJonathan T. Looney break; 1488*69c7c811SRandall Stewart case TCP_LOG_VIA_BBPOINTS: 1489*69c7c811SRandall Stewart (void)tcp_log_dump_tp_logbuf(tp, "auto-dumped from bbpoints", 1490*69c7c811SRandall Stewart M_NOWAIT, false); 1491*69c7c811SRandall Stewart break; 14922529f56eSJonathan T. Looney case TCP_LOG_STATE_CONTINUAL: 14932529f56eSJonathan T. Looney (void)tcp_log_dump_tp_logbuf(tp, "auto-dumped from continual", 14942529f56eSJonathan T. Looney M_NOWAIT, false); 14952529f56eSJonathan T. Looney break; 14962529f56eSJonathan T. Looney } 14972529f56eSJonathan T. Looney 14982529f56eSJonathan T. Looney /* 14992529f56eSJonathan T. Looney * There are two ways we could keep logs: per-socket or per-ID. If 15002529f56eSJonathan T. Looney * we are tracking logs with an ID, then the logs survive the 15012529f56eSJonathan T. Looney * destruction of the TCPCB. 15022529f56eSJonathan T. Looney * 15032529f56eSJonathan T. Looney * If the TCPCB is associated with an ID node, move the logs from the 15042529f56eSJonathan T. Looney * TCPCB to the ID node. In theory, this is safe, for reasons which I 15052529f56eSJonathan T. Looney * will now explain for my own benefit when I next need to figure out 15062529f56eSJonathan T. Looney * this code. :-) 15072529f56eSJonathan T. Looney * 15082529f56eSJonathan T. Looney * We own the INP lock. Therefore, no one else can change the contents 15092529f56eSJonathan T. Looney * of this node (Rule C). Further, no one can remove this node from 15102529f56eSJonathan T. Looney * the bucket while we hold the lock (Rule D). Basically, no one can 15112529f56eSJonathan T. Looney * mess with this node. That leaves two states in which we could be: 15122529f56eSJonathan T. Looney * 15132529f56eSJonathan T. Looney * 1. Another thread is currently waiting to acquire the INP lock, with 15142529f56eSJonathan T. Looney * plans to do something with this node. When we drop the INP lock, 15152529f56eSJonathan T. Looney * they will have a chance to do that. They will recheck the 15162529f56eSJonathan T. Looney * tln_closed field (see note to Rule C) and then acquire the 15172529f56eSJonathan T. Looney * bucket lock before proceeding further. 15182529f56eSJonathan T. Looney * 15192529f56eSJonathan T. Looney * 2. Another thread will try to acquire a lock at some point in the 15202529f56eSJonathan T. Looney * future. If they try to acquire a lock before we set the 15212529f56eSJonathan T. Looney * tln_closed field, they will follow state #1. If they try to 15222529f56eSJonathan T. Looney * acquire a lock after we set the tln_closed field, they will be 15232529f56eSJonathan T. Looney * able to make changes to the node, at will, following Rule C. 15242529f56eSJonathan T. Looney * 15252529f56eSJonathan T. Looney * Therefore, we currently own this node and can make any changes 15262529f56eSJonathan T. Looney * we want. But, as soon as we set the tln_closed field to true, we 15272529f56eSJonathan T. Looney * have effectively dropped our lock on the node. (For this reason, we 15282529f56eSJonathan T. Looney * also need to make sure our writes are ordered correctly. An atomic 15292529f56eSJonathan T. Looney * operation with "release" semantics should be sufficient.) 15302529f56eSJonathan T. Looney */ 15312529f56eSJonathan T. Looney 15322529f56eSJonathan T. Looney if (tp->t_lin != NULL) { 15339eb0e832SGleb Smirnoff struct inpcb *inp = tptoinpcb(tp); 15349eb0e832SGleb Smirnoff 15352529f56eSJonathan T. Looney /* Copy the relevant information to the log entry. */ 15362529f56eSJonathan T. Looney tln = tp->t_lin; 15379eb0e832SGleb Smirnoff KASSERT(tln->tln_inp == inp, 15389eb0e832SGleb Smirnoff ("%s: Mismatched inp (tln->tln_inp=%p, tp inpcb=%p)", 15399eb0e832SGleb Smirnoff __func__, tln->tln_inp, inp)); 15402529f56eSJonathan T. Looney tcp_log_move_tp_to_node(tp, tln); 15412529f56eSJonathan T. Looney 15422529f56eSJonathan T. Looney /* Clear information from the PCB. */ 15432529f56eSJonathan T. Looney tp->t_lin = NULL; 15442529f56eSJonathan T. Looney tp->t_lib = NULL; 15452529f56eSJonathan T. Looney 15462529f56eSJonathan T. Looney /* 15472529f56eSJonathan T. Looney * Take a reference on the INP. This ensures that the INP 15482529f56eSJonathan T. Looney * remains valid while the node is on the expiry queue. This 15492529f56eSJonathan T. Looney * ensures the INP is valid for other threads that may be 15502529f56eSJonathan T. Looney * racing to lock this node when we move it to the expire 15512529f56eSJonathan T. Looney * queue. 15522529f56eSJonathan T. Looney */ 15539eb0e832SGleb Smirnoff in_pcbref(inp); 15542529f56eSJonathan T. Looney 15552529f56eSJonathan T. Looney /* 15562529f56eSJonathan T. Looney * Store the entry on the expiry list. The exact behavior 15572529f56eSJonathan T. Looney * depends on whether we have entries to keep. If so, we 15582529f56eSJonathan T. Looney * put the entry at the tail of the list and expire in 15592529f56eSJonathan T. Looney * TCP_LOG_EXPIRE_TIME. Otherwise, we expire "now" and put 15602529f56eSJonathan T. Looney * the entry at the head of the list. (Handling the cleanup 15612529f56eSJonathan T. Looney * via the expiry timer lets us avoid locking messy-ness here.) 15622529f56eSJonathan T. Looney */ 15632529f56eSJonathan T. Looney tln->tln_expiretime = getsbinuptime(); 15642529f56eSJonathan T. Looney TCPLOG_EXPIREQ_LOCK(); 15652529f56eSJonathan T. Looney if (tln->tln_count) { 15662529f56eSJonathan T. Looney tln->tln_expiretime += TCP_LOG_EXPIRE_TIME; 15672529f56eSJonathan T. Looney if (STAILQ_EMPTY(&tcp_log_expireq_head) && 15682529f56eSJonathan T. Looney !callout_active(&tcp_log_expireq_callout)) { 15692529f56eSJonathan T. Looney /* 15702529f56eSJonathan T. Looney * We are adding the first entry and a callout 15712529f56eSJonathan T. Looney * is not currently scheduled; therefore, we 15722529f56eSJonathan T. Looney * need to schedule one. 15732529f56eSJonathan T. Looney */ 15742529f56eSJonathan T. Looney callout_reset_sbt(&tcp_log_expireq_callout, 15752529f56eSJonathan T. Looney tln->tln_expiretime, SBT_1S, tcp_log_expire, 15762529f56eSJonathan T. Looney NULL, C_ABSOLUTE); 15772529f56eSJonathan T. Looney } 15782529f56eSJonathan T. Looney STAILQ_INSERT_TAIL(&tcp_log_expireq_head, tln, 15792529f56eSJonathan T. Looney tln_expireq); 15802529f56eSJonathan T. Looney } else { 15812529f56eSJonathan T. Looney callouttime = tln->tln_expiretime + 15822529f56eSJonathan T. Looney TCP_LOG_EXPIRE_INTVL; 15832529f56eSJonathan T. Looney tln_first = STAILQ_FIRST(&tcp_log_expireq_head); 15842529f56eSJonathan T. Looney 15852529f56eSJonathan T. Looney if ((tln_first == NULL || 15862529f56eSJonathan T. Looney callouttime < tln_first->tln_expiretime) && 15872529f56eSJonathan T. Looney (callout_pending(&tcp_log_expireq_callout) || 15882529f56eSJonathan T. Looney !callout_active(&tcp_log_expireq_callout))) { 15892529f56eSJonathan T. Looney /* 15902529f56eSJonathan T. Looney * The list is empty, or we want to run the 15912529f56eSJonathan T. Looney * expire code before the first entry's timer 15922529f56eSJonathan T. Looney * fires. Also, we are in a case where a callout 15932529f56eSJonathan T. Looney * is not actively running. We want to reset 15942529f56eSJonathan T. Looney * the callout to occur sooner. 15952529f56eSJonathan T. Looney */ 15962529f56eSJonathan T. Looney callout_reset_sbt(&tcp_log_expireq_callout, 15972529f56eSJonathan T. Looney callouttime, SBT_1S, tcp_log_expire, NULL, 15982529f56eSJonathan T. Looney C_ABSOLUTE); 15992529f56eSJonathan T. Looney } 16002529f56eSJonathan T. Looney 16012529f56eSJonathan T. Looney /* 16022529f56eSJonathan T. Looney * Insert to the head, or just after the head, as 16032529f56eSJonathan T. Looney * appropriate. (This might result in small 16042529f56eSJonathan T. Looney * mis-orderings as a bunch of "expire now" entries 16052529f56eSJonathan T. Looney * gather at the start of the list, but that should 16062529f56eSJonathan T. Looney * not produce big problems, since the expire timer 16072529f56eSJonathan T. Looney * will walk through all of them.) 16082529f56eSJonathan T. Looney */ 16092529f56eSJonathan T. Looney if (tln_first == NULL || 16102529f56eSJonathan T. Looney tln->tln_expiretime < tln_first->tln_expiretime) 16112529f56eSJonathan T. Looney STAILQ_INSERT_HEAD(&tcp_log_expireq_head, tln, 16122529f56eSJonathan T. Looney tln_expireq); 16132529f56eSJonathan T. Looney else 16142529f56eSJonathan T. Looney STAILQ_INSERT_AFTER(&tcp_log_expireq_head, 16152529f56eSJonathan T. Looney tln_first, tln, tln_expireq); 16162529f56eSJonathan T. Looney } 16172529f56eSJonathan T. Looney TCPLOG_EXPIREQ_UNLOCK(); 16182529f56eSJonathan T. Looney 16192529f56eSJonathan T. Looney /* 16202529f56eSJonathan T. Looney * We are done messing with the tln. After this point, we 16212529f56eSJonathan T. Looney * can't touch it. (Note that the "release" semantics should 16222529f56eSJonathan T. Looney * be included with the TCPLOG_EXPIREQ_UNLOCK() call above. 16232529f56eSJonathan T. Looney * Therefore, they should be unnecessary here. However, it 16242529f56eSJonathan T. Looney * seems like a good idea to include them anyway, since we 16252529f56eSJonathan T. Looney * really are releasing a lock here.) 16262529f56eSJonathan T. Looney */ 16272529f56eSJonathan T. Looney atomic_store_rel_int(&tln->tln_closed, 1); 16282529f56eSJonathan T. Looney } else { 16292529f56eSJonathan T. Looney /* Remove log entries. */ 16302529f56eSJonathan T. Looney while ((log_entry = STAILQ_FIRST(&tp->t_logs)) != NULL) 16312529f56eSJonathan T. Looney tcp_log_remove_log_head(tp, log_entry); 16322529f56eSJonathan T. Looney KASSERT(tp->t_lognum == 0, 16332529f56eSJonathan T. Looney ("%s: After freeing entries, tp->t_lognum=%d (expected 0)", 16342529f56eSJonathan T. Looney __func__, tp->t_lognum)); 16352529f56eSJonathan T. Looney } 16362529f56eSJonathan T. Looney 16372529f56eSJonathan T. Looney /* 16382529f56eSJonathan T. Looney * Change the log state to off (just in case anything tries to sneak 16392529f56eSJonathan T. Looney * in a last-minute log). 16402529f56eSJonathan T. Looney */ 1641*69c7c811SRandall Stewart tp->_t_logstate = TCP_LOG_STATE_OFF; 16422529f56eSJonathan T. Looney } 16432529f56eSJonathan T. Looney 1644a9a08eceSRandall Stewart static void 1645a9a08eceSRandall Stewart tcp_log_purge_tp_logbuf(struct tcpcb *tp) 1646a9a08eceSRandall Stewart { 1647a9a08eceSRandall Stewart struct tcp_log_mem *log_entry; 1648a9a08eceSRandall Stewart 16499eb0e832SGleb Smirnoff INP_WLOCK_ASSERT(tptoinpcb(tp)); 1650a9a08eceSRandall Stewart if (tp->t_lognum == 0) 1651a9a08eceSRandall Stewart return; 1652a9a08eceSRandall Stewart 1653a9a08eceSRandall Stewart while ((log_entry = STAILQ_FIRST(&tp->t_logs)) != NULL) 1654a9a08eceSRandall Stewart tcp_log_remove_log_head(tp, log_entry); 1655a9a08eceSRandall Stewart KASSERT(tp->t_lognum == 0, 1656a9a08eceSRandall Stewart ("%s: After freeing entries, tp->t_lognum=%d (expected 0)", 1657a9a08eceSRandall Stewart __func__, tp->t_lognum)); 1658*69c7c811SRandall Stewart tp->_t_logstate = TCP_LOG_STATE_OFF; 1659a9a08eceSRandall Stewart } 1660a9a08eceSRandall Stewart 16612529f56eSJonathan T. Looney /* 16622529f56eSJonathan T. Looney * This logs an event for a TCP socket. Normally, this is called via 16632529f56eSJonathan T. Looney * TCP_LOG_EVENT or TCP_LOG_EVENT_VERBOSE. See the documentation for 16642529f56eSJonathan T. Looney * TCP_LOG_EVENT(). 16652529f56eSJonathan T. Looney */ 16662529f56eSJonathan T. Looney 16672529f56eSJonathan T. Looney struct tcp_log_buffer * 1668*69c7c811SRandall Stewart tcp_log_event(struct tcpcb *tp, struct tcphdr *th, struct sockbuf *rxbuf, 16692529f56eSJonathan T. Looney struct sockbuf *txbuf, uint8_t eventid, int errornum, uint32_t len, 16702529f56eSJonathan T. Looney union tcp_log_stackspecific *stackinfo, int th_hostorder, 16712529f56eSJonathan T. Looney const char *output_caller, const char *func, int line, const struct timeval *itv) 16722529f56eSJonathan T. Looney { 16732529f56eSJonathan T. Looney struct tcp_log_mem *log_entry; 16742529f56eSJonathan T. Looney struct tcp_log_buffer *log_buf; 16752529f56eSJonathan T. Looney int attempt_count = 0; 16762529f56eSJonathan T. Looney struct tcp_log_verbose *log_verbose; 16772529f56eSJonathan T. Looney uint32_t logsn; 16782529f56eSJonathan T. Looney 16792529f56eSJonathan T. Looney KASSERT((func == NULL && line == 0) || (func != NULL && line > 0), 16802529f56eSJonathan T. Looney ("%s called with inconsistent func (%p) and line (%d) arguments", 16812529f56eSJonathan T. Looney __func__, func, line)); 16822529f56eSJonathan T. Looney 16839eb0e832SGleb Smirnoff INP_WLOCK_ASSERT(tptoinpcb(tp)); 1684a9a08eceSRandall Stewart if (tcp_disable_all_bb_logs) { 1685a9a08eceSRandall Stewart /* 1686a9a08eceSRandall Stewart * The global shutdown logging 1687a9a08eceSRandall Stewart * switch has been thrown. Call 1688a9a08eceSRandall Stewart * the purge function that frees 1689a9a08eceSRandall Stewart * purges out the logs and 1690a9a08eceSRandall Stewart * turns off logging. 1691a9a08eceSRandall Stewart */ 1692a9a08eceSRandall Stewart tcp_log_purge_tp_logbuf(tp); 1693a9a08eceSRandall Stewart return (NULL); 1694a9a08eceSRandall Stewart } 1695*69c7c811SRandall Stewart KASSERT(tp->_t_logstate == TCP_LOG_STATE_HEAD || 1696*69c7c811SRandall Stewart tp->_t_logstate == TCP_LOG_STATE_TAIL || 1697*69c7c811SRandall Stewart tp->_t_logstate == TCP_LOG_STATE_CONTINUAL || 1698*69c7c811SRandall Stewart tp->_t_logstate == TCP_LOG_STATE_HEAD_AUTO || 1699*69c7c811SRandall Stewart tp->_t_logstate == TCP_LOG_VIA_BBPOINTS || 1700*69c7c811SRandall Stewart tp->_t_logstate == TCP_LOG_STATE_TAIL_AUTO, 1701*69c7c811SRandall Stewart ("%s called with unexpected tp->_t_logstate (%d)", __func__, 1702*69c7c811SRandall Stewart tp->_t_logstate)); 17032529f56eSJonathan T. Looney 17042529f56eSJonathan T. Looney /* 17052529f56eSJonathan T. Looney * Get the serial number. We do this early so it will 17062529f56eSJonathan T. Looney * increment even if we end up skipping the log entry for some 17072529f56eSJonathan T. Looney * reason. 17082529f56eSJonathan T. Looney */ 17092529f56eSJonathan T. Looney logsn = tp->t_logsn++; 17102529f56eSJonathan T. Looney 17112529f56eSJonathan T. Looney /* 17122529f56eSJonathan T. Looney * Can we get a new log entry? If so, increment the lognum counter 17132529f56eSJonathan T. Looney * here. 17142529f56eSJonathan T. Looney */ 17152529f56eSJonathan T. Looney retry: 1716a9a08eceSRandall Stewart if (tp->t_lognum < tp->t_loglimit) { 17172529f56eSJonathan T. Looney if ((log_entry = uma_zalloc(tcp_log_zone, M_NOWAIT)) != NULL) 17182529f56eSJonathan T. Looney tp->t_lognum++; 17192529f56eSJonathan T. Looney } else 17202529f56eSJonathan T. Looney log_entry = NULL; 17212529f56eSJonathan T. Looney 17222529f56eSJonathan T. Looney /* Do we need to try to reuse? */ 17232529f56eSJonathan T. Looney if (log_entry == NULL) { 17242529f56eSJonathan T. Looney /* 17252529f56eSJonathan T. Looney * Sacrifice auto-logged sessions without a log ID if 17262529f56eSJonathan T. Looney * tcp_log_auto_all is false. (If they don't have a log 17272529f56eSJonathan T. Looney * ID by now, it is probable that either they won't get one 17282529f56eSJonathan T. Looney * or we are resource-constrained.) 17292529f56eSJonathan T. Looney */ 17302529f56eSJonathan T. Looney if (tp->t_lib == NULL && (tp->t_flags2 & TF2_LOG_AUTO) && 17312529f56eSJonathan T. Looney !tcp_log_auto_all) { 17322529f56eSJonathan T. Looney if (tcp_log_state_change(tp, TCP_LOG_STATE_CLEAR)) { 17332529f56eSJonathan T. Looney #ifdef INVARIANTS 17342529f56eSJonathan T. Looney panic("%s:%d: tcp_log_state_change() failed " 17352529f56eSJonathan T. Looney "to set tp %p to TCP_LOG_STATE_CLEAR", 17362529f56eSJonathan T. Looney __func__, __LINE__, tp); 17372529f56eSJonathan T. Looney #endif 1738*69c7c811SRandall Stewart tp->_t_logstate = TCP_LOG_STATE_OFF; 17392529f56eSJonathan T. Looney } 17402529f56eSJonathan T. Looney return (NULL); 17412529f56eSJonathan T. Looney } 17422529f56eSJonathan T. Looney /* 17432529f56eSJonathan T. Looney * If we are in TCP_LOG_STATE_HEAD_AUTO state, try to dump 17442529f56eSJonathan T. Looney * the buffers. If successful, deactivate tracing. Otherwise, 17452529f56eSJonathan T. Looney * leave it active so we will retry. 17462529f56eSJonathan T. Looney */ 1747*69c7c811SRandall Stewart if (tp->_t_logstate == TCP_LOG_STATE_HEAD_AUTO && 17482529f56eSJonathan T. Looney !tcp_log_dump_tp_logbuf(tp, "auto-dumped from head", 17492529f56eSJonathan T. Looney M_NOWAIT, false)) { 1750*69c7c811SRandall Stewart tp->_t_logstate = TCP_LOG_STATE_OFF; 17512529f56eSJonathan T. Looney return(NULL); 1752*69c7c811SRandall Stewart } else if ((tp->_t_logstate == TCP_LOG_STATE_CONTINUAL) && 17532529f56eSJonathan T. Looney !tcp_log_dump_tp_logbuf(tp, "auto-dumped from continual", 17542529f56eSJonathan T. Looney M_NOWAIT, false)) { 17552529f56eSJonathan T. Looney if (attempt_count == 0) { 17562529f56eSJonathan T. Looney attempt_count++; 17572529f56eSJonathan T. Looney goto retry; 17582529f56eSJonathan T. Looney } 17592529f56eSJonathan T. Looney #ifdef TCPLOG_DEBUG_COUNTERS 17602529f56eSJonathan T. Looney counter_u64_add(tcp_log_que_fail4, 1); 17612529f56eSJonathan T. Looney #endif 17622529f56eSJonathan T. Looney return(NULL); 1763*69c7c811SRandall Stewart 1764*69c7c811SRandall Stewart } else if ((tp->_t_logstate == TCP_LOG_VIA_BBPOINTS) && 1765*69c7c811SRandall Stewart !tcp_log_dump_tp_logbuf(tp, "auto-dumped from bbpoints", 1766*69c7c811SRandall Stewart M_NOWAIT, false)) { 1767*69c7c811SRandall Stewart if (attempt_count == 0) { 1768*69c7c811SRandall Stewart attempt_count++; 1769*69c7c811SRandall Stewart goto retry; 1770*69c7c811SRandall Stewart } 1771*69c7c811SRandall Stewart #ifdef TCPLOG_DEBUG_COUNTERS 1772*69c7c811SRandall Stewart counter_u64_add(tcp_log_que_fail4, 1); 1773*69c7c811SRandall Stewart #endif 1774*69c7c811SRandall Stewart return(NULL); 1775*69c7c811SRandall Stewart } else if (tp->_t_logstate == TCP_LOG_STATE_HEAD_AUTO) 17762529f56eSJonathan T. Looney return(NULL); 17772529f56eSJonathan T. Looney 17782529f56eSJonathan T. Looney /* If in HEAD state, just deactivate the tracing and return. */ 1779*69c7c811SRandall Stewart if (tp->_t_logstate == TCP_LOG_STATE_HEAD) { 1780*69c7c811SRandall Stewart tp->_t_logstate = TCP_LOG_STATE_OFF; 17812529f56eSJonathan T. Looney return(NULL); 17822529f56eSJonathan T. Looney } 17832529f56eSJonathan T. Looney /* 17842529f56eSJonathan T. Looney * Get a buffer to reuse. If that fails, just give up. 17852529f56eSJonathan T. Looney * (We can't log anything without a buffer in which to 17862529f56eSJonathan T. Looney * put it.) 17872529f56eSJonathan T. Looney * 17882529f56eSJonathan T. Looney * Note that we don't change the t_lognum counter 17892529f56eSJonathan T. Looney * here. Because we are re-using the buffer, the total 17902529f56eSJonathan T. Looney * number won't change. 17912529f56eSJonathan T. Looney */ 17922529f56eSJonathan T. Looney if ((log_entry = STAILQ_FIRST(&tp->t_logs)) == NULL) 17932529f56eSJonathan T. Looney return(NULL); 17942529f56eSJonathan T. Looney STAILQ_REMOVE_HEAD(&tp->t_logs, tlm_queue); 17952529f56eSJonathan T. Looney tcp_log_entry_refcnt_rem(log_entry); 17962529f56eSJonathan T. Looney } 17972529f56eSJonathan T. Looney 17982529f56eSJonathan T. Looney KASSERT(log_entry != NULL, 17992529f56eSJonathan T. Looney ("%s: log_entry unexpectedly NULL", __func__)); 18002529f56eSJonathan T. Looney 18012529f56eSJonathan T. Looney /* Extract the log buffer and verbose buffer pointers. */ 18022529f56eSJonathan T. Looney log_buf = &log_entry->tlm_buf; 18032529f56eSJonathan T. Looney log_verbose = &log_entry->tlm_v; 18042529f56eSJonathan T. Looney 18052529f56eSJonathan T. Looney /* Basic entries. */ 18062529f56eSJonathan T. Looney if (itv == NULL) 1807*69c7c811SRandall Stewart microuptime(&log_buf->tlb_tv); 18082529f56eSJonathan T. Looney else 18092529f56eSJonathan T. Looney memcpy(&log_buf->tlb_tv, itv, sizeof(struct timeval)); 18102529f56eSJonathan T. Looney log_buf->tlb_ticks = ticks; 18112529f56eSJonathan T. Looney log_buf->tlb_sn = logsn; 18122529f56eSJonathan T. Looney log_buf->tlb_stackid = tp->t_fb->tfb_id; 18132529f56eSJonathan T. Looney log_buf->tlb_eventid = eventid; 18142529f56eSJonathan T. Looney log_buf->tlb_eventflags = 0; 18152529f56eSJonathan T. Looney log_buf->tlb_errno = errornum; 18162529f56eSJonathan T. Looney 18172529f56eSJonathan T. Looney /* Socket buffers */ 18182529f56eSJonathan T. Looney if (rxbuf != NULL) { 18192529f56eSJonathan T. Looney log_buf->tlb_eventflags |= TLB_FLAG_RXBUF; 18202529f56eSJonathan T. Looney log_buf->tlb_rxbuf.tls_sb_acc = rxbuf->sb_acc; 18212529f56eSJonathan T. Looney log_buf->tlb_rxbuf.tls_sb_ccc = rxbuf->sb_ccc; 18222529f56eSJonathan T. Looney log_buf->tlb_rxbuf.tls_sb_spare = 0; 1823*69c7c811SRandall Stewart } else { 1824*69c7c811SRandall Stewart log_buf->tlb_rxbuf.tls_sb_acc = 0; 1825*69c7c811SRandall Stewart log_buf->tlb_rxbuf.tls_sb_ccc = 0; 18262529f56eSJonathan T. Looney } 18272529f56eSJonathan T. Looney if (txbuf != NULL) { 18282529f56eSJonathan T. Looney log_buf->tlb_eventflags |= TLB_FLAG_TXBUF; 18292529f56eSJonathan T. Looney log_buf->tlb_txbuf.tls_sb_acc = txbuf->sb_acc; 18302529f56eSJonathan T. Looney log_buf->tlb_txbuf.tls_sb_ccc = txbuf->sb_ccc; 18312529f56eSJonathan T. Looney log_buf->tlb_txbuf.tls_sb_spare = 0; 1832*69c7c811SRandall Stewart } else { 1833*69c7c811SRandall Stewart log_buf->tlb_txbuf.tls_sb_acc = 0; 1834*69c7c811SRandall Stewart log_buf->tlb_txbuf.tls_sb_ccc = 0; 18352529f56eSJonathan T. Looney } 18362529f56eSJonathan T. Looney /* Copy values from tp to the log entry. */ 18372529f56eSJonathan T. Looney #define COPY_STAT(f) log_buf->tlb_ ## f = tp->f 18382529f56eSJonathan T. Looney #define COPY_STAT_T(f) log_buf->tlb_ ## f = tp->t_ ## f 18392529f56eSJonathan T. Looney COPY_STAT_T(state); 18402529f56eSJonathan T. Looney COPY_STAT_T(starttime); 18412529f56eSJonathan T. Looney COPY_STAT(iss); 18422529f56eSJonathan T. Looney COPY_STAT_T(flags); 18432529f56eSJonathan T. Looney COPY_STAT(snd_una); 18442529f56eSJonathan T. Looney COPY_STAT(snd_max); 18452529f56eSJonathan T. Looney COPY_STAT(snd_cwnd); 18462529f56eSJonathan T. Looney COPY_STAT(snd_nxt); 18472529f56eSJonathan T. Looney COPY_STAT(snd_recover); 18482529f56eSJonathan T. Looney COPY_STAT(snd_wnd); 18492529f56eSJonathan T. Looney COPY_STAT(snd_ssthresh); 18502529f56eSJonathan T. Looney COPY_STAT_T(srtt); 18512529f56eSJonathan T. Looney COPY_STAT_T(rttvar); 18522529f56eSJonathan T. Looney COPY_STAT(rcv_up); 18532529f56eSJonathan T. Looney COPY_STAT(rcv_adv); 18542529f56eSJonathan T. Looney COPY_STAT(rcv_nxt); 18552529f56eSJonathan T. Looney COPY_STAT(rcv_wnd); 18562529f56eSJonathan T. Looney COPY_STAT_T(dupacks); 18572529f56eSJonathan T. Looney COPY_STAT_T(segqlen); 18582529f56eSJonathan T. Looney COPY_STAT(snd_numholes); 18592529f56eSJonathan T. Looney COPY_STAT(snd_scale); 18602529f56eSJonathan T. Looney COPY_STAT(rcv_scale); 1861e854dd38SRandall Stewart COPY_STAT_T(flags2); 1862e854dd38SRandall Stewart COPY_STAT_T(fbyte_in); 1863e854dd38SRandall Stewart COPY_STAT_T(fbyte_out); 18642529f56eSJonathan T. Looney #undef COPY_STAT 18652529f56eSJonathan T. Looney #undef COPY_STAT_T 18662529f56eSJonathan T. Looney /* Copy stack-specific info. */ 18672529f56eSJonathan T. Looney if (stackinfo != NULL) { 18682529f56eSJonathan T. Looney memcpy(&log_buf->tlb_stackinfo, stackinfo, 18692529f56eSJonathan T. Looney sizeof(log_buf->tlb_stackinfo)); 18702529f56eSJonathan T. Looney log_buf->tlb_eventflags |= TLB_FLAG_STACKINFO; 18712529f56eSJonathan T. Looney } 18722529f56eSJonathan T. Looney 18732529f56eSJonathan T. Looney /* The packet */ 18742529f56eSJonathan T. Looney log_buf->tlb_len = len; 18752529f56eSJonathan T. Looney if (th) { 18762529f56eSJonathan T. Looney int optlen; 18772529f56eSJonathan T. Looney 18782529f56eSJonathan T. Looney log_buf->tlb_eventflags |= TLB_FLAG_HDR; 18792529f56eSJonathan T. Looney log_buf->tlb_th = *th; 18802529f56eSJonathan T. Looney if (th_hostorder) 18812529f56eSJonathan T. Looney tcp_fields_to_net(&log_buf->tlb_th); 18822529f56eSJonathan T. Looney optlen = (th->th_off << 2) - sizeof (struct tcphdr); 18832529f56eSJonathan T. Looney if (optlen > 0) 18842529f56eSJonathan T. Looney memcpy(log_buf->tlb_opts, th + 1, optlen); 1885*69c7c811SRandall Stewart } else { 1886*69c7c811SRandall Stewart memset(&log_buf->tlb_th, 0, sizeof(*th)); 18872529f56eSJonathan T. Looney } 18882529f56eSJonathan T. Looney 18892529f56eSJonathan T. Looney /* Verbose information */ 18902529f56eSJonathan T. Looney if (func != NULL) { 18912529f56eSJonathan T. Looney log_buf->tlb_eventflags |= TLB_FLAG_VERBOSE; 18922529f56eSJonathan T. Looney if (output_caller != NULL) 18932529f56eSJonathan T. Looney strlcpy(log_verbose->tlv_snd_frm, output_caller, 18942529f56eSJonathan T. Looney TCP_FUNC_LEN); 18952529f56eSJonathan T. Looney else 18962529f56eSJonathan T. Looney *log_verbose->tlv_snd_frm = 0; 18972529f56eSJonathan T. Looney strlcpy(log_verbose->tlv_trace_func, func, TCP_FUNC_LEN); 18982529f56eSJonathan T. Looney log_verbose->tlv_trace_line = line; 18992529f56eSJonathan T. Looney } 19002529f56eSJonathan T. Looney 19012529f56eSJonathan T. Looney /* Insert the new log at the tail. */ 19022529f56eSJonathan T. Looney STAILQ_INSERT_TAIL(&tp->t_logs, log_entry, tlm_queue); 19032529f56eSJonathan T. Looney tcp_log_entry_refcnt_add(log_entry); 19042529f56eSJonathan T. Looney return (log_buf); 19052529f56eSJonathan T. Looney } 19062529f56eSJonathan T. Looney 19072529f56eSJonathan T. Looney /* 19082529f56eSJonathan T. Looney * Change the logging state for a TCPCB. Returns 0 on success or an 19092529f56eSJonathan T. Looney * error code on failure. 19102529f56eSJonathan T. Looney */ 19112529f56eSJonathan T. Looney int 19122529f56eSJonathan T. Looney tcp_log_state_change(struct tcpcb *tp, int state) 19132529f56eSJonathan T. Looney { 19142529f56eSJonathan T. Looney struct tcp_log_mem *log_entry; 1915*69c7c811SRandall Stewart int rv; 19162529f56eSJonathan T. Looney 19179eb0e832SGleb Smirnoff INP_WLOCK_ASSERT(tptoinpcb(tp)); 1918*69c7c811SRandall Stewart rv = 0; 19192529f56eSJonathan T. Looney switch(state) { 19202529f56eSJonathan T. Looney case TCP_LOG_STATE_CLEAR: 19212529f56eSJonathan T. Looney while ((log_entry = STAILQ_FIRST(&tp->t_logs)) != NULL) 19222529f56eSJonathan T. Looney tcp_log_remove_log_head(tp, log_entry); 19232529f56eSJonathan T. Looney /* Fall through */ 19242529f56eSJonathan T. Looney 19252529f56eSJonathan T. Looney case TCP_LOG_STATE_OFF: 1926*69c7c811SRandall Stewart tp->_t_logstate = TCP_LOG_STATE_OFF; 19272529f56eSJonathan T. Looney break; 19282529f56eSJonathan T. Looney 19292529f56eSJonathan T. Looney case TCP_LOG_STATE_TAIL: 19302529f56eSJonathan T. Looney case TCP_LOG_STATE_HEAD: 19312529f56eSJonathan T. Looney case TCP_LOG_STATE_CONTINUAL: 1932*69c7c811SRandall Stewart case TCP_LOG_VIA_BBPOINTS: 19332529f56eSJonathan T. Looney case TCP_LOG_STATE_HEAD_AUTO: 19342529f56eSJonathan T. Looney case TCP_LOG_STATE_TAIL_AUTO: 1935*69c7c811SRandall Stewart /* 1936*69c7c811SRandall Stewart * When the RATIO_OFF state is set for the bucket, the log ID 1937*69c7c811SRandall Stewart * this tp is associated with has been probabilistically opted 1938*69c7c811SRandall Stewart * out of logging per tcp_log_apply_ratio(). 1939*69c7c811SRandall Stewart */ 1940*69c7c811SRandall Stewart if (tp->t_lib == NULL || 1941*69c7c811SRandall Stewart tp->t_lib->tlb_logstate != TCP_LOG_STATE_RATIO_OFF) { 1942*69c7c811SRandall Stewart tp->_t_logstate = state; 1943*69c7c811SRandall Stewart } else { 1944*69c7c811SRandall Stewart rv = ECANCELED; 1945*69c7c811SRandall Stewart tp->_t_logstate = TCP_LOG_STATE_OFF; 1946*69c7c811SRandall Stewart } 19472529f56eSJonathan T. Looney break; 19482529f56eSJonathan T. Looney 19492529f56eSJonathan T. Looney default: 19502529f56eSJonathan T. Looney return (EINVAL); 19512529f56eSJonathan T. Looney } 1952a9a08eceSRandall Stewart if (tcp_disable_all_bb_logs) { 1953a9a08eceSRandall Stewart /* We are prohibited from doing any logs */ 1954*69c7c811SRandall Stewart tp->_t_logstate = TCP_LOG_STATE_OFF; 1955*69c7c811SRandall Stewart rv = EBUSY; 1956a9a08eceSRandall Stewart } 19572529f56eSJonathan T. Looney tp->t_flags2 &= ~(TF2_LOG_AUTO); 19582529f56eSJonathan T. Looney 1959*69c7c811SRandall Stewart return (rv); 19602529f56eSJonathan T. Looney } 19612529f56eSJonathan T. Looney 19622529f56eSJonathan T. Looney /* If tcp_drain() is called, flush half the log entries. */ 19632529f56eSJonathan T. Looney void 19642529f56eSJonathan T. Looney tcp_log_drain(struct tcpcb *tp) 19652529f56eSJonathan T. Looney { 19662529f56eSJonathan T. Looney struct tcp_log_mem *log_entry, *next; 19672529f56eSJonathan T. Looney int target, skip; 19682529f56eSJonathan T. Looney 19699eb0e832SGleb Smirnoff INP_WLOCK_ASSERT(tptoinpcb(tp)); 19702529f56eSJonathan T. Looney if ((target = tp->t_lognum / 2) == 0) 19712529f56eSJonathan T. Looney return; 19722529f56eSJonathan T. Looney 19732529f56eSJonathan T. Looney /* 1974*69c7c811SRandall Stewart * XXXRRS: At this I don't think this is wise that 1975*69c7c811SRandall Stewart * we do this. All that a drain call means is that 1976*69c7c811SRandall Stewart * we are hitting one of the system mbuf limits. BB 1977*69c7c811SRandall Stewart * logging, or freeing of them, will not create any 1978*69c7c811SRandall Stewart * more mbufs and really has nothing to do with 1979*69c7c811SRandall Stewart * the system running out of mbufs. For now I 1980*69c7c811SRandall Stewart * am changing this to free any "AUTO" by dumping 1981*69c7c811SRandall Stewart * them out. But this should either be changed 1982*69c7c811SRandall Stewart * so that it gets called when we hit the BB limit 1983*69c7c811SRandall Stewart * or it should just not get called (one of the two) 1984*69c7c811SRandall Stewart * since I don't think the mbuf <-> BB log cleanup 1985*69c7c811SRandall Stewart * is the right thing to do here. 1986*69c7c811SRandall Stewart */ 1987*69c7c811SRandall Stewart /* 19882529f56eSJonathan T. Looney * If we are logging the "head" packets, we want to discard 19892529f56eSJonathan T. Looney * from the tail of the queue. Otherwise, we want to discard 19902529f56eSJonathan T. Looney * from the head. 19912529f56eSJonathan T. Looney */ 1992*69c7c811SRandall Stewart if (tp->_t_logstate == TCP_LOG_STATE_HEAD) { 19932529f56eSJonathan T. Looney skip = tp->t_lognum - target; 19942529f56eSJonathan T. Looney STAILQ_FOREACH(log_entry, &tp->t_logs, tlm_queue) 19952529f56eSJonathan T. Looney if (!--skip) 19962529f56eSJonathan T. Looney break; 19972529f56eSJonathan T. Looney KASSERT(log_entry != NULL, 19982529f56eSJonathan T. Looney ("%s: skipped through all entries!", __func__)); 19992529f56eSJonathan T. Looney if (log_entry == NULL) 20002529f56eSJonathan T. Looney return; 20012529f56eSJonathan T. Looney while ((next = STAILQ_NEXT(log_entry, tlm_queue)) != NULL) { 20022529f56eSJonathan T. Looney STAILQ_REMOVE_AFTER(&tp->t_logs, log_entry, tlm_queue); 20032529f56eSJonathan T. Looney tcp_log_entry_refcnt_rem(next); 20042529f56eSJonathan T. Looney tcp_log_remove_log_cleanup(tp, next); 20052529f56eSJonathan T. Looney #ifdef INVARIANTS 20062529f56eSJonathan T. Looney target--; 20072529f56eSJonathan T. Looney #endif 20082529f56eSJonathan T. Looney } 20092529f56eSJonathan T. Looney KASSERT(target == 0, 20102529f56eSJonathan T. Looney ("%s: After removing from tail, target was %d", __func__, 20112529f56eSJonathan T. Looney target)); 2012*69c7c811SRandall Stewart } else if (tp->_t_logstate == TCP_LOG_STATE_HEAD_AUTO) { 2013*69c7c811SRandall Stewart (void)tcp_log_dump_tp_logbuf(tp, "auto-dumped from head at drain", 2014*69c7c811SRandall Stewart M_NOWAIT, false); 2015*69c7c811SRandall Stewart } else if (tp->_t_logstate == TCP_LOG_STATE_TAIL_AUTO) { 2016*69c7c811SRandall Stewart (void)tcp_log_dump_tp_logbuf(tp, "auto-dumped from tail at drain", 2017*69c7c811SRandall Stewart M_NOWAIT, false); 2018*69c7c811SRandall Stewart } else if (tp->_t_logstate == TCP_LOG_VIA_BBPOINTS) { 2019*69c7c811SRandall Stewart (void)tcp_log_dump_tp_logbuf(tp, "auto-dumped from bbpoints", 2020*69c7c811SRandall Stewart M_NOWAIT, false); 2021*69c7c811SRandall Stewart } else if (tp->_t_logstate == TCP_LOG_STATE_CONTINUAL) { 20222529f56eSJonathan T. Looney (void)tcp_log_dump_tp_logbuf(tp, "auto-dumped from continual", 20232529f56eSJonathan T. Looney M_NOWAIT, false); 20242529f56eSJonathan T. Looney } else { 20252529f56eSJonathan T. Looney while ((log_entry = STAILQ_FIRST(&tp->t_logs)) != NULL && 20262529f56eSJonathan T. Looney target--) 20272529f56eSJonathan T. Looney tcp_log_remove_log_head(tp, log_entry); 20282529f56eSJonathan T. Looney KASSERT(target <= 0, 20292529f56eSJonathan T. Looney ("%s: After removing from head, target was %d", __func__, 20302529f56eSJonathan T. Looney target)); 20312529f56eSJonathan T. Looney KASSERT(tp->t_lognum > 0, 20322529f56eSJonathan T. Looney ("%s: After removing from head, tp->t_lognum was %d", 20332529f56eSJonathan T. Looney __func__, target)); 20342529f56eSJonathan T. Looney KASSERT(log_entry != NULL, 20352529f56eSJonathan T. Looney ("%s: After removing from head, the tailq was empty", 20362529f56eSJonathan T. Looney __func__)); 20372529f56eSJonathan T. Looney } 20382529f56eSJonathan T. Looney } 20392529f56eSJonathan T. Looney 20402529f56eSJonathan T. Looney static inline int 20412529f56eSJonathan T. Looney tcp_log_copyout(struct sockopt *sopt, void *src, void *dst, size_t len) 20422529f56eSJonathan T. Looney { 20432529f56eSJonathan T. Looney 20442529f56eSJonathan T. Looney if (sopt->sopt_td != NULL) 20452529f56eSJonathan T. Looney return (copyout(src, dst, len)); 20462529f56eSJonathan T. Looney bcopy(src, dst, len); 20472529f56eSJonathan T. Looney return (0); 20482529f56eSJonathan T. Looney } 20492529f56eSJonathan T. Looney 20502529f56eSJonathan T. Looney static int 20512529f56eSJonathan T. Looney tcp_log_logs_to_buf(struct sockopt *sopt, struct tcp_log_stailq *log_tailqp, 20522529f56eSJonathan T. Looney struct tcp_log_buffer **end, int count) 20532529f56eSJonathan T. Looney { 20542529f56eSJonathan T. Looney struct tcp_log_buffer *out_entry; 20552529f56eSJonathan T. Looney struct tcp_log_mem *log_entry; 20562529f56eSJonathan T. Looney size_t entrysize; 20572529f56eSJonathan T. Looney int error; 20582529f56eSJonathan T. Looney #ifdef INVARIANTS 20592529f56eSJonathan T. Looney int orig_count = count; 20602529f56eSJonathan T. Looney #endif 20612529f56eSJonathan T. Looney 20622529f56eSJonathan T. Looney /* Copy the data out. */ 20632529f56eSJonathan T. Looney error = 0; 20642529f56eSJonathan T. Looney out_entry = (struct tcp_log_buffer *) sopt->sopt_val; 20652529f56eSJonathan T. Looney STAILQ_FOREACH(log_entry, log_tailqp, tlm_queue) { 20662529f56eSJonathan T. Looney count--; 20672529f56eSJonathan T. Looney KASSERT(count >= 0, 20682529f56eSJonathan T. Looney ("%s:%d: Exceeded expected count (%d) processing list %p", 20692529f56eSJonathan T. Looney __func__, __LINE__, orig_count, log_tailqp)); 20702529f56eSJonathan T. Looney 20712529f56eSJonathan T. Looney #ifdef TCPLOG_DEBUG_COUNTERS 20722529f56eSJonathan T. Looney counter_u64_add(tcp_log_que_copyout, 1); 20732529f56eSJonathan T. Looney #endif 20742529f56eSJonathan T. Looney 20752529f56eSJonathan T. Looney /* 20762529f56eSJonathan T. Looney * Skip copying out the header if it isn't present. 20772529f56eSJonathan T. Looney * Instead, copy out zeros (to ensure we don't leak info). 20782529f56eSJonathan T. Looney * TODO: Make sure we truly do zero everything we don't 20792529f56eSJonathan T. Looney * explicitly set. 20802529f56eSJonathan T. Looney */ 20812529f56eSJonathan T. Looney if (log_entry->tlm_buf.tlb_eventflags & TLB_FLAG_HDR) 20822529f56eSJonathan T. Looney entrysize = sizeof(struct tcp_log_buffer); 20832529f56eSJonathan T. Looney else 20842529f56eSJonathan T. Looney entrysize = offsetof(struct tcp_log_buffer, tlb_th); 20852529f56eSJonathan T. Looney error = tcp_log_copyout(sopt, &log_entry->tlm_buf, out_entry, 20862529f56eSJonathan T. Looney entrysize); 20872529f56eSJonathan T. Looney if (error) 20882529f56eSJonathan T. Looney break; 20892529f56eSJonathan T. Looney if (!(log_entry->tlm_buf.tlb_eventflags & TLB_FLAG_HDR)) { 20902529f56eSJonathan T. Looney error = tcp_log_copyout(sopt, zerobuf, 20912529f56eSJonathan T. Looney ((uint8_t *)out_entry) + entrysize, 20922529f56eSJonathan T. Looney sizeof(struct tcp_log_buffer) - entrysize); 20932529f56eSJonathan T. Looney } 20942529f56eSJonathan T. Looney 20952529f56eSJonathan T. Looney /* 20962529f56eSJonathan T. Looney * Copy out the verbose bit, if needed. Either way, 20972529f56eSJonathan T. Looney * increment the output pointer the correct amount. 20982529f56eSJonathan T. Looney */ 20992529f56eSJonathan T. Looney if (log_entry->tlm_buf.tlb_eventflags & TLB_FLAG_VERBOSE) { 21002529f56eSJonathan T. Looney error = tcp_log_copyout(sopt, &log_entry->tlm_v, 21012529f56eSJonathan T. Looney out_entry->tlb_verbose, 21022529f56eSJonathan T. Looney sizeof(struct tcp_log_verbose)); 21032529f56eSJonathan T. Looney if (error) 21042529f56eSJonathan T. Looney break; 21052529f56eSJonathan T. Looney out_entry = (struct tcp_log_buffer *) 21062529f56eSJonathan T. Looney (((uint8_t *) (out_entry + 1)) + 21072529f56eSJonathan T. Looney sizeof(struct tcp_log_verbose)); 21082529f56eSJonathan T. Looney } else 21092529f56eSJonathan T. Looney out_entry++; 21102529f56eSJonathan T. Looney } 21112529f56eSJonathan T. Looney *end = out_entry; 21122529f56eSJonathan T. Looney KASSERT(error || count == 0, 21132529f56eSJonathan T. Looney ("%s:%d: Less than expected count (%d) processing list %p" 21142529f56eSJonathan T. Looney " (%d remain)", __func__, __LINE__, orig_count, 21152529f56eSJonathan T. Looney log_tailqp, count)); 21162529f56eSJonathan T. Looney 21172529f56eSJonathan T. Looney return (error); 21182529f56eSJonathan T. Looney } 21192529f56eSJonathan T. Looney 21202529f56eSJonathan T. Looney /* 21212529f56eSJonathan T. Looney * Copy out the buffer. Note that we do incremental copying, so 21222529f56eSJonathan T. Looney * sooptcopyout() won't work. However, the goal is to produce the same 21232529f56eSJonathan T. Looney * end result as if we copied in the entire user buffer, updated it, 21242529f56eSJonathan T. Looney * and then used sooptcopyout() to copy it out. 21252529f56eSJonathan T. Looney * 21262529f56eSJonathan T. Looney * NOTE: This should be called with a write lock on the PCB; however, 21272529f56eSJonathan T. Looney * the function will drop it after it extracts the data from the TCPCB. 21282529f56eSJonathan T. Looney */ 21292529f56eSJonathan T. Looney int 21302529f56eSJonathan T. Looney tcp_log_getlogbuf(struct sockopt *sopt, struct tcpcb *tp) 21312529f56eSJonathan T. Looney { 21322529f56eSJonathan T. Looney struct tcp_log_stailq log_tailq; 21332529f56eSJonathan T. Looney struct tcp_log_mem *log_entry, *log_next; 21342529f56eSJonathan T. Looney struct tcp_log_buffer *out_entry; 21359eb0e832SGleb Smirnoff struct inpcb *inp = tptoinpcb(tp); 21362529f56eSJonathan T. Looney size_t outsize, entrysize; 21372529f56eSJonathan T. Looney int error, outnum; 21382529f56eSJonathan T. Looney 21399eb0e832SGleb Smirnoff INP_WLOCK_ASSERT(inp); 21402529f56eSJonathan T. Looney 21412529f56eSJonathan T. Looney /* 21422529f56eSJonathan T. Looney * Determine which log entries will fit in the buffer. As an 21432529f56eSJonathan T. Looney * optimization, skip this if all the entries will clearly fit 21442529f56eSJonathan T. Looney * in the buffer. (However, get an exact size if we are using 21452529f56eSJonathan T. Looney * INVARIANTS.) 21462529f56eSJonathan T. Looney */ 21472529f56eSJonathan T. Looney #ifndef INVARIANTS 21482529f56eSJonathan T. Looney if (sopt->sopt_valsize / (sizeof(struct tcp_log_buffer) + 21492529f56eSJonathan T. Looney sizeof(struct tcp_log_verbose)) >= tp->t_lognum) { 21502529f56eSJonathan T. Looney log_entry = STAILQ_LAST(&tp->t_logs, tcp_log_mem, tlm_queue); 21512529f56eSJonathan T. Looney log_next = NULL; 21522529f56eSJonathan T. Looney outsize = 0; 21532529f56eSJonathan T. Looney outnum = tp->t_lognum; 21542529f56eSJonathan T. Looney } else { 21552529f56eSJonathan T. Looney #endif 21562529f56eSJonathan T. Looney outsize = outnum = 0; 21572529f56eSJonathan T. Looney log_entry = NULL; 21582529f56eSJonathan T. Looney STAILQ_FOREACH(log_next, &tp->t_logs, tlm_queue) { 21592529f56eSJonathan T. Looney entrysize = sizeof(struct tcp_log_buffer); 21602529f56eSJonathan T. Looney if (log_next->tlm_buf.tlb_eventflags & 21612529f56eSJonathan T. Looney TLB_FLAG_VERBOSE) 21622529f56eSJonathan T. Looney entrysize += sizeof(struct tcp_log_verbose); 21632529f56eSJonathan T. Looney if ((sopt->sopt_valsize - outsize) < entrysize) 21642529f56eSJonathan T. Looney break; 21652529f56eSJonathan T. Looney outsize += entrysize; 21662529f56eSJonathan T. Looney outnum++; 21672529f56eSJonathan T. Looney log_entry = log_next; 21682529f56eSJonathan T. Looney } 21692529f56eSJonathan T. Looney KASSERT(outsize <= sopt->sopt_valsize, 21702529f56eSJonathan T. Looney ("%s: calculated output size (%zu) greater than available" 21712529f56eSJonathan T. Looney "space (%zu)", __func__, outsize, sopt->sopt_valsize)); 21722529f56eSJonathan T. Looney #ifndef INVARIANTS 21732529f56eSJonathan T. Looney } 21742529f56eSJonathan T. Looney #endif 21752529f56eSJonathan T. Looney 21762529f56eSJonathan T. Looney /* 21772529f56eSJonathan T. Looney * Copy traditional sooptcopyout() behavior: if sopt->sopt_val 21782529f56eSJonathan T. Looney * is NULL, silently skip the copy. However, in this case, we 21792529f56eSJonathan T. Looney * will leave the list alone and return. Functionally, this 21802529f56eSJonathan T. Looney * gives userspace a way to poll for an approximate buffer 21812529f56eSJonathan T. Looney * size they will need to get the log entries. 21822529f56eSJonathan T. Looney */ 21832529f56eSJonathan T. Looney if (sopt->sopt_val == NULL) { 21842529f56eSJonathan T. Looney INP_WUNLOCK(inp); 21852529f56eSJonathan T. Looney if (outsize == 0) { 21862529f56eSJonathan T. Looney outsize = outnum * (sizeof(struct tcp_log_buffer) + 21872529f56eSJonathan T. Looney sizeof(struct tcp_log_verbose)); 21882529f56eSJonathan T. Looney } 21892529f56eSJonathan T. Looney if (sopt->sopt_valsize > outsize) 21902529f56eSJonathan T. Looney sopt->sopt_valsize = outsize; 21912529f56eSJonathan T. Looney return (0); 21922529f56eSJonathan T. Looney } 21932529f56eSJonathan T. Looney 21942529f56eSJonathan T. Looney /* 21952529f56eSJonathan T. Looney * Break apart the list. We'll save the ones we want to copy 21962529f56eSJonathan T. Looney * out locally and remove them from the TCPCB list. We can 21972529f56eSJonathan T. Looney * then drop the INPCB lock while we do the copyout. 21982529f56eSJonathan T. Looney * 21992529f56eSJonathan T. Looney * There are roughly three cases: 22002529f56eSJonathan T. Looney * 1. There was nothing to copy out. That's easy: drop the 22012529f56eSJonathan T. Looney * lock and return. 22022529f56eSJonathan T. Looney * 2. We are copying out the entire list. Again, that's easy: 22032529f56eSJonathan T. Looney * move the whole list. 22042529f56eSJonathan T. Looney * 3. We are copying out a partial list. That's harder. We 22052529f56eSJonathan T. Looney * need to update the list book-keeping entries. 22062529f56eSJonathan T. Looney */ 22072529f56eSJonathan T. Looney if (log_entry != NULL && log_next == NULL) { 22082529f56eSJonathan T. Looney /* Move entire list. */ 22092529f56eSJonathan T. Looney KASSERT(outnum == tp->t_lognum, 22102529f56eSJonathan T. Looney ("%s:%d: outnum (%d) should match tp->t_lognum (%d)", 22112529f56eSJonathan T. Looney __func__, __LINE__, outnum, tp->t_lognum)); 22122529f56eSJonathan T. Looney log_tailq = tp->t_logs; 22132529f56eSJonathan T. Looney tp->t_lognum = 0; 22142529f56eSJonathan T. Looney STAILQ_INIT(&tp->t_logs); 22152529f56eSJonathan T. Looney } else if (log_entry != NULL) { 22162529f56eSJonathan T. Looney /* Move partial list. */ 22172529f56eSJonathan T. Looney KASSERT(outnum < tp->t_lognum, 22182529f56eSJonathan T. Looney ("%s:%d: outnum (%d) not less than tp->t_lognum (%d)", 22192529f56eSJonathan T. Looney __func__, __LINE__, outnum, tp->t_lognum)); 22202529f56eSJonathan T. Looney STAILQ_FIRST(&log_tailq) = STAILQ_FIRST(&tp->t_logs); 22212529f56eSJonathan T. Looney STAILQ_FIRST(&tp->t_logs) = STAILQ_NEXT(log_entry, tlm_queue); 22222529f56eSJonathan T. Looney KASSERT(STAILQ_NEXT(log_entry, tlm_queue) != NULL, 22232529f56eSJonathan T. Looney ("%s:%d: tp->t_logs is unexpectedly shorter than expected" 22242529f56eSJonathan T. Looney "(tp: %p, log_tailq: %p, outnum: %d, tp->t_lognum: %d)", 22252529f56eSJonathan T. Looney __func__, __LINE__, tp, &log_tailq, outnum, tp->t_lognum)); 22262529f56eSJonathan T. Looney STAILQ_NEXT(log_entry, tlm_queue) = NULL; 22272529f56eSJonathan T. Looney log_tailq.stqh_last = &STAILQ_NEXT(log_entry, tlm_queue); 22282529f56eSJonathan T. Looney tp->t_lognum -= outnum; 22292529f56eSJonathan T. Looney } else 22302529f56eSJonathan T. Looney STAILQ_INIT(&log_tailq); 22312529f56eSJonathan T. Looney 22322529f56eSJonathan T. Looney /* Drop the PCB lock. */ 22332529f56eSJonathan T. Looney INP_WUNLOCK(inp); 22342529f56eSJonathan T. Looney 22352529f56eSJonathan T. Looney /* Copy the data out. */ 22362529f56eSJonathan T. Looney error = tcp_log_logs_to_buf(sopt, &log_tailq, &out_entry, outnum); 22372529f56eSJonathan T. Looney 22382529f56eSJonathan T. Looney if (error) { 22392529f56eSJonathan T. Looney /* Restore list */ 22402529f56eSJonathan T. Looney INP_WLOCK(inp); 224153af6903SGleb Smirnoff if ((inp->inp_flags & INP_DROPPED) == 0) { 22422529f56eSJonathan T. Looney tp = intotcpcb(inp); 22432529f56eSJonathan T. Looney 22442529f56eSJonathan T. Looney /* Merge the two lists. */ 22452529f56eSJonathan T. Looney STAILQ_CONCAT(&log_tailq, &tp->t_logs); 22462529f56eSJonathan T. Looney tp->t_logs = log_tailq; 22472529f56eSJonathan T. Looney tp->t_lognum += outnum; 22482529f56eSJonathan T. Looney } 22492529f56eSJonathan T. Looney INP_WUNLOCK(inp); 22502529f56eSJonathan T. Looney } else { 22512529f56eSJonathan T. Looney /* Sanity check entries */ 22522529f56eSJonathan T. Looney KASSERT(((caddr_t)out_entry - (caddr_t)sopt->sopt_val) == 22532529f56eSJonathan T. Looney outsize, ("%s: Actual output size (%zu) != " 22542529f56eSJonathan T. Looney "calculated output size (%zu)", __func__, 22552529f56eSJonathan T. Looney (size_t)((caddr_t)out_entry - (caddr_t)sopt->sopt_val), 22562529f56eSJonathan T. Looney outsize)); 22572529f56eSJonathan T. Looney 22582529f56eSJonathan T. Looney /* Free the entries we just copied out. */ 22592529f56eSJonathan T. Looney STAILQ_FOREACH_SAFE(log_entry, &log_tailq, tlm_queue, log_next) { 22602529f56eSJonathan T. Looney tcp_log_entry_refcnt_rem(log_entry); 22612529f56eSJonathan T. Looney uma_zfree(tcp_log_zone, log_entry); 22622529f56eSJonathan T. Looney } 22632529f56eSJonathan T. Looney } 22642529f56eSJonathan T. Looney 22652529f56eSJonathan T. Looney sopt->sopt_valsize = (size_t)((caddr_t)out_entry - 22662529f56eSJonathan T. Looney (caddr_t)sopt->sopt_val); 22672529f56eSJonathan T. Looney return (error); 22682529f56eSJonathan T. Looney } 22692529f56eSJonathan T. Looney 22702529f56eSJonathan T. Looney static void 22712529f56eSJonathan T. Looney tcp_log_free_queue(struct tcp_log_dev_queue *param) 22722529f56eSJonathan T. Looney { 22732529f56eSJonathan T. Looney struct tcp_log_dev_log_queue *entry; 22742529f56eSJonathan T. Looney 22752529f56eSJonathan T. Looney KASSERT(param != NULL, ("%s: called with NULL param", __func__)); 22762529f56eSJonathan T. Looney if (param == NULL) 22772529f56eSJonathan T. Looney return; 22782529f56eSJonathan T. Looney 22792529f56eSJonathan T. Looney entry = (struct tcp_log_dev_log_queue *)param; 22802529f56eSJonathan T. Looney 22812529f56eSJonathan T. Looney /* Free the entries. */ 22822529f56eSJonathan T. Looney tcp_log_free_entries(&entry->tldl_entries, &entry->tldl_count); 22832529f56eSJonathan T. Looney 22842529f56eSJonathan T. Looney /* Free the buffer, if it is allocated. */ 22852529f56eSJonathan T. Looney if (entry->tldl_common.tldq_buf != NULL) 22862529f56eSJonathan T. Looney free(entry->tldl_common.tldq_buf, M_TCPLOGDEV); 22872529f56eSJonathan T. Looney 22882529f56eSJonathan T. Looney /* Free the queue entry. */ 22892529f56eSJonathan T. Looney free(entry, M_TCPLOGDEV); 22902529f56eSJonathan T. Looney } 22912529f56eSJonathan T. Looney 22922529f56eSJonathan T. Looney static struct tcp_log_common_header * 22932529f56eSJonathan T. Looney tcp_log_expandlogbuf(struct tcp_log_dev_queue *param) 22942529f56eSJonathan T. Looney { 22952529f56eSJonathan T. Looney struct tcp_log_dev_log_queue *entry; 22962529f56eSJonathan T. Looney struct tcp_log_header *hdr; 22972529f56eSJonathan T. Looney uint8_t *end; 22982529f56eSJonathan T. Looney struct sockopt sopt; 22992529f56eSJonathan T. Looney int error; 23002529f56eSJonathan T. Looney 23012529f56eSJonathan T. Looney entry = (struct tcp_log_dev_log_queue *)param; 23022529f56eSJonathan T. Looney 23032529f56eSJonathan T. Looney /* Take a worst-case guess at space needs. */ 23042529f56eSJonathan T. Looney sopt.sopt_valsize = sizeof(struct tcp_log_header) + 23052529f56eSJonathan T. Looney entry->tldl_count * (sizeof(struct tcp_log_buffer) + 23062529f56eSJonathan T. Looney sizeof(struct tcp_log_verbose)); 23072529f56eSJonathan T. Looney hdr = malloc(sopt.sopt_valsize, M_TCPLOGDEV, M_NOWAIT); 23082529f56eSJonathan T. Looney if (hdr == NULL) { 23092529f56eSJonathan T. Looney #ifdef TCPLOG_DEBUG_COUNTERS 23102529f56eSJonathan T. Looney counter_u64_add(tcp_log_que_fail5, entry->tldl_count); 23112529f56eSJonathan T. Looney #endif 23122529f56eSJonathan T. Looney return (NULL); 23132529f56eSJonathan T. Looney } 23142529f56eSJonathan T. Looney sopt.sopt_val = hdr + 1; 23152529f56eSJonathan T. Looney sopt.sopt_valsize -= sizeof(struct tcp_log_header); 23162529f56eSJonathan T. Looney sopt.sopt_td = NULL; 23172529f56eSJonathan T. Looney 23182529f56eSJonathan T. Looney error = tcp_log_logs_to_buf(&sopt, &entry->tldl_entries, 23192529f56eSJonathan T. Looney (struct tcp_log_buffer **)&end, entry->tldl_count); 23202529f56eSJonathan T. Looney if (error) { 23212529f56eSJonathan T. Looney free(hdr, M_TCPLOGDEV); 23222529f56eSJonathan T. Looney return (NULL); 23232529f56eSJonathan T. Looney } 23242529f56eSJonathan T. Looney 23252529f56eSJonathan T. Looney /* Free the entries. */ 23262529f56eSJonathan T. Looney tcp_log_free_entries(&entry->tldl_entries, &entry->tldl_count); 23272529f56eSJonathan T. Looney entry->tldl_count = 0; 23282529f56eSJonathan T. Looney 23292529f56eSJonathan T. Looney memset(hdr, 0, sizeof(struct tcp_log_header)); 23302529f56eSJonathan T. Looney hdr->tlh_version = TCP_LOG_BUF_VER; 23312529f56eSJonathan T. Looney hdr->tlh_type = TCP_LOG_DEV_TYPE_BBR; 23322529f56eSJonathan T. Looney hdr->tlh_length = end - (uint8_t *)hdr; 23332529f56eSJonathan T. Looney hdr->tlh_ie = entry->tldl_ie; 23342529f56eSJonathan T. Looney hdr->tlh_af = entry->tldl_af; 23352529f56eSJonathan T. Looney getboottime(&hdr->tlh_offset); 23362529f56eSJonathan T. Looney strlcpy(hdr->tlh_id, entry->tldl_id, TCP_LOG_ID_LEN); 2337a9a08eceSRandall Stewart strlcpy(hdr->tlh_tag, entry->tldl_tag, TCP_LOG_TAG_LEN); 23382529f56eSJonathan T. Looney strlcpy(hdr->tlh_reason, entry->tldl_reason, TCP_LOG_REASON_LEN); 23392529f56eSJonathan T. Looney return ((struct tcp_log_common_header *)hdr); 23402529f56eSJonathan T. Looney } 23412529f56eSJonathan T. Looney 23422529f56eSJonathan T. Looney /* 23432529f56eSJonathan T. Looney * Queue the tcpcb's log buffer for transmission via the log buffer facility. 23442529f56eSJonathan T. Looney * 23452529f56eSJonathan T. Looney * NOTE: This should be called with a write lock on the PCB. 23462529f56eSJonathan T. Looney * 23472529f56eSJonathan T. Looney * how should be M_WAITOK or M_NOWAIT. If M_WAITOK, the function will drop 23482529f56eSJonathan T. Looney * and reacquire the INP lock if it needs to do so. 23492529f56eSJonathan T. Looney * 23502529f56eSJonathan T. Looney * If force is false, this will only dump auto-logged sessions if 23512529f56eSJonathan T. Looney * tcp_log_auto_all is true or if there is a log ID defined for the session. 23522529f56eSJonathan T. Looney */ 23532529f56eSJonathan T. Looney int 23542529f56eSJonathan T. Looney tcp_log_dump_tp_logbuf(struct tcpcb *tp, char *reason, int how, bool force) 23552529f56eSJonathan T. Looney { 23562529f56eSJonathan T. Looney struct tcp_log_dev_log_queue *entry; 23579eb0e832SGleb Smirnoff struct inpcb *inp = tptoinpcb(tp); 23582529f56eSJonathan T. Looney #ifdef TCPLOG_DEBUG_COUNTERS 23592529f56eSJonathan T. Looney int num_entries; 23602529f56eSJonathan T. Looney #endif 23612529f56eSJonathan T. Looney 23622529f56eSJonathan T. Looney INP_WLOCK_ASSERT(inp); 23632529f56eSJonathan T. Looney 23642529f56eSJonathan T. Looney /* If there are no log entries, there is nothing to do. */ 23652529f56eSJonathan T. Looney if (tp->t_lognum == 0) 23662529f56eSJonathan T. Looney return (0); 23672529f56eSJonathan T. Looney 23682529f56eSJonathan T. Looney /* Check for a log ID. */ 23692529f56eSJonathan T. Looney if (tp->t_lib == NULL && (tp->t_flags2 & TF2_LOG_AUTO) && 23702529f56eSJonathan T. Looney !tcp_log_auto_all && !force) { 23712529f56eSJonathan T. Looney struct tcp_log_mem *log_entry; 23722529f56eSJonathan T. Looney 23732529f56eSJonathan T. Looney /* 23742529f56eSJonathan T. Looney * We needed a log ID and none was found. Free the log entries 23752529f56eSJonathan T. Looney * and return success. Also, cancel further logging. If the 23762529f56eSJonathan T. Looney * session doesn't have a log ID by now, we'll assume it isn't 23772529f56eSJonathan T. Looney * going to get one. 23782529f56eSJonathan T. Looney */ 23792529f56eSJonathan T. Looney while ((log_entry = STAILQ_FIRST(&tp->t_logs)) != NULL) 23802529f56eSJonathan T. Looney tcp_log_remove_log_head(tp, log_entry); 23812529f56eSJonathan T. Looney KASSERT(tp->t_lognum == 0, 23822529f56eSJonathan T. Looney ("%s: After freeing entries, tp->t_lognum=%d (expected 0)", 23832529f56eSJonathan T. Looney __func__, tp->t_lognum)); 2384*69c7c811SRandall Stewart tp->_t_logstate = TCP_LOG_STATE_OFF; 23852529f56eSJonathan T. Looney return (0); 23862529f56eSJonathan T. Looney } 23872529f56eSJonathan T. Looney 23882529f56eSJonathan T. Looney /* 23892529f56eSJonathan T. Looney * Allocate memory. If we must wait, we'll need to drop the locks 23902529f56eSJonathan T. Looney * and reacquire them (and do all the related business that goes 23912529f56eSJonathan T. Looney * along with that). 23922529f56eSJonathan T. Looney */ 23932529f56eSJonathan T. Looney entry = malloc(sizeof(struct tcp_log_dev_log_queue), M_TCPLOGDEV, 23942529f56eSJonathan T. Looney M_NOWAIT); 23952529f56eSJonathan T. Looney if (entry == NULL && (how & M_NOWAIT)) { 23962529f56eSJonathan T. Looney #ifdef TCPLOG_DEBUG_COUNTERS 23972529f56eSJonathan T. Looney counter_u64_add(tcp_log_que_fail3, 1); 23982529f56eSJonathan T. Looney #endif 23992529f56eSJonathan T. Looney return (ENOBUFS); 24002529f56eSJonathan T. Looney } 24012529f56eSJonathan T. Looney if (entry == NULL) { 24022529f56eSJonathan T. Looney INP_WUNLOCK(inp); 24032529f56eSJonathan T. Looney entry = malloc(sizeof(struct tcp_log_dev_log_queue), 24042529f56eSJonathan T. Looney M_TCPLOGDEV, M_WAITOK); 24052529f56eSJonathan T. Looney INP_WLOCK(inp); 24062529f56eSJonathan T. Looney /* 24072529f56eSJonathan T. Looney * Note that this check is slightly overly-restrictive in 24082529f56eSJonathan T. Looney * that the TCB can survive either of these events. 24092529f56eSJonathan T. Looney * However, there is currently not a good way to ensure 24102529f56eSJonathan T. Looney * that is the case. So, if we hit this M_WAIT path, we 24112529f56eSJonathan T. Looney * may end up dropping some entries. That seems like a 24122529f56eSJonathan T. Looney * small price to pay for safety. 24132529f56eSJonathan T. Looney */ 241453af6903SGleb Smirnoff if (inp->inp_flags & INP_DROPPED) { 24152529f56eSJonathan T. Looney free(entry, M_TCPLOGDEV); 24162529f56eSJonathan T. Looney #ifdef TCPLOG_DEBUG_COUNTERS 24172529f56eSJonathan T. Looney counter_u64_add(tcp_log_que_fail2, 1); 24182529f56eSJonathan T. Looney #endif 24192529f56eSJonathan T. Looney return (ECONNRESET); 24202529f56eSJonathan T. Looney } 24212529f56eSJonathan T. Looney tp = intotcpcb(inp); 24222529f56eSJonathan T. Looney if (tp->t_lognum == 0) { 24232529f56eSJonathan T. Looney free(entry, M_TCPLOGDEV); 24242529f56eSJonathan T. Looney return (0); 24252529f56eSJonathan T. Looney } 24262529f56eSJonathan T. Looney } 24272529f56eSJonathan T. Looney 24282529f56eSJonathan T. Looney /* Fill in the unique parts of the queue entry. */ 2429a9a08eceSRandall Stewart if (tp->t_lib != NULL) { 24302529f56eSJonathan T. Looney strlcpy(entry->tldl_id, tp->t_lib->tlb_id, TCP_LOG_ID_LEN); 2431a9a08eceSRandall Stewart strlcpy(entry->tldl_tag, tp->t_lib->tlb_tag, TCP_LOG_TAG_LEN); 2432a9a08eceSRandall Stewart } else { 24332529f56eSJonathan T. Looney strlcpy(entry->tldl_id, "UNKNOWN", TCP_LOG_ID_LEN); 2434a9a08eceSRandall Stewart strlcpy(entry->tldl_tag, "UNKNOWN", TCP_LOG_TAG_LEN); 2435a9a08eceSRandall Stewart } 24362529f56eSJonathan T. Looney if (reason != NULL) 24372529f56eSJonathan T. Looney strlcpy(entry->tldl_reason, reason, TCP_LOG_REASON_LEN); 24382529f56eSJonathan T. Looney else 24392529f56eSJonathan T. Looney strlcpy(entry->tldl_reason, "UNKNOWN", TCP_LOG_ID_LEN); 24402529f56eSJonathan T. Looney entry->tldl_ie = inp->inp_inc.inc_ie; 24412529f56eSJonathan T. Looney if (inp->inp_inc.inc_flags & INC_ISIPV6) 24422529f56eSJonathan T. Looney entry->tldl_af = AF_INET6; 24432529f56eSJonathan T. Looney else 24442529f56eSJonathan T. Looney entry->tldl_af = AF_INET; 24452529f56eSJonathan T. Looney entry->tldl_entries = tp->t_logs; 24462529f56eSJonathan T. Looney entry->tldl_count = tp->t_lognum; 24472529f56eSJonathan T. Looney 24482529f56eSJonathan T. Looney /* Fill in the common parts of the queue entry. */ 24492529f56eSJonathan T. Looney entry->tldl_common.tldq_buf = NULL; 24502529f56eSJonathan T. Looney entry->tldl_common.tldq_xform = tcp_log_expandlogbuf; 24512529f56eSJonathan T. Looney entry->tldl_common.tldq_dtor = tcp_log_free_queue; 24522529f56eSJonathan T. Looney 24532529f56eSJonathan T. Looney /* Clear the log data from the TCPCB. */ 24542529f56eSJonathan T. Looney #ifdef TCPLOG_DEBUG_COUNTERS 24552529f56eSJonathan T. Looney num_entries = tp->t_lognum; 24562529f56eSJonathan T. Looney #endif 24572529f56eSJonathan T. Looney tp->t_lognum = 0; 24582529f56eSJonathan T. Looney STAILQ_INIT(&tp->t_logs); 24592529f56eSJonathan T. Looney 24602529f56eSJonathan T. Looney /* Add the entry. If no one is listening, free the entry. */ 24612529f56eSJonathan T. Looney if (tcp_log_dev_add_log((struct tcp_log_dev_queue *)entry)) { 24622529f56eSJonathan T. Looney tcp_log_free_queue((struct tcp_log_dev_queue *)entry); 24632529f56eSJonathan T. Looney #ifdef TCPLOG_DEBUG_COUNTERS 24642529f56eSJonathan T. Looney counter_u64_add(tcp_log_que_fail1, num_entries); 24652529f56eSJonathan T. Looney } else { 24662529f56eSJonathan T. Looney counter_u64_add(tcp_log_queued, num_entries); 24672529f56eSJonathan T. Looney #endif 24682529f56eSJonathan T. Looney } 24692529f56eSJonathan T. Looney return (0); 24702529f56eSJonathan T. Looney } 24712529f56eSJonathan T. Looney 24722529f56eSJonathan T. Looney /* 24732529f56eSJonathan T. Looney * Queue the log_id_node's log buffers for transmission via the log buffer 24742529f56eSJonathan T. Looney * facility. 24752529f56eSJonathan T. Looney * 24762529f56eSJonathan T. Looney * NOTE: This should be called with the bucket locked and referenced. 24772529f56eSJonathan T. Looney * 24782529f56eSJonathan T. Looney * how should be M_WAITOK or M_NOWAIT. If M_WAITOK, the function will drop 24792529f56eSJonathan T. Looney * and reacquire the bucket lock if it needs to do so. (The caller must 24802529f56eSJonathan T. Looney * ensure that the tln is no longer on any lists so no one else will mess 24812529f56eSJonathan T. Looney * with this while the lock is dropped!) 24822529f56eSJonathan T. Looney */ 24832529f56eSJonathan T. Looney static int 24842529f56eSJonathan T. Looney tcp_log_dump_node_logbuf(struct tcp_log_id_node *tln, char *reason, int how) 24852529f56eSJonathan T. Looney { 24862529f56eSJonathan T. Looney struct tcp_log_dev_log_queue *entry; 24872529f56eSJonathan T. Looney struct tcp_log_id_bucket *tlb; 24882529f56eSJonathan T. Looney 24892529f56eSJonathan T. Looney tlb = tln->tln_bucket; 24902529f56eSJonathan T. Looney TCPID_BUCKET_LOCK_ASSERT(tlb); 24912529f56eSJonathan T. Looney KASSERT(tlb->tlb_refcnt > 0, 24922529f56eSJonathan T. Looney ("%s:%d: Called with unreferenced bucket (tln=%p, tlb=%p)", 24932529f56eSJonathan T. Looney __func__, __LINE__, tln, tlb)); 24942529f56eSJonathan T. Looney KASSERT(tln->tln_closed, 24952529f56eSJonathan T. Looney ("%s:%d: Called for node with tln_closed==false (tln=%p)", 24962529f56eSJonathan T. Looney __func__, __LINE__, tln)); 24972529f56eSJonathan T. Looney 24982529f56eSJonathan T. Looney /* If there are no log entries, there is nothing to do. */ 24992529f56eSJonathan T. Looney if (tln->tln_count == 0) 25002529f56eSJonathan T. Looney return (0); 25012529f56eSJonathan T. Looney 25022529f56eSJonathan T. Looney /* 25032529f56eSJonathan T. Looney * Allocate memory. If we must wait, we'll need to drop the locks 25042529f56eSJonathan T. Looney * and reacquire them (and do all the related business that goes 25052529f56eSJonathan T. Looney * along with that). 25062529f56eSJonathan T. Looney */ 25072529f56eSJonathan T. Looney entry = malloc(sizeof(struct tcp_log_dev_log_queue), M_TCPLOGDEV, 25082529f56eSJonathan T. Looney M_NOWAIT); 25092529f56eSJonathan T. Looney if (entry == NULL && (how & M_NOWAIT)) 25102529f56eSJonathan T. Looney return (ENOBUFS); 25112529f56eSJonathan T. Looney if (entry == NULL) { 25122529f56eSJonathan T. Looney TCPID_BUCKET_UNLOCK(tlb); 25132529f56eSJonathan T. Looney entry = malloc(sizeof(struct tcp_log_dev_log_queue), 25142529f56eSJonathan T. Looney M_TCPLOGDEV, M_WAITOK); 25152529f56eSJonathan T. Looney TCPID_BUCKET_LOCK(tlb); 25162529f56eSJonathan T. Looney } 25172529f56eSJonathan T. Looney 25182529f56eSJonathan T. Looney /* Fill in the common parts of the queue entry.. */ 25192529f56eSJonathan T. Looney entry->tldl_common.tldq_buf = NULL; 25202529f56eSJonathan T. Looney entry->tldl_common.tldq_xform = tcp_log_expandlogbuf; 25212529f56eSJonathan T. Looney entry->tldl_common.tldq_dtor = tcp_log_free_queue; 25222529f56eSJonathan T. Looney 25232529f56eSJonathan T. Looney /* Fill in the unique parts of the queue entry. */ 25242529f56eSJonathan T. Looney strlcpy(entry->tldl_id, tlb->tlb_id, TCP_LOG_ID_LEN); 2525a9a08eceSRandall Stewart strlcpy(entry->tldl_tag, tlb->tlb_tag, TCP_LOG_TAG_LEN); 25262529f56eSJonathan T. Looney if (reason != NULL) 25272529f56eSJonathan T. Looney strlcpy(entry->tldl_reason, reason, TCP_LOG_REASON_LEN); 25282529f56eSJonathan T. Looney else 25292529f56eSJonathan T. Looney strlcpy(entry->tldl_reason, "UNKNOWN", TCP_LOG_ID_LEN); 25302529f56eSJonathan T. Looney entry->tldl_ie = tln->tln_ie; 25312529f56eSJonathan T. Looney entry->tldl_entries = tln->tln_entries; 25322529f56eSJonathan T. Looney entry->tldl_count = tln->tln_count; 25332529f56eSJonathan T. Looney entry->tldl_af = tln->tln_af; 25342529f56eSJonathan T. Looney 25352529f56eSJonathan T. Looney /* Add the entry. If no one is listening, free the entry. */ 25362529f56eSJonathan T. Looney if (tcp_log_dev_add_log((struct tcp_log_dev_queue *)entry)) 25372529f56eSJonathan T. Looney tcp_log_free_queue((struct tcp_log_dev_queue *)entry); 25382529f56eSJonathan T. Looney 25392529f56eSJonathan T. Looney return (0); 25402529f56eSJonathan T. Looney } 25412529f56eSJonathan T. Looney 25422529f56eSJonathan T. Looney /* 25432529f56eSJonathan T. Looney * Queue the log buffers for all sessions in a bucket for transmissions via 25442529f56eSJonathan T. Looney * the log buffer facility. 25452529f56eSJonathan T. Looney * 25462529f56eSJonathan T. Looney * NOTE: This should be called with a locked bucket; however, the function 25472529f56eSJonathan T. Looney * will drop the lock. 25482529f56eSJonathan T. Looney */ 25492529f56eSJonathan T. Looney #define LOCAL_SAVE 10 25502529f56eSJonathan T. Looney static void 25512529f56eSJonathan T. Looney tcp_log_dumpbucketlogs(struct tcp_log_id_bucket *tlb, char *reason) 25522529f56eSJonathan T. Looney { 25532529f56eSJonathan T. Looney struct tcp_log_id_node local_entries[LOCAL_SAVE]; 25542529f56eSJonathan T. Looney struct inpcb *inp; 25552529f56eSJonathan T. Looney struct tcpcb *tp; 25562529f56eSJonathan T. Looney struct tcp_log_id_node *cur_tln, *prev_tln, *tmp_tln; 25572529f56eSJonathan T. Looney int i, num_local_entries, tree_locked; 25582529f56eSJonathan T. Looney bool expireq_locked; 25592529f56eSJonathan T. Looney 25602529f56eSJonathan T. Looney TCPID_BUCKET_LOCK_ASSERT(tlb); 25612529f56eSJonathan T. Looney 25622529f56eSJonathan T. Looney /* 25632529f56eSJonathan T. Looney * Take a reference on the bucket to keep it from disappearing until 25642529f56eSJonathan T. Looney * we are done. 25652529f56eSJonathan T. Looney */ 25662529f56eSJonathan T. Looney TCPID_BUCKET_REF(tlb); 25672529f56eSJonathan T. Looney 25682529f56eSJonathan T. Looney /* 25692529f56eSJonathan T. Looney * We'll try to create these without dropping locks. However, we 25702529f56eSJonathan T. Looney * might very well need to drop locks to get memory. If that's the 25712529f56eSJonathan T. Looney * case, we'll save up to 10 on the stack, and sacrifice the rest. 25722529f56eSJonathan T. Looney * (Otherwise, we need to worry about finding our place again in a 25732529f56eSJonathan T. Looney * potentially changed list. It just doesn't seem worth the trouble 25742529f56eSJonathan T. Looney * to do that. 25752529f56eSJonathan T. Looney */ 25762529f56eSJonathan T. Looney expireq_locked = false; 25772529f56eSJonathan T. Looney num_local_entries = 0; 25782529f56eSJonathan T. Looney prev_tln = NULL; 25792529f56eSJonathan T. Looney tree_locked = TREE_UNLOCKED; 25802529f56eSJonathan T. Looney SLIST_FOREACH_SAFE(cur_tln, &tlb->tlb_head, tln_list, tmp_tln) { 25812529f56eSJonathan T. Looney /* 25822529f56eSJonathan T. Looney * If this isn't associated with a TCPCB, we can pull it off 25832529f56eSJonathan T. Looney * the list now. We need to be careful that the expire timer 25842529f56eSJonathan T. Looney * hasn't already taken ownership (tln_expiretime == SBT_MAX). 25852529f56eSJonathan T. Looney * If so, we let the expire timer code free the data. 25862529f56eSJonathan T. Looney */ 25872529f56eSJonathan T. Looney if (cur_tln->tln_closed) { 25882529f56eSJonathan T. Looney no_inp: 25892529f56eSJonathan T. Looney /* 25902529f56eSJonathan T. Looney * Get the expireq lock so we can get a consistent 25912529f56eSJonathan T. Looney * read of tln_expiretime and so we can remove this 25922529f56eSJonathan T. Looney * from the expireq. 25932529f56eSJonathan T. Looney */ 25942529f56eSJonathan T. Looney if (!expireq_locked) { 25952529f56eSJonathan T. Looney TCPLOG_EXPIREQ_LOCK(); 25962529f56eSJonathan T. Looney expireq_locked = true; 25972529f56eSJonathan T. Looney } 25982529f56eSJonathan T. Looney 25992529f56eSJonathan T. Looney /* 26002529f56eSJonathan T. Looney * We ignore entries with tln_expiretime == SBT_MAX. 26012529f56eSJonathan T. Looney * The expire timer code already owns those. 26022529f56eSJonathan T. Looney */ 26032529f56eSJonathan T. Looney KASSERT(cur_tln->tln_expiretime > (sbintime_t) 0, 26042529f56eSJonathan T. Looney ("%s:%d: node on the expire queue without positive " 26052529f56eSJonathan T. Looney "expire time", __func__, __LINE__)); 26062529f56eSJonathan T. Looney if (cur_tln->tln_expiretime == SBT_MAX) { 26072529f56eSJonathan T. Looney prev_tln = cur_tln; 26082529f56eSJonathan T. Looney continue; 26092529f56eSJonathan T. Looney } 26102529f56eSJonathan T. Looney 26112529f56eSJonathan T. Looney /* Remove the entry from the expireq. */ 26122529f56eSJonathan T. Looney STAILQ_REMOVE(&tcp_log_expireq_head, cur_tln, 26132529f56eSJonathan T. Looney tcp_log_id_node, tln_expireq); 26142529f56eSJonathan T. Looney 26152529f56eSJonathan T. Looney /* Remove the entry from the bucket. */ 26162529f56eSJonathan T. Looney if (prev_tln != NULL) 26172529f56eSJonathan T. Looney SLIST_REMOVE_AFTER(prev_tln, tln_list); 26182529f56eSJonathan T. Looney else 26192529f56eSJonathan T. Looney SLIST_REMOVE_HEAD(&tlb->tlb_head, tln_list); 26202529f56eSJonathan T. Looney 26212529f56eSJonathan T. Looney /* 26222529f56eSJonathan T. Looney * Drop the INP and bucket reference counts. Due to 26232529f56eSJonathan T. Looney * lock-ordering rules, we need to drop the expire 26242529f56eSJonathan T. Looney * queue lock. 26252529f56eSJonathan T. Looney */ 26262529f56eSJonathan T. Looney TCPLOG_EXPIREQ_UNLOCK(); 26272529f56eSJonathan T. Looney expireq_locked = false; 26282529f56eSJonathan T. Looney 26292529f56eSJonathan T. Looney /* Drop the INP reference. */ 26302529f56eSJonathan T. Looney INP_WLOCK(cur_tln->tln_inp); 26312529f56eSJonathan T. Looney if (!in_pcbrele_wlocked(cur_tln->tln_inp)) 26322529f56eSJonathan T. Looney INP_WUNLOCK(cur_tln->tln_inp); 26332529f56eSJonathan T. Looney 26342529f56eSJonathan T. Looney if (tcp_log_unref_bucket(tlb, &tree_locked, NULL)) { 26352529f56eSJonathan T. Looney #ifdef INVARIANTS 26362529f56eSJonathan T. Looney panic("%s: Bucket refcount unexpectedly 0.", 26372529f56eSJonathan T. Looney __func__); 26382529f56eSJonathan T. Looney #endif 26392529f56eSJonathan T. Looney /* 26402529f56eSJonathan T. Looney * Recover as best we can: free the entry we 26412529f56eSJonathan T. Looney * own. 26422529f56eSJonathan T. Looney */ 26432529f56eSJonathan T. Looney tcp_log_free_entries(&cur_tln->tln_entries, 26442529f56eSJonathan T. Looney &cur_tln->tln_count); 26458c47d8f5SAlan Somers uma_zfree(tcp_log_id_node_zone, cur_tln); 26462529f56eSJonathan T. Looney goto done; 26472529f56eSJonathan T. Looney } 26482529f56eSJonathan T. Looney 26492529f56eSJonathan T. Looney if (tcp_log_dump_node_logbuf(cur_tln, reason, 26502529f56eSJonathan T. Looney M_NOWAIT)) { 26512529f56eSJonathan T. Looney /* 26522529f56eSJonathan T. Looney * If we have sapce, save the entries locally. 26532529f56eSJonathan T. Looney * Otherwise, free them. 26542529f56eSJonathan T. Looney */ 26552529f56eSJonathan T. Looney if (num_local_entries < LOCAL_SAVE) { 26562529f56eSJonathan T. Looney local_entries[num_local_entries] = 26572529f56eSJonathan T. Looney *cur_tln; 26582529f56eSJonathan T. Looney num_local_entries++; 26592529f56eSJonathan T. Looney } else { 26602529f56eSJonathan T. Looney tcp_log_free_entries( 26612529f56eSJonathan T. Looney &cur_tln->tln_entries, 26622529f56eSJonathan T. Looney &cur_tln->tln_count); 26632529f56eSJonathan T. Looney } 26642529f56eSJonathan T. Looney } 26652529f56eSJonathan T. Looney 26662529f56eSJonathan T. Looney /* No matter what, we are done with the node now. */ 26678c47d8f5SAlan Somers uma_zfree(tcp_log_id_node_zone, cur_tln); 26682529f56eSJonathan T. Looney 26692529f56eSJonathan T. Looney /* 26702529f56eSJonathan T. Looney * Because we removed this entry from the list, prev_tln 26712529f56eSJonathan T. Looney * (which tracks the previous entry still on the tlb 26722529f56eSJonathan T. Looney * list) remains unchanged. 26732529f56eSJonathan T. Looney */ 26742529f56eSJonathan T. Looney continue; 26752529f56eSJonathan T. Looney } 26762529f56eSJonathan T. Looney 26772529f56eSJonathan T. Looney /* 26782529f56eSJonathan T. Looney * If we get to this point, the session data is still held in 26792529f56eSJonathan T. Looney * the TCPCB. So, we need to pull the data out of that. 26802529f56eSJonathan T. Looney * 26812529f56eSJonathan T. Looney * We will need to drop the expireq lock so we can lock the INP. 26822529f56eSJonathan T. Looney * We can then try to extract the data the "easy" way. If that 26832529f56eSJonathan T. Looney * fails, we'll save the log entries for later. 26842529f56eSJonathan T. Looney */ 26852529f56eSJonathan T. Looney if (expireq_locked) { 26862529f56eSJonathan T. Looney TCPLOG_EXPIREQ_UNLOCK(); 26872529f56eSJonathan T. Looney expireq_locked = false; 26882529f56eSJonathan T. Looney } 26892529f56eSJonathan T. Looney 26902529f56eSJonathan T. Looney /* Lock the INP and then re-check the state. */ 26912529f56eSJonathan T. Looney inp = cur_tln->tln_inp; 26922529f56eSJonathan T. Looney INP_WLOCK(inp); 26932529f56eSJonathan T. Looney /* 26942529f56eSJonathan T. Looney * If we caught this while it was transitioning, the data 26952529f56eSJonathan T. Looney * might have moved from the TCPCB to the tln (signified by 26962529f56eSJonathan T. Looney * setting tln_closed to true. If so, treat this like an 26972529f56eSJonathan T. Looney * inactive connection. 26982529f56eSJonathan T. Looney */ 26992529f56eSJonathan T. Looney if (cur_tln->tln_closed) { 27002529f56eSJonathan T. Looney /* 27012529f56eSJonathan T. Looney * It looks like we may have caught this connection 27022529f56eSJonathan T. Looney * while it was transitioning from active to inactive. 27032529f56eSJonathan T. Looney * Treat this like an inactive connection. 27042529f56eSJonathan T. Looney */ 27052529f56eSJonathan T. Looney INP_WUNLOCK(inp); 27062529f56eSJonathan T. Looney goto no_inp; 27072529f56eSJonathan T. Looney } 27082529f56eSJonathan T. Looney 27092529f56eSJonathan T. Looney /* 27102529f56eSJonathan T. Looney * Try to dump the data from the tp without dropping the lock. 27112529f56eSJonathan T. Looney * If this fails, try to save off the data locally. 27122529f56eSJonathan T. Looney */ 27132529f56eSJonathan T. Looney tp = cur_tln->tln_tp; 27142529f56eSJonathan T. Looney if (tcp_log_dump_tp_logbuf(tp, reason, M_NOWAIT, true) && 27152529f56eSJonathan T. Looney num_local_entries < LOCAL_SAVE) { 27162529f56eSJonathan T. Looney tcp_log_move_tp_to_node(tp, 27172529f56eSJonathan T. Looney &local_entries[num_local_entries]); 27182529f56eSJonathan T. Looney local_entries[num_local_entries].tln_closed = 1; 27192529f56eSJonathan T. Looney KASSERT(local_entries[num_local_entries].tln_bucket == 27202529f56eSJonathan T. Looney tlb, ("%s: %d: bucket mismatch for node %p", 27212529f56eSJonathan T. Looney __func__, __LINE__, cur_tln)); 27222529f56eSJonathan T. Looney num_local_entries++; 27232529f56eSJonathan T. Looney } 27242529f56eSJonathan T. Looney 27252529f56eSJonathan T. Looney INP_WUNLOCK(inp); 27262529f56eSJonathan T. Looney 27272529f56eSJonathan T. Looney /* 27282529f56eSJonathan T. Looney * We are goint to leave the current tln on the list. It will 27292529f56eSJonathan T. Looney * become the previous tln. 27302529f56eSJonathan T. Looney */ 27312529f56eSJonathan T. Looney prev_tln = cur_tln; 27322529f56eSJonathan T. Looney } 27332529f56eSJonathan T. Looney 27342529f56eSJonathan T. Looney /* Drop our locks, if any. */ 27352529f56eSJonathan T. Looney KASSERT(tree_locked == TREE_UNLOCKED, 27362529f56eSJonathan T. Looney ("%s: %d: tree unexpectedly locked", __func__, __LINE__)); 27372529f56eSJonathan T. Looney switch (tree_locked) { 27382529f56eSJonathan T. Looney case TREE_WLOCKED: 27392529f56eSJonathan T. Looney TCPID_TREE_WUNLOCK(); 27402529f56eSJonathan T. Looney tree_locked = TREE_UNLOCKED; 27412529f56eSJonathan T. Looney break; 27422529f56eSJonathan T. Looney case TREE_RLOCKED: 27432529f56eSJonathan T. Looney TCPID_TREE_RUNLOCK(); 27442529f56eSJonathan T. Looney tree_locked = TREE_UNLOCKED; 27452529f56eSJonathan T. Looney break; 27462529f56eSJonathan T. Looney } 27472529f56eSJonathan T. Looney if (expireq_locked) { 27482529f56eSJonathan T. Looney TCPLOG_EXPIREQ_UNLOCK(); 27492529f56eSJonathan T. Looney expireq_locked = false; 27502529f56eSJonathan T. Looney } 27512529f56eSJonathan T. Looney 27522529f56eSJonathan T. Looney /* 27532529f56eSJonathan T. Looney * Try again for any saved entries. tcp_log_dump_node_logbuf() is 27542529f56eSJonathan T. Looney * guaranteed to free the log entries within the node. And, since 27552529f56eSJonathan T. Looney * the node itself is on our stack, we don't need to free it. 27562529f56eSJonathan T. Looney */ 27572529f56eSJonathan T. Looney for (i = 0; i < num_local_entries; i++) 27582529f56eSJonathan T. Looney tcp_log_dump_node_logbuf(&local_entries[i], reason, M_WAITOK); 27592529f56eSJonathan T. Looney 27602529f56eSJonathan T. Looney /* Drop our reference. */ 27612529f56eSJonathan T. Looney if (!tcp_log_unref_bucket(tlb, &tree_locked, NULL)) 27622529f56eSJonathan T. Looney TCPID_BUCKET_UNLOCK(tlb); 27632529f56eSJonathan T. Looney 27642529f56eSJonathan T. Looney done: 27652529f56eSJonathan T. Looney /* Drop our locks, if any. */ 27662529f56eSJonathan T. Looney switch (tree_locked) { 27672529f56eSJonathan T. Looney case TREE_WLOCKED: 27682529f56eSJonathan T. Looney TCPID_TREE_WUNLOCK(); 27692529f56eSJonathan T. Looney break; 27702529f56eSJonathan T. Looney case TREE_RLOCKED: 27712529f56eSJonathan T. Looney TCPID_TREE_RUNLOCK(); 27722529f56eSJonathan T. Looney break; 27732529f56eSJonathan T. Looney } 27742529f56eSJonathan T. Looney if (expireq_locked) 27752529f56eSJonathan T. Looney TCPLOG_EXPIREQ_UNLOCK(); 27762529f56eSJonathan T. Looney } 27772529f56eSJonathan T. Looney #undef LOCAL_SAVE 27782529f56eSJonathan T. Looney 27792529f56eSJonathan T. Looney /* 27802529f56eSJonathan T. Looney * Queue the log buffers for all sessions in a bucket for transmissions via 27812529f56eSJonathan T. Looney * the log buffer facility. 27822529f56eSJonathan T. Looney * 27832529f56eSJonathan T. Looney * NOTE: This should be called with a locked INP; however, the function 27842529f56eSJonathan T. Looney * will drop the lock. 27852529f56eSJonathan T. Looney */ 27862529f56eSJonathan T. Looney void 27872529f56eSJonathan T. Looney tcp_log_dump_tp_bucket_logbufs(struct tcpcb *tp, char *reason) 27882529f56eSJonathan T. Looney { 27899eb0e832SGleb Smirnoff struct inpcb *inp = tptoinpcb(tp); 27902529f56eSJonathan T. Looney struct tcp_log_id_bucket *tlb; 27912529f56eSJonathan T. Looney int tree_locked; 27922529f56eSJonathan T. Looney 27932529f56eSJonathan T. Looney /* Figure out our bucket and lock it. */ 27949eb0e832SGleb Smirnoff INP_WLOCK_ASSERT(inp); 27952529f56eSJonathan T. Looney tlb = tp->t_lib; 27962529f56eSJonathan T. Looney if (tlb == NULL) { 27972529f56eSJonathan T. Looney /* 27982529f56eSJonathan T. Looney * No bucket; treat this like a request to dump a single 27992529f56eSJonathan T. Looney * session's traces. 28002529f56eSJonathan T. Looney */ 28012529f56eSJonathan T. Looney (void)tcp_log_dump_tp_logbuf(tp, reason, M_WAITOK, true); 28029eb0e832SGleb Smirnoff INP_WUNLOCK(inp); 28032529f56eSJonathan T. Looney return; 28042529f56eSJonathan T. Looney } 28052529f56eSJonathan T. Looney TCPID_BUCKET_REF(tlb); 28069eb0e832SGleb Smirnoff INP_WUNLOCK(inp); 28072529f56eSJonathan T. Looney TCPID_BUCKET_LOCK(tlb); 28082529f56eSJonathan T. Looney 28092529f56eSJonathan T. Looney /* If we are the last reference, we have nothing more to do here. */ 28102529f56eSJonathan T. Looney tree_locked = TREE_UNLOCKED; 28112529f56eSJonathan T. Looney if (tcp_log_unref_bucket(tlb, &tree_locked, NULL)) { 28122529f56eSJonathan T. Looney switch (tree_locked) { 28132529f56eSJonathan T. Looney case TREE_WLOCKED: 28142529f56eSJonathan T. Looney TCPID_TREE_WUNLOCK(); 28152529f56eSJonathan T. Looney break; 28162529f56eSJonathan T. Looney case TREE_RLOCKED: 28172529f56eSJonathan T. Looney TCPID_TREE_RUNLOCK(); 28182529f56eSJonathan T. Looney break; 28192529f56eSJonathan T. Looney } 28202529f56eSJonathan T. Looney return; 28212529f56eSJonathan T. Looney } 28222529f56eSJonathan T. Looney 28232529f56eSJonathan T. Looney /* Turn this over to tcp_log_dumpbucketlogs() to finish the work. */ 28242529f56eSJonathan T. Looney tcp_log_dumpbucketlogs(tlb, reason); 28252529f56eSJonathan T. Looney } 28262529f56eSJonathan T. Looney 28272529f56eSJonathan T. Looney /* 28282529f56eSJonathan T. Looney * Mark the end of a flow with the current stack. A stack can add 28292529f56eSJonathan T. Looney * stack-specific info to this trace event by overriding this 28302529f56eSJonathan T. Looney * function (see bbr_log_flowend() for example). 28312529f56eSJonathan T. Looney */ 28322529f56eSJonathan T. Looney void 28332529f56eSJonathan T. Looney tcp_log_flowend(struct tcpcb *tp) 28342529f56eSJonathan T. Looney { 2835*69c7c811SRandall Stewart if (tp->_t_logstate != TCP_LOG_STATE_OFF) { 28369eb0e832SGleb Smirnoff struct socket *so = tptosocket(tp); 28372529f56eSJonathan T. Looney TCP_LOG_EVENT(tp, NULL, &so->so_rcv, &so->so_snd, 28382529f56eSJonathan T. Looney TCP_LOG_FLOWEND, 0, 0, NULL, false); 28392529f56eSJonathan T. Looney } 28402529f56eSJonathan T. Looney } 2841*69c7c811SRandall Stewart 2842*69c7c811SRandall Stewart void 2843*69c7c811SRandall Stewart tcp_log_sendfile(struct socket *so, off_t offset, size_t nbytes, int flags) 2844*69c7c811SRandall Stewart { 2845*69c7c811SRandall Stewart struct inpcb *inp; 2846*69c7c811SRandall Stewart struct tcpcb *tp; 2847*69c7c811SRandall Stewart 2848*69c7c811SRandall Stewart inp = sotoinpcb(so); 2849*69c7c811SRandall Stewart KASSERT(inp != NULL, ("tcp_log_sendfile: inp == NULL")); 2850*69c7c811SRandall Stewart 2851*69c7c811SRandall Stewart /* quick check to see if logging is enabled for this connection */ 2852*69c7c811SRandall Stewart tp = intotcpcb(inp); 2853*69c7c811SRandall Stewart if ((inp->inp_flags & INP_DROPPED) || 2854*69c7c811SRandall Stewart (tp->_t_logstate == TCP_LOG_STATE_OFF)) { 2855*69c7c811SRandall Stewart return; 2856*69c7c811SRandall Stewart } 2857*69c7c811SRandall Stewart 2858*69c7c811SRandall Stewart INP_WLOCK(inp); 2859*69c7c811SRandall Stewart /* double check log state now that we have the lock */ 2860*69c7c811SRandall Stewart if (inp->inp_flags & INP_DROPPED) 2861*69c7c811SRandall Stewart goto done; 2862*69c7c811SRandall Stewart if (tp->_t_logstate != TCP_LOG_STATE_OFF) { 2863*69c7c811SRandall Stewart struct timeval tv; 2864*69c7c811SRandall Stewart tcp_log_eventspecific_t log; 2865*69c7c811SRandall Stewart 2866*69c7c811SRandall Stewart microuptime(&tv); 2867*69c7c811SRandall Stewart log.u_sf.offset = offset; 2868*69c7c811SRandall Stewart log.u_sf.length = nbytes; 2869*69c7c811SRandall Stewart log.u_sf.flags = flags; 2870*69c7c811SRandall Stewart 2871*69c7c811SRandall Stewart TCP_LOG_EVENTP(tp, NULL, 2872*69c7c811SRandall Stewart &tptosocket(tp)->so_rcv, 2873*69c7c811SRandall Stewart &tptosocket(tp)->so_snd, 2874*69c7c811SRandall Stewart TCP_LOG_SENDFILE, 0, 0, &log, false, &tv); 2875*69c7c811SRandall Stewart } 2876*69c7c811SRandall Stewart done: 2877*69c7c811SRandall Stewart INP_WUNLOCK(inp); 2878*69c7c811SRandall Stewart } 2879