xref: /linux/tools/testing/selftests/bpf/progs/profiler.inc.h (revision abf08576afe31506b812c8c1be9714f78613f300)
103d4d13fSAlexei Starovoitov // SPDX-License-Identifier: GPL-2.0
203d4d13fSAlexei Starovoitov /* Copyright (c) 2020 Facebook */
303d4d13fSAlexei Starovoitov #include <vmlinux.h>
403d4d13fSAlexei Starovoitov #include <bpf/bpf_core_read.h>
503d4d13fSAlexei Starovoitov #include <bpf/bpf_helpers.h>
603d4d13fSAlexei Starovoitov #include <bpf/bpf_tracing.h>
703d4d13fSAlexei Starovoitov 
803d4d13fSAlexei Starovoitov #include "profiler.h"
903d4d13fSAlexei Starovoitov 
1003d4d13fSAlexei Starovoitov #ifndef NULL
1103d4d13fSAlexei Starovoitov #define NULL 0
1203d4d13fSAlexei Starovoitov #endif
1303d4d13fSAlexei Starovoitov 
1403d4d13fSAlexei Starovoitov #define O_WRONLY 00000001
1503d4d13fSAlexei Starovoitov #define O_RDWR 00000002
1603d4d13fSAlexei Starovoitov #define O_DIRECTORY 00200000
1703d4d13fSAlexei Starovoitov #define __O_TMPFILE 020000000
1803d4d13fSAlexei Starovoitov #define O_TMPFILE (__O_TMPFILE | O_DIRECTORY)
1903d4d13fSAlexei Starovoitov #define MAX_ERRNO 4095
2003d4d13fSAlexei Starovoitov #define S_IFMT 00170000
2103d4d13fSAlexei Starovoitov #define S_IFSOCK 0140000
2203d4d13fSAlexei Starovoitov #define S_IFLNK 0120000
2303d4d13fSAlexei Starovoitov #define S_IFREG 0100000
2403d4d13fSAlexei Starovoitov #define S_IFBLK 0060000
2503d4d13fSAlexei Starovoitov #define S_IFDIR 0040000
2603d4d13fSAlexei Starovoitov #define S_IFCHR 0020000
2703d4d13fSAlexei Starovoitov #define S_IFIFO 0010000
2803d4d13fSAlexei Starovoitov #define S_ISUID 0004000
2903d4d13fSAlexei Starovoitov #define S_ISGID 0002000
3003d4d13fSAlexei Starovoitov #define S_ISVTX 0001000
3103d4d13fSAlexei Starovoitov #define S_ISLNK(m) (((m)&S_IFMT) == S_IFLNK)
3203d4d13fSAlexei Starovoitov #define S_ISDIR(m) (((m)&S_IFMT) == S_IFDIR)
3303d4d13fSAlexei Starovoitov #define S_ISCHR(m) (((m)&S_IFMT) == S_IFCHR)
3403d4d13fSAlexei Starovoitov #define S_ISBLK(m) (((m)&S_IFMT) == S_IFBLK)
3503d4d13fSAlexei Starovoitov #define S_ISFIFO(m) (((m)&S_IFMT) == S_IFIFO)
3603d4d13fSAlexei Starovoitov #define S_ISSOCK(m) (((m)&S_IFMT) == S_IFSOCK)
3703d4d13fSAlexei Starovoitov #define IS_ERR_VALUE(x) (unsigned long)(void*)(x) >= (unsigned long)-MAX_ERRNO
3803d4d13fSAlexei Starovoitov 
3903d4d13fSAlexei Starovoitov #define KILL_DATA_ARRAY_SIZE 8
4003d4d13fSAlexei Starovoitov 
4103d4d13fSAlexei Starovoitov struct var_kill_data_arr_t {
4203d4d13fSAlexei Starovoitov 	struct var_kill_data_t array[KILL_DATA_ARRAY_SIZE];
4303d4d13fSAlexei Starovoitov };
4403d4d13fSAlexei Starovoitov 
4503d4d13fSAlexei Starovoitov union any_profiler_data_t {
4603d4d13fSAlexei Starovoitov 	struct var_exec_data_t var_exec;
4703d4d13fSAlexei Starovoitov 	struct var_kill_data_t var_kill;
4803d4d13fSAlexei Starovoitov 	struct var_sysctl_data_t var_sysctl;
4903d4d13fSAlexei Starovoitov 	struct var_filemod_data_t var_filemod;
5003d4d13fSAlexei Starovoitov 	struct var_fork_data_t var_fork;
5103d4d13fSAlexei Starovoitov 	struct var_kill_data_arr_t var_kill_data_arr;
5203d4d13fSAlexei Starovoitov };
5303d4d13fSAlexei Starovoitov 
5403d4d13fSAlexei Starovoitov volatile struct profiler_config_struct bpf_config = {};
5503d4d13fSAlexei Starovoitov 
5603d4d13fSAlexei Starovoitov #define FETCH_CGROUPS_FROM_BPF (bpf_config.fetch_cgroups_from_bpf)
5703d4d13fSAlexei Starovoitov #define CGROUP_FS_INODE (bpf_config.cgroup_fs_inode)
5803d4d13fSAlexei Starovoitov #define CGROUP_LOGIN_SESSION_INODE \
5903d4d13fSAlexei Starovoitov 	(bpf_config.cgroup_login_session_inode)
6003d4d13fSAlexei Starovoitov #define KILL_SIGNALS (bpf_config.kill_signals_mask)
6103d4d13fSAlexei Starovoitov #define STALE_INFO (bpf_config.stale_info_secs)
6203d4d13fSAlexei Starovoitov #define INODE_FILTER (bpf_config.inode_filter)
6303d4d13fSAlexei Starovoitov #define READ_ENVIRON_FROM_EXEC (bpf_config.read_environ_from_exec)
6403d4d13fSAlexei Starovoitov #define ENABLE_CGROUP_V1_RESOLVER (bpf_config.enable_cgroup_v1_resolver)
6503d4d13fSAlexei Starovoitov 
6603d4d13fSAlexei Starovoitov struct kernfs_iattrs___52 {
6703d4d13fSAlexei Starovoitov 	struct iattr ia_iattr;
6803d4d13fSAlexei Starovoitov };
6903d4d13fSAlexei Starovoitov 
7003d4d13fSAlexei Starovoitov struct kernfs_node___52 {
7103d4d13fSAlexei Starovoitov 	union /* kernfs_node_id */ {
7203d4d13fSAlexei Starovoitov 		struct {
7303d4d13fSAlexei Starovoitov 			u32 ino;
7403d4d13fSAlexei Starovoitov 			u32 generation;
7503d4d13fSAlexei Starovoitov 		};
7603d4d13fSAlexei Starovoitov 		u64 id;
7703d4d13fSAlexei Starovoitov 	} id;
7803d4d13fSAlexei Starovoitov };
7903d4d13fSAlexei Starovoitov 
8003d4d13fSAlexei Starovoitov struct {
8103d4d13fSAlexei Starovoitov 	__uint(type, BPF_MAP_TYPE_PERCPU_ARRAY);
8203d4d13fSAlexei Starovoitov 	__uint(max_entries, 1);
8303d4d13fSAlexei Starovoitov 	__type(key, u32);
8403d4d13fSAlexei Starovoitov 	__type(value, union any_profiler_data_t);
8503d4d13fSAlexei Starovoitov } data_heap SEC(".maps");
8603d4d13fSAlexei Starovoitov 
8703d4d13fSAlexei Starovoitov struct {
8803d4d13fSAlexei Starovoitov 	__uint(type, BPF_MAP_TYPE_PERF_EVENT_ARRAY);
8903d4d13fSAlexei Starovoitov 	__uint(key_size, sizeof(int));
9003d4d13fSAlexei Starovoitov 	__uint(value_size, sizeof(int));
9103d4d13fSAlexei Starovoitov } events SEC(".maps");
9203d4d13fSAlexei Starovoitov 
9303d4d13fSAlexei Starovoitov struct {
9403d4d13fSAlexei Starovoitov 	__uint(type, BPF_MAP_TYPE_HASH);
9503d4d13fSAlexei Starovoitov 	__uint(max_entries, KILL_DATA_ARRAY_SIZE);
9603d4d13fSAlexei Starovoitov 	__type(key, u32);
9703d4d13fSAlexei Starovoitov 	__type(value, struct var_kill_data_arr_t);
9803d4d13fSAlexei Starovoitov } var_tpid_to_data SEC(".maps");
9903d4d13fSAlexei Starovoitov 
10003d4d13fSAlexei Starovoitov struct {
10103d4d13fSAlexei Starovoitov 	__uint(type, BPF_MAP_TYPE_PERCPU_ARRAY);
10203d4d13fSAlexei Starovoitov 	__uint(max_entries, profiler_bpf_max_function_id);
10303d4d13fSAlexei Starovoitov 	__type(key, u32);
10403d4d13fSAlexei Starovoitov 	__type(value, struct bpf_func_stats_data);
10503d4d13fSAlexei Starovoitov } bpf_func_stats SEC(".maps");
10603d4d13fSAlexei Starovoitov 
10703d4d13fSAlexei Starovoitov struct {
10803d4d13fSAlexei Starovoitov 	__uint(type, BPF_MAP_TYPE_HASH);
10903d4d13fSAlexei Starovoitov 	__type(key, u32);
11003d4d13fSAlexei Starovoitov 	__type(value, bool);
11103d4d13fSAlexei Starovoitov 	__uint(max_entries, 16);
11203d4d13fSAlexei Starovoitov } allowed_devices SEC(".maps");
11303d4d13fSAlexei Starovoitov 
11403d4d13fSAlexei Starovoitov struct {
11503d4d13fSAlexei Starovoitov 	__uint(type, BPF_MAP_TYPE_HASH);
11603d4d13fSAlexei Starovoitov 	__type(key, u64);
11703d4d13fSAlexei Starovoitov 	__type(value, bool);
11803d4d13fSAlexei Starovoitov 	__uint(max_entries, 1024);
11903d4d13fSAlexei Starovoitov } allowed_file_inodes SEC(".maps");
12003d4d13fSAlexei Starovoitov 
12103d4d13fSAlexei Starovoitov struct {
12203d4d13fSAlexei Starovoitov 	__uint(type, BPF_MAP_TYPE_HASH);
12303d4d13fSAlexei Starovoitov 	__type(key, u64);
12403d4d13fSAlexei Starovoitov 	__type(value, bool);
12503d4d13fSAlexei Starovoitov 	__uint(max_entries, 1024);
12603d4d13fSAlexei Starovoitov } allowed_directory_inodes SEC(".maps");
12703d4d13fSAlexei Starovoitov 
12803d4d13fSAlexei Starovoitov struct {
12903d4d13fSAlexei Starovoitov 	__uint(type, BPF_MAP_TYPE_HASH);
13003d4d13fSAlexei Starovoitov 	__type(key, u32);
13103d4d13fSAlexei Starovoitov 	__type(value, bool);
13203d4d13fSAlexei Starovoitov 	__uint(max_entries, 16);
13303d4d13fSAlexei Starovoitov } disallowed_exec_inodes SEC(".maps");
13403d4d13fSAlexei Starovoitov 
13503d4d13fSAlexei Starovoitov #ifndef ARRAY_SIZE
13603d4d13fSAlexei Starovoitov #define ARRAY_SIZE(arr) (sizeof(arr) / sizeof(arr[0]))
13703d4d13fSAlexei Starovoitov #endif
13803d4d13fSAlexei Starovoitov 
13903d4d13fSAlexei Starovoitov static INLINE bool IS_ERR(const void* ptr)
14003d4d13fSAlexei Starovoitov {
14103d4d13fSAlexei Starovoitov 	return IS_ERR_VALUE((unsigned long)ptr);
14203d4d13fSAlexei Starovoitov }
14303d4d13fSAlexei Starovoitov 
14403d4d13fSAlexei Starovoitov static INLINE u32 get_userspace_pid()
14503d4d13fSAlexei Starovoitov {
14603d4d13fSAlexei Starovoitov 	return bpf_get_current_pid_tgid() >> 32;
14703d4d13fSAlexei Starovoitov }
14803d4d13fSAlexei Starovoitov 
14903d4d13fSAlexei Starovoitov static INLINE bool is_init_process(u32 tgid)
15003d4d13fSAlexei Starovoitov {
15103d4d13fSAlexei Starovoitov 	return tgid == 1 || tgid == 0;
15203d4d13fSAlexei Starovoitov }
15303d4d13fSAlexei Starovoitov 
15403d4d13fSAlexei Starovoitov static INLINE unsigned long
15503d4d13fSAlexei Starovoitov probe_read_lim(void* dst, void* src, unsigned long len, unsigned long max)
15603d4d13fSAlexei Starovoitov {
15703d4d13fSAlexei Starovoitov 	len = len < max ? len : max;
15803d4d13fSAlexei Starovoitov 	if (len > 1) {
15903d4d13fSAlexei Starovoitov 		if (bpf_probe_read(dst, len, src))
16003d4d13fSAlexei Starovoitov 			return 0;
16103d4d13fSAlexei Starovoitov 	} else if (len == 1) {
16203d4d13fSAlexei Starovoitov 		if (bpf_probe_read(dst, 1, src))
16303d4d13fSAlexei Starovoitov 			return 0;
16403d4d13fSAlexei Starovoitov 	}
16503d4d13fSAlexei Starovoitov 	return len;
16603d4d13fSAlexei Starovoitov }
16703d4d13fSAlexei Starovoitov 
16803d4d13fSAlexei Starovoitov static INLINE int get_var_spid_index(struct var_kill_data_arr_t* arr_struct,
16903d4d13fSAlexei Starovoitov 				     int spid)
17003d4d13fSAlexei Starovoitov {
17103d4d13fSAlexei Starovoitov #ifdef UNROLL
17203d4d13fSAlexei Starovoitov #pragma unroll
17303d4d13fSAlexei Starovoitov #endif
17403d4d13fSAlexei Starovoitov 	for (int i = 0; i < ARRAY_SIZE(arr_struct->array); i++)
17503d4d13fSAlexei Starovoitov 		if (arr_struct->array[i].meta.pid == spid)
17603d4d13fSAlexei Starovoitov 			return i;
17703d4d13fSAlexei Starovoitov 	return -1;
17803d4d13fSAlexei Starovoitov }
17903d4d13fSAlexei Starovoitov 
18003d4d13fSAlexei Starovoitov static INLINE void populate_ancestors(struct task_struct* task,
18103d4d13fSAlexei Starovoitov 				      struct ancestors_data_t* ancestors_data)
18203d4d13fSAlexei Starovoitov {
18303d4d13fSAlexei Starovoitov 	struct task_struct* parent = task;
18403d4d13fSAlexei Starovoitov 	u32 num_ancestors, ppid;
18503d4d13fSAlexei Starovoitov 
18603d4d13fSAlexei Starovoitov 	ancestors_data->num_ancestors = 0;
18703d4d13fSAlexei Starovoitov #ifdef UNROLL
18803d4d13fSAlexei Starovoitov #pragma unroll
18903d4d13fSAlexei Starovoitov #endif
19003d4d13fSAlexei Starovoitov 	for (num_ancestors = 0; num_ancestors < MAX_ANCESTORS; num_ancestors++) {
19103d4d13fSAlexei Starovoitov 		parent = BPF_CORE_READ(parent, real_parent);
19203d4d13fSAlexei Starovoitov 		if (parent == NULL)
19303d4d13fSAlexei Starovoitov 			break;
19403d4d13fSAlexei Starovoitov 		ppid = BPF_CORE_READ(parent, tgid);
19503d4d13fSAlexei Starovoitov 		if (is_init_process(ppid))
19603d4d13fSAlexei Starovoitov 			break;
19703d4d13fSAlexei Starovoitov 		ancestors_data->ancestor_pids[num_ancestors] = ppid;
19803d4d13fSAlexei Starovoitov 		ancestors_data->ancestor_exec_ids[num_ancestors] =
19903d4d13fSAlexei Starovoitov 			BPF_CORE_READ(parent, self_exec_id);
20003d4d13fSAlexei Starovoitov 		ancestors_data->ancestor_start_times[num_ancestors] =
20103d4d13fSAlexei Starovoitov 			BPF_CORE_READ(parent, start_time);
20203d4d13fSAlexei Starovoitov 		ancestors_data->num_ancestors = num_ancestors;
20303d4d13fSAlexei Starovoitov 	}
20403d4d13fSAlexei Starovoitov }
20503d4d13fSAlexei Starovoitov 
20603d4d13fSAlexei Starovoitov static INLINE void* read_full_cgroup_path(struct kernfs_node* cgroup_node,
20703d4d13fSAlexei Starovoitov 					  struct kernfs_node* cgroup_root_node,
20803d4d13fSAlexei Starovoitov 					  void* payload,
20903d4d13fSAlexei Starovoitov 					  int* root_pos)
21003d4d13fSAlexei Starovoitov {
21103d4d13fSAlexei Starovoitov 	void* payload_start = payload;
21203d4d13fSAlexei Starovoitov 	size_t filepart_length;
21303d4d13fSAlexei Starovoitov 
21403d4d13fSAlexei Starovoitov #ifdef UNROLL
21503d4d13fSAlexei Starovoitov #pragma unroll
21603d4d13fSAlexei Starovoitov #endif
21703d4d13fSAlexei Starovoitov 	for (int i = 0; i < MAX_CGROUPS_PATH_DEPTH; i++) {
21803d4d13fSAlexei Starovoitov 		filepart_length =
21903d4d13fSAlexei Starovoitov 			bpf_probe_read_str(payload, MAX_PATH, BPF_CORE_READ(cgroup_node, name));
22003d4d13fSAlexei Starovoitov 		if (!cgroup_node)
22103d4d13fSAlexei Starovoitov 			return payload;
22203d4d13fSAlexei Starovoitov 		if (cgroup_node == cgroup_root_node)
22303d4d13fSAlexei Starovoitov 			*root_pos = payload - payload_start;
22403d4d13fSAlexei Starovoitov 		if (filepart_length <= MAX_PATH) {
22503d4d13fSAlexei Starovoitov 			barrier_var(filepart_length);
22603d4d13fSAlexei Starovoitov 			payload += filepart_length;
22703d4d13fSAlexei Starovoitov 		}
22803d4d13fSAlexei Starovoitov 		cgroup_node = BPF_CORE_READ(cgroup_node, parent);
22903d4d13fSAlexei Starovoitov 	}
23003d4d13fSAlexei Starovoitov 	return payload;
23103d4d13fSAlexei Starovoitov }
23203d4d13fSAlexei Starovoitov 
23303d4d13fSAlexei Starovoitov static ino_t get_inode_from_kernfs(struct kernfs_node* node)
23403d4d13fSAlexei Starovoitov {
23503d4d13fSAlexei Starovoitov 	struct kernfs_node___52* node52 = (void*)node;
23603d4d13fSAlexei Starovoitov 
23703d4d13fSAlexei Starovoitov 	if (bpf_core_field_exists(node52->id.ino)) {
23803d4d13fSAlexei Starovoitov 		barrier_var(node52);
23903d4d13fSAlexei Starovoitov 		return BPF_CORE_READ(node52, id.ino);
24003d4d13fSAlexei Starovoitov 	} else {
24103d4d13fSAlexei Starovoitov 		barrier_var(node);
24203d4d13fSAlexei Starovoitov 		return (u64)BPF_CORE_READ(node, id);
24303d4d13fSAlexei Starovoitov 	}
24403d4d13fSAlexei Starovoitov }
24503d4d13fSAlexei Starovoitov 
24647254777SAndrii Nakryiko extern bool CONFIG_CGROUP_PIDS __kconfig __weak;
24747254777SAndrii Nakryiko enum cgroup_subsys_id___local {
24847254777SAndrii Nakryiko 	pids_cgrp_id___local = 123, /* value doesn't matter */
24947254777SAndrii Nakryiko };
25003d4d13fSAlexei Starovoitov 
25103d4d13fSAlexei Starovoitov static INLINE void* populate_cgroup_info(struct cgroup_data_t* cgroup_data,
25203d4d13fSAlexei Starovoitov 					 struct task_struct* task,
25303d4d13fSAlexei Starovoitov 					 void* payload)
25403d4d13fSAlexei Starovoitov {
25503d4d13fSAlexei Starovoitov 	struct kernfs_node* root_kernfs =
25603d4d13fSAlexei Starovoitov 		BPF_CORE_READ(task, nsproxy, cgroup_ns, root_cset, dfl_cgrp, kn);
25703d4d13fSAlexei Starovoitov 	struct kernfs_node* proc_kernfs = BPF_CORE_READ(task, cgroups, dfl_cgrp, kn);
25803d4d13fSAlexei Starovoitov 
259fb355812SAndrei Matei #if __has_builtin(__builtin_preserve_enum_value)
26047254777SAndrii Nakryiko 	if (ENABLE_CGROUP_V1_RESOLVER && CONFIG_CGROUP_PIDS) {
26147254777SAndrii Nakryiko 		int cgrp_id = bpf_core_enum_value(enum cgroup_subsys_id___local,
26247254777SAndrii Nakryiko 						  pids_cgrp_id___local);
26303d4d13fSAlexei Starovoitov #ifdef UNROLL
26403d4d13fSAlexei Starovoitov #pragma unroll
26503d4d13fSAlexei Starovoitov #endif
26603d4d13fSAlexei Starovoitov 		for (int i = 0; i < CGROUP_SUBSYS_COUNT; i++) {
26703d4d13fSAlexei Starovoitov 			struct cgroup_subsys_state* subsys =
26803d4d13fSAlexei Starovoitov 				BPF_CORE_READ(task, cgroups, subsys[i]);
26903d4d13fSAlexei Starovoitov 			if (subsys != NULL) {
27003d4d13fSAlexei Starovoitov 				int subsys_id = BPF_CORE_READ(subsys, ss, id);
27147254777SAndrii Nakryiko 				if (subsys_id == cgrp_id) {
27203d4d13fSAlexei Starovoitov 					proc_kernfs = BPF_CORE_READ(subsys, cgroup, kn);
27303d4d13fSAlexei Starovoitov 					root_kernfs = BPF_CORE_READ(subsys, ss, root, kf_root, kn);
27403d4d13fSAlexei Starovoitov 					break;
27503d4d13fSAlexei Starovoitov 				}
27603d4d13fSAlexei Starovoitov 			}
27703d4d13fSAlexei Starovoitov 		}
27803d4d13fSAlexei Starovoitov 	}
279fb355812SAndrei Matei #endif
28003d4d13fSAlexei Starovoitov 
28103d4d13fSAlexei Starovoitov 	cgroup_data->cgroup_root_inode = get_inode_from_kernfs(root_kernfs);
28203d4d13fSAlexei Starovoitov 	cgroup_data->cgroup_proc_inode = get_inode_from_kernfs(proc_kernfs);
28303d4d13fSAlexei Starovoitov 
28403d4d13fSAlexei Starovoitov 	if (bpf_core_field_exists(root_kernfs->iattr->ia_mtime)) {
28503d4d13fSAlexei Starovoitov 		cgroup_data->cgroup_root_mtime =
28603d4d13fSAlexei Starovoitov 			BPF_CORE_READ(root_kernfs, iattr, ia_mtime.tv_nsec);
28703d4d13fSAlexei Starovoitov 		cgroup_data->cgroup_proc_mtime =
28803d4d13fSAlexei Starovoitov 			BPF_CORE_READ(proc_kernfs, iattr, ia_mtime.tv_nsec);
28903d4d13fSAlexei Starovoitov 	} else {
29003d4d13fSAlexei Starovoitov 		struct kernfs_iattrs___52* root_iattr =
29103d4d13fSAlexei Starovoitov 			(struct kernfs_iattrs___52*)BPF_CORE_READ(root_kernfs, iattr);
29203d4d13fSAlexei Starovoitov 		cgroup_data->cgroup_root_mtime =
29303d4d13fSAlexei Starovoitov 			BPF_CORE_READ(root_iattr, ia_iattr.ia_mtime.tv_nsec);
29403d4d13fSAlexei Starovoitov 
29503d4d13fSAlexei Starovoitov 		struct kernfs_iattrs___52* proc_iattr =
29603d4d13fSAlexei Starovoitov 			(struct kernfs_iattrs___52*)BPF_CORE_READ(proc_kernfs, iattr);
29703d4d13fSAlexei Starovoitov 		cgroup_data->cgroup_proc_mtime =
29803d4d13fSAlexei Starovoitov 			BPF_CORE_READ(proc_iattr, ia_iattr.ia_mtime.tv_nsec);
29903d4d13fSAlexei Starovoitov 	}
30003d4d13fSAlexei Starovoitov 
30103d4d13fSAlexei Starovoitov 	cgroup_data->cgroup_root_length = 0;
30203d4d13fSAlexei Starovoitov 	cgroup_data->cgroup_proc_length = 0;
30303d4d13fSAlexei Starovoitov 	cgroup_data->cgroup_full_length = 0;
30403d4d13fSAlexei Starovoitov 
30503d4d13fSAlexei Starovoitov 	size_t cgroup_root_length =
30603d4d13fSAlexei Starovoitov 		bpf_probe_read_str(payload, MAX_PATH, BPF_CORE_READ(root_kernfs, name));
30703d4d13fSAlexei Starovoitov 	barrier_var(cgroup_root_length);
30803d4d13fSAlexei Starovoitov 	if (cgroup_root_length <= MAX_PATH) {
30903d4d13fSAlexei Starovoitov 		barrier_var(cgroup_root_length);
31003d4d13fSAlexei Starovoitov 		cgroup_data->cgroup_root_length = cgroup_root_length;
31103d4d13fSAlexei Starovoitov 		payload += cgroup_root_length;
31203d4d13fSAlexei Starovoitov 	}
31303d4d13fSAlexei Starovoitov 
31403d4d13fSAlexei Starovoitov 	size_t cgroup_proc_length =
31503d4d13fSAlexei Starovoitov 		bpf_probe_read_str(payload, MAX_PATH, BPF_CORE_READ(proc_kernfs, name));
31603d4d13fSAlexei Starovoitov 	barrier_var(cgroup_proc_length);
31703d4d13fSAlexei Starovoitov 	if (cgroup_proc_length <= MAX_PATH) {
31803d4d13fSAlexei Starovoitov 		barrier_var(cgroup_proc_length);
31903d4d13fSAlexei Starovoitov 		cgroup_data->cgroup_proc_length = cgroup_proc_length;
32003d4d13fSAlexei Starovoitov 		payload += cgroup_proc_length;
32103d4d13fSAlexei Starovoitov 	}
32203d4d13fSAlexei Starovoitov 
32303d4d13fSAlexei Starovoitov 	if (FETCH_CGROUPS_FROM_BPF) {
32403d4d13fSAlexei Starovoitov 		cgroup_data->cgroup_full_path_root_pos = -1;
32503d4d13fSAlexei Starovoitov 		void* payload_end_pos = read_full_cgroup_path(proc_kernfs, root_kernfs, payload,
32603d4d13fSAlexei Starovoitov 							      &cgroup_data->cgroup_full_path_root_pos);
32703d4d13fSAlexei Starovoitov 		cgroup_data->cgroup_full_length = payload_end_pos - payload;
32803d4d13fSAlexei Starovoitov 		payload = payload_end_pos;
32903d4d13fSAlexei Starovoitov 	}
33003d4d13fSAlexei Starovoitov 
33103d4d13fSAlexei Starovoitov 	return (void*)payload;
33203d4d13fSAlexei Starovoitov }
33303d4d13fSAlexei Starovoitov 
33403d4d13fSAlexei Starovoitov static INLINE void* populate_var_metadata(struct var_metadata_t* metadata,
33503d4d13fSAlexei Starovoitov 					  struct task_struct* task,
33603d4d13fSAlexei Starovoitov 					  u32 pid, void* payload)
33703d4d13fSAlexei Starovoitov {
33803d4d13fSAlexei Starovoitov 	u64 uid_gid = bpf_get_current_uid_gid();
33903d4d13fSAlexei Starovoitov 
34003d4d13fSAlexei Starovoitov 	metadata->uid = (u32)uid_gid;
34103d4d13fSAlexei Starovoitov 	metadata->gid = uid_gid >> 32;
34203d4d13fSAlexei Starovoitov 	metadata->pid = pid;
34303d4d13fSAlexei Starovoitov 	metadata->exec_id = BPF_CORE_READ(task, self_exec_id);
34403d4d13fSAlexei Starovoitov 	metadata->start_time = BPF_CORE_READ(task, start_time);
34503d4d13fSAlexei Starovoitov 	metadata->comm_length = 0;
34603d4d13fSAlexei Starovoitov 
34703d4d13fSAlexei Starovoitov 	size_t comm_length = bpf_core_read_str(payload, TASK_COMM_LEN, &task->comm);
34803d4d13fSAlexei Starovoitov 	barrier_var(comm_length);
34903d4d13fSAlexei Starovoitov 	if (comm_length <= TASK_COMM_LEN) {
35003d4d13fSAlexei Starovoitov 		barrier_var(comm_length);
35103d4d13fSAlexei Starovoitov 		metadata->comm_length = comm_length;
35203d4d13fSAlexei Starovoitov 		payload += comm_length;
35303d4d13fSAlexei Starovoitov 	}
35403d4d13fSAlexei Starovoitov 
35503d4d13fSAlexei Starovoitov 	return (void*)payload;
35603d4d13fSAlexei Starovoitov }
35703d4d13fSAlexei Starovoitov 
35803d4d13fSAlexei Starovoitov static INLINE struct var_kill_data_t*
35903d4d13fSAlexei Starovoitov get_var_kill_data(struct pt_regs* ctx, int spid, int tpid, int sig)
36003d4d13fSAlexei Starovoitov {
36103d4d13fSAlexei Starovoitov 	int zero = 0;
36203d4d13fSAlexei Starovoitov 	struct var_kill_data_t* kill_data = bpf_map_lookup_elem(&data_heap, &zero);
36303d4d13fSAlexei Starovoitov 
36403d4d13fSAlexei Starovoitov 	if (kill_data == NULL)
36503d4d13fSAlexei Starovoitov 		return NULL;
36603d4d13fSAlexei Starovoitov 	struct task_struct* task = (struct task_struct*)bpf_get_current_task();
36703d4d13fSAlexei Starovoitov 
36803d4d13fSAlexei Starovoitov 	void* payload = populate_var_metadata(&kill_data->meta, task, spid, kill_data->payload);
36903d4d13fSAlexei Starovoitov 	payload = populate_cgroup_info(&kill_data->cgroup_data, task, payload);
37003d4d13fSAlexei Starovoitov 	size_t payload_length = payload - (void*)kill_data->payload;
37103d4d13fSAlexei Starovoitov 	kill_data->payload_length = payload_length;
37203d4d13fSAlexei Starovoitov 	populate_ancestors(task, &kill_data->ancestors_info);
37303d4d13fSAlexei Starovoitov 	kill_data->meta.type = KILL_EVENT;
37403d4d13fSAlexei Starovoitov 	kill_data->kill_target_pid = tpid;
37503d4d13fSAlexei Starovoitov 	kill_data->kill_sig = sig;
37603d4d13fSAlexei Starovoitov 	kill_data->kill_count = 1;
37703d4d13fSAlexei Starovoitov 	kill_data->last_kill_time = bpf_ktime_get_ns();
37803d4d13fSAlexei Starovoitov 	return kill_data;
37903d4d13fSAlexei Starovoitov }
38003d4d13fSAlexei Starovoitov 
38103d4d13fSAlexei Starovoitov static INLINE int trace_var_sys_kill(void* ctx, int tpid, int sig)
38203d4d13fSAlexei Starovoitov {
38303d4d13fSAlexei Starovoitov 	if ((KILL_SIGNALS & (1ULL << sig)) == 0)
38403d4d13fSAlexei Starovoitov 		return 0;
38503d4d13fSAlexei Starovoitov 
38603d4d13fSAlexei Starovoitov 	u32 spid = get_userspace_pid();
38703d4d13fSAlexei Starovoitov 	struct var_kill_data_arr_t* arr_struct = bpf_map_lookup_elem(&var_tpid_to_data, &tpid);
38803d4d13fSAlexei Starovoitov 
38903d4d13fSAlexei Starovoitov 	if (arr_struct == NULL) {
39003d4d13fSAlexei Starovoitov 		struct var_kill_data_t* kill_data = get_var_kill_data(ctx, spid, tpid, sig);
39103d4d13fSAlexei Starovoitov 		int zero = 0;
39203d4d13fSAlexei Starovoitov 
39303d4d13fSAlexei Starovoitov 		if (kill_data == NULL)
39403d4d13fSAlexei Starovoitov 			return 0;
39503d4d13fSAlexei Starovoitov 		arr_struct = bpf_map_lookup_elem(&data_heap, &zero);
39603d4d13fSAlexei Starovoitov 		if (arr_struct == NULL)
39703d4d13fSAlexei Starovoitov 			return 0;
39803d4d13fSAlexei Starovoitov 		bpf_probe_read(&arr_struct->array[0], sizeof(arr_struct->array[0]), kill_data);
39903d4d13fSAlexei Starovoitov 	} else {
40003d4d13fSAlexei Starovoitov 		int index = get_var_spid_index(arr_struct, spid);
40103d4d13fSAlexei Starovoitov 
40203d4d13fSAlexei Starovoitov 		if (index == -1) {
40303d4d13fSAlexei Starovoitov 			struct var_kill_data_t* kill_data =
40403d4d13fSAlexei Starovoitov 				get_var_kill_data(ctx, spid, tpid, sig);
40503d4d13fSAlexei Starovoitov 			if (kill_data == NULL)
40603d4d13fSAlexei Starovoitov 				return 0;
40703d4d13fSAlexei Starovoitov #ifdef UNROLL
40803d4d13fSAlexei Starovoitov #pragma unroll
40903d4d13fSAlexei Starovoitov #endif
41003d4d13fSAlexei Starovoitov 			for (int i = 0; i < ARRAY_SIZE(arr_struct->array); i++)
41103d4d13fSAlexei Starovoitov 				if (arr_struct->array[i].meta.pid == 0) {
41203d4d13fSAlexei Starovoitov 					bpf_probe_read(&arr_struct->array[i],
41303d4d13fSAlexei Starovoitov 						       sizeof(arr_struct->array[i]), kill_data);
41403d4d13fSAlexei Starovoitov 					bpf_map_update_elem(&var_tpid_to_data, &tpid,
41503d4d13fSAlexei Starovoitov 							    arr_struct, 0);
41603d4d13fSAlexei Starovoitov 
41703d4d13fSAlexei Starovoitov 					return 0;
41803d4d13fSAlexei Starovoitov 				}
41903d4d13fSAlexei Starovoitov 			return 0;
42003d4d13fSAlexei Starovoitov 		}
42103d4d13fSAlexei Starovoitov 
42203d4d13fSAlexei Starovoitov 		struct var_kill_data_t* kill_data = &arr_struct->array[index];
42303d4d13fSAlexei Starovoitov 
42403d4d13fSAlexei Starovoitov 		u64 delta_sec =
42503d4d13fSAlexei Starovoitov 			(bpf_ktime_get_ns() - kill_data->last_kill_time) / 1000000000;
42603d4d13fSAlexei Starovoitov 
42703d4d13fSAlexei Starovoitov 		if (delta_sec < STALE_INFO) {
42803d4d13fSAlexei Starovoitov 			kill_data->kill_count++;
42903d4d13fSAlexei Starovoitov 			kill_data->last_kill_time = bpf_ktime_get_ns();
43003d4d13fSAlexei Starovoitov 			bpf_probe_read(&arr_struct->array[index],
43103d4d13fSAlexei Starovoitov 				       sizeof(arr_struct->array[index]),
43203d4d13fSAlexei Starovoitov 				       kill_data);
43303d4d13fSAlexei Starovoitov 		} else {
43403d4d13fSAlexei Starovoitov 			struct var_kill_data_t* kill_data =
43503d4d13fSAlexei Starovoitov 				get_var_kill_data(ctx, spid, tpid, sig);
43603d4d13fSAlexei Starovoitov 			if (kill_data == NULL)
43703d4d13fSAlexei Starovoitov 				return 0;
43803d4d13fSAlexei Starovoitov 			bpf_probe_read(&arr_struct->array[index],
43903d4d13fSAlexei Starovoitov 				       sizeof(arr_struct->array[index]),
44003d4d13fSAlexei Starovoitov 				       kill_data);
44103d4d13fSAlexei Starovoitov 		}
44203d4d13fSAlexei Starovoitov 	}
44303d4d13fSAlexei Starovoitov 	bpf_map_update_elem(&var_tpid_to_data, &tpid, arr_struct, 0);
44403d4d13fSAlexei Starovoitov 	return 0;
44503d4d13fSAlexei Starovoitov }
44603d4d13fSAlexei Starovoitov 
44703d4d13fSAlexei Starovoitov static INLINE void bpf_stats_enter(struct bpf_func_stats_ctx* bpf_stat_ctx,
44803d4d13fSAlexei Starovoitov 				   enum bpf_function_id func_id)
44903d4d13fSAlexei Starovoitov {
45003d4d13fSAlexei Starovoitov 	int func_id_key = func_id;
45103d4d13fSAlexei Starovoitov 
45203d4d13fSAlexei Starovoitov 	bpf_stat_ctx->start_time_ns = bpf_ktime_get_ns();
45303d4d13fSAlexei Starovoitov 	bpf_stat_ctx->bpf_func_stats_data_val =
45403d4d13fSAlexei Starovoitov 		bpf_map_lookup_elem(&bpf_func_stats, &func_id_key);
45503d4d13fSAlexei Starovoitov 	if (bpf_stat_ctx->bpf_func_stats_data_val)
45603d4d13fSAlexei Starovoitov 		bpf_stat_ctx->bpf_func_stats_data_val->num_executions++;
45703d4d13fSAlexei Starovoitov }
45803d4d13fSAlexei Starovoitov 
45903d4d13fSAlexei Starovoitov static INLINE void bpf_stats_exit(struct bpf_func_stats_ctx* bpf_stat_ctx)
46003d4d13fSAlexei Starovoitov {
46103d4d13fSAlexei Starovoitov 	if (bpf_stat_ctx->bpf_func_stats_data_val)
46203d4d13fSAlexei Starovoitov 		bpf_stat_ctx->bpf_func_stats_data_val->time_elapsed_ns +=
46303d4d13fSAlexei Starovoitov 			bpf_ktime_get_ns() - bpf_stat_ctx->start_time_ns;
46403d4d13fSAlexei Starovoitov }
46503d4d13fSAlexei Starovoitov 
46603d4d13fSAlexei Starovoitov static INLINE void
46703d4d13fSAlexei Starovoitov bpf_stats_pre_submit_var_perf_event(struct bpf_func_stats_ctx* bpf_stat_ctx,
46803d4d13fSAlexei Starovoitov 				    struct var_metadata_t* meta)
46903d4d13fSAlexei Starovoitov {
47003d4d13fSAlexei Starovoitov 	if (bpf_stat_ctx->bpf_func_stats_data_val) {
47103d4d13fSAlexei Starovoitov 		bpf_stat_ctx->bpf_func_stats_data_val->num_perf_events++;
47203d4d13fSAlexei Starovoitov 		meta->bpf_stats_num_perf_events =
47303d4d13fSAlexei Starovoitov 			bpf_stat_ctx->bpf_func_stats_data_val->num_perf_events;
47403d4d13fSAlexei Starovoitov 	}
47503d4d13fSAlexei Starovoitov 	meta->bpf_stats_start_ktime_ns = bpf_stat_ctx->start_time_ns;
47603d4d13fSAlexei Starovoitov 	meta->cpu_id = bpf_get_smp_processor_id();
47703d4d13fSAlexei Starovoitov }
47803d4d13fSAlexei Starovoitov 
47903d4d13fSAlexei Starovoitov static INLINE size_t
48003d4d13fSAlexei Starovoitov read_absolute_file_path_from_dentry(struct dentry* filp_dentry, void* payload)
48103d4d13fSAlexei Starovoitov {
48203d4d13fSAlexei Starovoitov 	size_t length = 0;
48303d4d13fSAlexei Starovoitov 	size_t filepart_length;
48403d4d13fSAlexei Starovoitov 	struct dentry* parent_dentry;
48503d4d13fSAlexei Starovoitov 
48603d4d13fSAlexei Starovoitov #ifdef UNROLL
48703d4d13fSAlexei Starovoitov #pragma unroll
48803d4d13fSAlexei Starovoitov #endif
48903d4d13fSAlexei Starovoitov 	for (int i = 0; i < MAX_PATH_DEPTH; i++) {
49003d4d13fSAlexei Starovoitov 		filepart_length = bpf_probe_read_str(payload, MAX_PATH,
49103d4d13fSAlexei Starovoitov 						     BPF_CORE_READ(filp_dentry, d_name.name));
49203d4d13fSAlexei Starovoitov 		barrier_var(filepart_length);
49303d4d13fSAlexei Starovoitov 		if (filepart_length > MAX_PATH)
49403d4d13fSAlexei Starovoitov 			break;
49503d4d13fSAlexei Starovoitov 		barrier_var(filepart_length);
49603d4d13fSAlexei Starovoitov 		payload += filepart_length;
49703d4d13fSAlexei Starovoitov 		length += filepart_length;
49803d4d13fSAlexei Starovoitov 
49903d4d13fSAlexei Starovoitov 		parent_dentry = BPF_CORE_READ(filp_dentry, d_parent);
50003d4d13fSAlexei Starovoitov 		if (filp_dentry == parent_dentry)
50103d4d13fSAlexei Starovoitov 			break;
50203d4d13fSAlexei Starovoitov 		filp_dentry = parent_dentry;
50303d4d13fSAlexei Starovoitov 	}
50403d4d13fSAlexei Starovoitov 
50503d4d13fSAlexei Starovoitov 	return length;
50603d4d13fSAlexei Starovoitov }
50703d4d13fSAlexei Starovoitov 
50803d4d13fSAlexei Starovoitov static INLINE bool
50903d4d13fSAlexei Starovoitov is_ancestor_in_allowed_inodes(struct dentry* filp_dentry)
51003d4d13fSAlexei Starovoitov {
51103d4d13fSAlexei Starovoitov 	struct dentry* parent_dentry;
51203d4d13fSAlexei Starovoitov #ifdef UNROLL
51303d4d13fSAlexei Starovoitov #pragma unroll
51403d4d13fSAlexei Starovoitov #endif
51503d4d13fSAlexei Starovoitov 	for (int i = 0; i < MAX_PATH_DEPTH; i++) {
51603d4d13fSAlexei Starovoitov 		u64 dir_ino = BPF_CORE_READ(filp_dentry, d_inode, i_ino);
51703d4d13fSAlexei Starovoitov 		bool* allowed_dir = bpf_map_lookup_elem(&allowed_directory_inodes, &dir_ino);
51803d4d13fSAlexei Starovoitov 
51903d4d13fSAlexei Starovoitov 		if (allowed_dir != NULL)
52003d4d13fSAlexei Starovoitov 			return true;
52103d4d13fSAlexei Starovoitov 		parent_dentry = BPF_CORE_READ(filp_dentry, d_parent);
52203d4d13fSAlexei Starovoitov 		if (filp_dentry == parent_dentry)
52303d4d13fSAlexei Starovoitov 			break;
52403d4d13fSAlexei Starovoitov 		filp_dentry = parent_dentry;
52503d4d13fSAlexei Starovoitov 	}
52603d4d13fSAlexei Starovoitov 	return false;
52703d4d13fSAlexei Starovoitov }
52803d4d13fSAlexei Starovoitov 
52903d4d13fSAlexei Starovoitov static INLINE bool is_dentry_allowed_for_filemod(struct dentry* file_dentry,
53003d4d13fSAlexei Starovoitov 						 u32* device_id,
53103d4d13fSAlexei Starovoitov 						 u64* file_ino)
53203d4d13fSAlexei Starovoitov {
53303d4d13fSAlexei Starovoitov 	u32 dev_id = BPF_CORE_READ(file_dentry, d_sb, s_dev);
53403d4d13fSAlexei Starovoitov 	*device_id = dev_id;
53503d4d13fSAlexei Starovoitov 	bool* allowed_device = bpf_map_lookup_elem(&allowed_devices, &dev_id);
53603d4d13fSAlexei Starovoitov 
53703d4d13fSAlexei Starovoitov 	if (allowed_device == NULL)
53803d4d13fSAlexei Starovoitov 		return false;
53903d4d13fSAlexei Starovoitov 
54003d4d13fSAlexei Starovoitov 	u64 ino = BPF_CORE_READ(file_dentry, d_inode, i_ino);
54103d4d13fSAlexei Starovoitov 	*file_ino = ino;
54203d4d13fSAlexei Starovoitov 	bool* allowed_file = bpf_map_lookup_elem(&allowed_file_inodes, &ino);
54303d4d13fSAlexei Starovoitov 
54403d4d13fSAlexei Starovoitov 	if (allowed_file == NULL)
54503d4d13fSAlexei Starovoitov 		if (!is_ancestor_in_allowed_inodes(BPF_CORE_READ(file_dentry, d_parent)))
54603d4d13fSAlexei Starovoitov 			return false;
54703d4d13fSAlexei Starovoitov 	return true;
54803d4d13fSAlexei Starovoitov }
54903d4d13fSAlexei Starovoitov 
55003d4d13fSAlexei Starovoitov SEC("kprobe/proc_sys_write")
55103d4d13fSAlexei Starovoitov ssize_t BPF_KPROBE(kprobe__proc_sys_write,
55203d4d13fSAlexei Starovoitov 		   struct file* filp, const char* buf,
55303d4d13fSAlexei Starovoitov 		   size_t count, loff_t* ppos)
55403d4d13fSAlexei Starovoitov {
55503d4d13fSAlexei Starovoitov 	struct bpf_func_stats_ctx stats_ctx;
55603d4d13fSAlexei Starovoitov 	bpf_stats_enter(&stats_ctx, profiler_bpf_proc_sys_write);
55703d4d13fSAlexei Starovoitov 
55803d4d13fSAlexei Starovoitov 	u32 pid = get_userspace_pid();
55903d4d13fSAlexei Starovoitov 	int zero = 0;
56003d4d13fSAlexei Starovoitov 	struct var_sysctl_data_t* sysctl_data =
56103d4d13fSAlexei Starovoitov 		bpf_map_lookup_elem(&data_heap, &zero);
56203d4d13fSAlexei Starovoitov 	if (!sysctl_data)
56303d4d13fSAlexei Starovoitov 		goto out;
56403d4d13fSAlexei Starovoitov 
56503d4d13fSAlexei Starovoitov 	struct task_struct* task = (struct task_struct*)bpf_get_current_task();
56603d4d13fSAlexei Starovoitov 	sysctl_data->meta.type = SYSCTL_EVENT;
56703d4d13fSAlexei Starovoitov 	void* payload = populate_var_metadata(&sysctl_data->meta, task, pid, sysctl_data->payload);
56803d4d13fSAlexei Starovoitov 	payload = populate_cgroup_info(&sysctl_data->cgroup_data, task, payload);
56903d4d13fSAlexei Starovoitov 
57003d4d13fSAlexei Starovoitov 	populate_ancestors(task, &sysctl_data->ancestors_info);
57103d4d13fSAlexei Starovoitov 
57203d4d13fSAlexei Starovoitov 	sysctl_data->sysctl_val_length = 0;
57303d4d13fSAlexei Starovoitov 	sysctl_data->sysctl_path_length = 0;
57403d4d13fSAlexei Starovoitov 
57503d4d13fSAlexei Starovoitov 	size_t sysctl_val_length = bpf_probe_read_str(payload, CTL_MAXNAME, buf);
57603d4d13fSAlexei Starovoitov 	barrier_var(sysctl_val_length);
57703d4d13fSAlexei Starovoitov 	if (sysctl_val_length <= CTL_MAXNAME) {
57803d4d13fSAlexei Starovoitov 		barrier_var(sysctl_val_length);
57903d4d13fSAlexei Starovoitov 		sysctl_data->sysctl_val_length = sysctl_val_length;
58003d4d13fSAlexei Starovoitov 		payload += sysctl_val_length;
58103d4d13fSAlexei Starovoitov 	}
58203d4d13fSAlexei Starovoitov 
58303d4d13fSAlexei Starovoitov 	size_t sysctl_path_length = bpf_probe_read_str(payload, MAX_PATH,
58403d4d13fSAlexei Starovoitov 						       BPF_CORE_READ(filp, f_path.dentry, d_name.name));
58503d4d13fSAlexei Starovoitov 	barrier_var(sysctl_path_length);
58603d4d13fSAlexei Starovoitov 	if (sysctl_path_length <= MAX_PATH) {
58703d4d13fSAlexei Starovoitov 		barrier_var(sysctl_path_length);
58803d4d13fSAlexei Starovoitov 		sysctl_data->sysctl_path_length = sysctl_path_length;
58903d4d13fSAlexei Starovoitov 		payload += sysctl_path_length;
59003d4d13fSAlexei Starovoitov 	}
59103d4d13fSAlexei Starovoitov 
59203d4d13fSAlexei Starovoitov 	bpf_stats_pre_submit_var_perf_event(&stats_ctx, &sysctl_data->meta);
59303d4d13fSAlexei Starovoitov 	unsigned long data_len = payload - (void*)sysctl_data;
59403d4d13fSAlexei Starovoitov 	data_len = data_len > sizeof(struct var_sysctl_data_t)
59503d4d13fSAlexei Starovoitov 		? sizeof(struct var_sysctl_data_t)
59603d4d13fSAlexei Starovoitov 		: data_len;
59703d4d13fSAlexei Starovoitov 	bpf_perf_event_output(ctx, &events, BPF_F_CURRENT_CPU, sysctl_data, data_len);
59803d4d13fSAlexei Starovoitov out:
59903d4d13fSAlexei Starovoitov 	bpf_stats_exit(&stats_ctx);
60003d4d13fSAlexei Starovoitov 	return 0;
60103d4d13fSAlexei Starovoitov }
60203d4d13fSAlexei Starovoitov 
60303d4d13fSAlexei Starovoitov SEC("tracepoint/syscalls/sys_enter_kill")
60403d4d13fSAlexei Starovoitov int tracepoint__syscalls__sys_enter_kill(struct trace_event_raw_sys_enter* ctx)
60503d4d13fSAlexei Starovoitov {
60603d4d13fSAlexei Starovoitov 	struct bpf_func_stats_ctx stats_ctx;
60703d4d13fSAlexei Starovoitov 
60803d4d13fSAlexei Starovoitov 	bpf_stats_enter(&stats_ctx, profiler_bpf_sys_enter_kill);
60903d4d13fSAlexei Starovoitov 	int pid = ctx->args[0];
61003d4d13fSAlexei Starovoitov 	int sig = ctx->args[1];
61103d4d13fSAlexei Starovoitov 	int ret = trace_var_sys_kill(ctx, pid, sig);
61203d4d13fSAlexei Starovoitov 	bpf_stats_exit(&stats_ctx);
61303d4d13fSAlexei Starovoitov 	return ret;
61403d4d13fSAlexei Starovoitov };
61503d4d13fSAlexei Starovoitov 
61603d4d13fSAlexei Starovoitov SEC("raw_tracepoint/sched_process_exit")
61703d4d13fSAlexei Starovoitov int raw_tracepoint__sched_process_exit(void* ctx)
61803d4d13fSAlexei Starovoitov {
61903d4d13fSAlexei Starovoitov 	int zero = 0;
62003d4d13fSAlexei Starovoitov 	struct bpf_func_stats_ctx stats_ctx;
62103d4d13fSAlexei Starovoitov 	bpf_stats_enter(&stats_ctx, profiler_bpf_sched_process_exit);
62203d4d13fSAlexei Starovoitov 
62303d4d13fSAlexei Starovoitov 	u32 tpid = get_userspace_pid();
62403d4d13fSAlexei Starovoitov 
62503d4d13fSAlexei Starovoitov 	struct var_kill_data_arr_t* arr_struct = bpf_map_lookup_elem(&var_tpid_to_data, &tpid);
62603d4d13fSAlexei Starovoitov 	struct var_kill_data_t* kill_data = bpf_map_lookup_elem(&data_heap, &zero);
62703d4d13fSAlexei Starovoitov 
62803d4d13fSAlexei Starovoitov 	if (arr_struct == NULL || kill_data == NULL)
62903d4d13fSAlexei Starovoitov 		goto out;
63003d4d13fSAlexei Starovoitov 
63103d4d13fSAlexei Starovoitov 	struct task_struct* task = (struct task_struct*)bpf_get_current_task();
63203d4d13fSAlexei Starovoitov 	struct kernfs_node* proc_kernfs = BPF_CORE_READ(task, cgroups, dfl_cgrp, kn);
63303d4d13fSAlexei Starovoitov 
63403d4d13fSAlexei Starovoitov #ifdef UNROLL
63503d4d13fSAlexei Starovoitov #pragma unroll
63603d4d13fSAlexei Starovoitov #endif
63703d4d13fSAlexei Starovoitov 	for (int i = 0; i < ARRAY_SIZE(arr_struct->array); i++) {
63803d4d13fSAlexei Starovoitov 		struct var_kill_data_t* past_kill_data = &arr_struct->array[i];
63903d4d13fSAlexei Starovoitov 
64003d4d13fSAlexei Starovoitov 		if (past_kill_data != NULL && past_kill_data->kill_target_pid == tpid) {
64103d4d13fSAlexei Starovoitov 			bpf_probe_read(kill_data, sizeof(*past_kill_data), past_kill_data);
64203d4d13fSAlexei Starovoitov 			void* payload = kill_data->payload;
64303d4d13fSAlexei Starovoitov 			size_t offset = kill_data->payload_length;
64403d4d13fSAlexei Starovoitov 			if (offset >= MAX_METADATA_PAYLOAD_LEN + MAX_CGROUP_PAYLOAD_LEN)
64503d4d13fSAlexei Starovoitov 				return 0;
64603d4d13fSAlexei Starovoitov 			payload += offset;
64703d4d13fSAlexei Starovoitov 
64803d4d13fSAlexei Starovoitov 			kill_data->kill_target_name_length = 0;
64903d4d13fSAlexei Starovoitov 			kill_data->kill_target_cgroup_proc_length = 0;
65003d4d13fSAlexei Starovoitov 
65103d4d13fSAlexei Starovoitov 			size_t comm_length = bpf_core_read_str(payload, TASK_COMM_LEN, &task->comm);
65203d4d13fSAlexei Starovoitov 			barrier_var(comm_length);
65303d4d13fSAlexei Starovoitov 			if (comm_length <= TASK_COMM_LEN) {
65403d4d13fSAlexei Starovoitov 				barrier_var(comm_length);
65503d4d13fSAlexei Starovoitov 				kill_data->kill_target_name_length = comm_length;
65603d4d13fSAlexei Starovoitov 				payload += comm_length;
65703d4d13fSAlexei Starovoitov 			}
65803d4d13fSAlexei Starovoitov 
65903d4d13fSAlexei Starovoitov 			size_t cgroup_proc_length = bpf_probe_read_str(payload, KILL_TARGET_LEN,
66003d4d13fSAlexei Starovoitov 								       BPF_CORE_READ(proc_kernfs, name));
66103d4d13fSAlexei Starovoitov 			barrier_var(cgroup_proc_length);
66203d4d13fSAlexei Starovoitov 			if (cgroup_proc_length <= KILL_TARGET_LEN) {
66303d4d13fSAlexei Starovoitov 				barrier_var(cgroup_proc_length);
66403d4d13fSAlexei Starovoitov 				kill_data->kill_target_cgroup_proc_length = cgroup_proc_length;
66503d4d13fSAlexei Starovoitov 				payload += cgroup_proc_length;
66603d4d13fSAlexei Starovoitov 			}
66703d4d13fSAlexei Starovoitov 
66803d4d13fSAlexei Starovoitov 			bpf_stats_pre_submit_var_perf_event(&stats_ctx, &kill_data->meta);
66903d4d13fSAlexei Starovoitov 			unsigned long data_len = (void*)payload - (void*)kill_data;
67003d4d13fSAlexei Starovoitov 			data_len = data_len > sizeof(struct var_kill_data_t)
67103d4d13fSAlexei Starovoitov 				? sizeof(struct var_kill_data_t)
67203d4d13fSAlexei Starovoitov 				: data_len;
67303d4d13fSAlexei Starovoitov 			bpf_perf_event_output(ctx, &events, BPF_F_CURRENT_CPU, kill_data, data_len);
67403d4d13fSAlexei Starovoitov 		}
67503d4d13fSAlexei Starovoitov 	}
67603d4d13fSAlexei Starovoitov 	bpf_map_delete_elem(&var_tpid_to_data, &tpid);
67703d4d13fSAlexei Starovoitov out:
67803d4d13fSAlexei Starovoitov 	bpf_stats_exit(&stats_ctx);
67903d4d13fSAlexei Starovoitov 	return 0;
68003d4d13fSAlexei Starovoitov }
68103d4d13fSAlexei Starovoitov 
68203d4d13fSAlexei Starovoitov SEC("raw_tracepoint/sched_process_exec")
68303d4d13fSAlexei Starovoitov int raw_tracepoint__sched_process_exec(struct bpf_raw_tracepoint_args* ctx)
68403d4d13fSAlexei Starovoitov {
68503d4d13fSAlexei Starovoitov 	struct bpf_func_stats_ctx stats_ctx;
68603d4d13fSAlexei Starovoitov 	bpf_stats_enter(&stats_ctx, profiler_bpf_sched_process_exec);
68703d4d13fSAlexei Starovoitov 
68803d4d13fSAlexei Starovoitov 	struct linux_binprm* bprm = (struct linux_binprm*)ctx->args[2];
68903d4d13fSAlexei Starovoitov 	u64 inode = BPF_CORE_READ(bprm, file, f_inode, i_ino);
69003d4d13fSAlexei Starovoitov 
69103d4d13fSAlexei Starovoitov 	bool* should_filter_binprm = bpf_map_lookup_elem(&disallowed_exec_inodes, &inode);
69203d4d13fSAlexei Starovoitov 	if (should_filter_binprm != NULL)
69303d4d13fSAlexei Starovoitov 		goto out;
69403d4d13fSAlexei Starovoitov 
69503d4d13fSAlexei Starovoitov 	int zero = 0;
69603d4d13fSAlexei Starovoitov 	struct var_exec_data_t* proc_exec_data = bpf_map_lookup_elem(&data_heap, &zero);
69703d4d13fSAlexei Starovoitov 	if (!proc_exec_data)
69803d4d13fSAlexei Starovoitov 		goto out;
69903d4d13fSAlexei Starovoitov 
70003d4d13fSAlexei Starovoitov 	if (INODE_FILTER && inode != INODE_FILTER)
70103d4d13fSAlexei Starovoitov 		return 0;
70203d4d13fSAlexei Starovoitov 
70303d4d13fSAlexei Starovoitov 	u32 pid = get_userspace_pid();
70403d4d13fSAlexei Starovoitov 	struct task_struct* task = (struct task_struct*)bpf_get_current_task();
70503d4d13fSAlexei Starovoitov 
70603d4d13fSAlexei Starovoitov 	proc_exec_data->meta.type = EXEC_EVENT;
70703d4d13fSAlexei Starovoitov 	proc_exec_data->bin_path_length = 0;
70803d4d13fSAlexei Starovoitov 	proc_exec_data->cmdline_length = 0;
70903d4d13fSAlexei Starovoitov 	proc_exec_data->environment_length = 0;
71003d4d13fSAlexei Starovoitov 	void* payload = populate_var_metadata(&proc_exec_data->meta, task, pid,
71103d4d13fSAlexei Starovoitov 					      proc_exec_data->payload);
71203d4d13fSAlexei Starovoitov 	payload = populate_cgroup_info(&proc_exec_data->cgroup_data, task, payload);
71303d4d13fSAlexei Starovoitov 
71403d4d13fSAlexei Starovoitov 	struct task_struct* parent_task = BPF_CORE_READ(task, real_parent);
71503d4d13fSAlexei Starovoitov 	proc_exec_data->parent_pid = BPF_CORE_READ(parent_task, tgid);
71603d4d13fSAlexei Starovoitov 	proc_exec_data->parent_uid = BPF_CORE_READ(parent_task, real_cred, uid.val);
71703d4d13fSAlexei Starovoitov 	proc_exec_data->parent_exec_id = BPF_CORE_READ(parent_task, self_exec_id);
71803d4d13fSAlexei Starovoitov 	proc_exec_data->parent_start_time = BPF_CORE_READ(parent_task, start_time);
71903d4d13fSAlexei Starovoitov 
72003d4d13fSAlexei Starovoitov 	const char* filename = BPF_CORE_READ(bprm, filename);
72103d4d13fSAlexei Starovoitov 	size_t bin_path_length = bpf_probe_read_str(payload, MAX_FILENAME_LEN, filename);
72203d4d13fSAlexei Starovoitov 	barrier_var(bin_path_length);
72303d4d13fSAlexei Starovoitov 	if (bin_path_length <= MAX_FILENAME_LEN) {
72403d4d13fSAlexei Starovoitov 		barrier_var(bin_path_length);
72503d4d13fSAlexei Starovoitov 		proc_exec_data->bin_path_length = bin_path_length;
72603d4d13fSAlexei Starovoitov 		payload += bin_path_length;
72703d4d13fSAlexei Starovoitov 	}
72803d4d13fSAlexei Starovoitov 
72903d4d13fSAlexei Starovoitov 	void* arg_start = (void*)BPF_CORE_READ(task, mm, arg_start);
73003d4d13fSAlexei Starovoitov 	void* arg_end = (void*)BPF_CORE_READ(task, mm, arg_end);
73103d4d13fSAlexei Starovoitov 	unsigned int cmdline_length = probe_read_lim(payload, arg_start,
73203d4d13fSAlexei Starovoitov 						     arg_end - arg_start, MAX_ARGS_LEN);
73303d4d13fSAlexei Starovoitov 
73403d4d13fSAlexei Starovoitov 	if (cmdline_length <= MAX_ARGS_LEN) {
73503d4d13fSAlexei Starovoitov 		barrier_var(cmdline_length);
73603d4d13fSAlexei Starovoitov 		proc_exec_data->cmdline_length = cmdline_length;
73703d4d13fSAlexei Starovoitov 		payload += cmdline_length;
73803d4d13fSAlexei Starovoitov 	}
73903d4d13fSAlexei Starovoitov 
74003d4d13fSAlexei Starovoitov 	if (READ_ENVIRON_FROM_EXEC) {
74103d4d13fSAlexei Starovoitov 		void* env_start = (void*)BPF_CORE_READ(task, mm, env_start);
74203d4d13fSAlexei Starovoitov 		void* env_end = (void*)BPF_CORE_READ(task, mm, env_end);
74303d4d13fSAlexei Starovoitov 		unsigned long env_len = probe_read_lim(payload, env_start,
74403d4d13fSAlexei Starovoitov 						       env_end - env_start, MAX_ENVIRON_LEN);
74503d4d13fSAlexei Starovoitov 		if (cmdline_length <= MAX_ENVIRON_LEN) {
74603d4d13fSAlexei Starovoitov 			proc_exec_data->environment_length = env_len;
74703d4d13fSAlexei Starovoitov 			payload += env_len;
74803d4d13fSAlexei Starovoitov 		}
74903d4d13fSAlexei Starovoitov 	}
75003d4d13fSAlexei Starovoitov 
75103d4d13fSAlexei Starovoitov 	bpf_stats_pre_submit_var_perf_event(&stats_ctx, &proc_exec_data->meta);
75203d4d13fSAlexei Starovoitov 	unsigned long data_len = payload - (void*)proc_exec_data;
75303d4d13fSAlexei Starovoitov 	data_len = data_len > sizeof(struct var_exec_data_t)
75403d4d13fSAlexei Starovoitov 		? sizeof(struct var_exec_data_t)
75503d4d13fSAlexei Starovoitov 		: data_len;
75603d4d13fSAlexei Starovoitov 	bpf_perf_event_output(ctx, &events, BPF_F_CURRENT_CPU, proc_exec_data, data_len);
75703d4d13fSAlexei Starovoitov out:
75803d4d13fSAlexei Starovoitov 	bpf_stats_exit(&stats_ctx);
75903d4d13fSAlexei Starovoitov 	return 0;
76003d4d13fSAlexei Starovoitov }
76103d4d13fSAlexei Starovoitov 
76203d4d13fSAlexei Starovoitov SEC("kretprobe/do_filp_open")
76303d4d13fSAlexei Starovoitov int kprobe_ret__do_filp_open(struct pt_regs* ctx)
76403d4d13fSAlexei Starovoitov {
76503d4d13fSAlexei Starovoitov 	struct bpf_func_stats_ctx stats_ctx;
76603d4d13fSAlexei Starovoitov 	bpf_stats_enter(&stats_ctx, profiler_bpf_do_filp_open_ret);
76703d4d13fSAlexei Starovoitov 
76803d4d13fSAlexei Starovoitov 	struct file* filp = (struct file*)PT_REGS_RC_CORE(ctx);
76903d4d13fSAlexei Starovoitov 
77003d4d13fSAlexei Starovoitov 	if (filp == NULL || IS_ERR(filp))
77103d4d13fSAlexei Starovoitov 		goto out;
77203d4d13fSAlexei Starovoitov 	unsigned int flags = BPF_CORE_READ(filp, f_flags);
77303d4d13fSAlexei Starovoitov 	if ((flags & (O_RDWR | O_WRONLY)) == 0)
77403d4d13fSAlexei Starovoitov 		goto out;
77503d4d13fSAlexei Starovoitov 	if ((flags & O_TMPFILE) > 0)
77603d4d13fSAlexei Starovoitov 		goto out;
77703d4d13fSAlexei Starovoitov 	struct inode* file_inode = BPF_CORE_READ(filp, f_inode);
77803d4d13fSAlexei Starovoitov 	umode_t mode = BPF_CORE_READ(file_inode, i_mode);
77903d4d13fSAlexei Starovoitov 	if (S_ISDIR(mode) || S_ISCHR(mode) || S_ISBLK(mode) || S_ISFIFO(mode) ||
78003d4d13fSAlexei Starovoitov 	    S_ISSOCK(mode))
78103d4d13fSAlexei Starovoitov 		goto out;
78203d4d13fSAlexei Starovoitov 
78303d4d13fSAlexei Starovoitov 	struct dentry* filp_dentry = BPF_CORE_READ(filp, f_path.dentry);
78403d4d13fSAlexei Starovoitov 	u32 device_id = 0;
78503d4d13fSAlexei Starovoitov 	u64 file_ino = 0;
78603d4d13fSAlexei Starovoitov 	if (!is_dentry_allowed_for_filemod(filp_dentry, &device_id, &file_ino))
78703d4d13fSAlexei Starovoitov 		goto out;
78803d4d13fSAlexei Starovoitov 
78903d4d13fSAlexei Starovoitov 	int zero = 0;
79003d4d13fSAlexei Starovoitov 	struct var_filemod_data_t* filemod_data = bpf_map_lookup_elem(&data_heap, &zero);
79103d4d13fSAlexei Starovoitov 	if (!filemod_data)
79203d4d13fSAlexei Starovoitov 		goto out;
79303d4d13fSAlexei Starovoitov 
79403d4d13fSAlexei Starovoitov 	u32 pid = get_userspace_pid();
79503d4d13fSAlexei Starovoitov 	struct task_struct* task = (struct task_struct*)bpf_get_current_task();
79603d4d13fSAlexei Starovoitov 
79703d4d13fSAlexei Starovoitov 	filemod_data->meta.type = FILEMOD_EVENT;
79803d4d13fSAlexei Starovoitov 	filemod_data->fmod_type = FMOD_OPEN;
79903d4d13fSAlexei Starovoitov 	filemod_data->dst_flags = flags;
80003d4d13fSAlexei Starovoitov 	filemod_data->src_inode = 0;
80103d4d13fSAlexei Starovoitov 	filemod_data->dst_inode = file_ino;
80203d4d13fSAlexei Starovoitov 	filemod_data->src_device_id = 0;
80303d4d13fSAlexei Starovoitov 	filemod_data->dst_device_id = device_id;
80403d4d13fSAlexei Starovoitov 	filemod_data->src_filepath_length = 0;
80503d4d13fSAlexei Starovoitov 	filemod_data->dst_filepath_length = 0;
80603d4d13fSAlexei Starovoitov 
80703d4d13fSAlexei Starovoitov 	void* payload = populate_var_metadata(&filemod_data->meta, task, pid,
80803d4d13fSAlexei Starovoitov 					      filemod_data->payload);
80903d4d13fSAlexei Starovoitov 	payload = populate_cgroup_info(&filemod_data->cgroup_data, task, payload);
81003d4d13fSAlexei Starovoitov 
81103d4d13fSAlexei Starovoitov 	size_t len = read_absolute_file_path_from_dentry(filp_dentry, payload);
81203d4d13fSAlexei Starovoitov 	barrier_var(len);
81303d4d13fSAlexei Starovoitov 	if (len <= MAX_FILEPATH_LENGTH) {
81403d4d13fSAlexei Starovoitov 		barrier_var(len);
81503d4d13fSAlexei Starovoitov 		payload += len;
81603d4d13fSAlexei Starovoitov 		filemod_data->dst_filepath_length = len;
81703d4d13fSAlexei Starovoitov 	}
81803d4d13fSAlexei Starovoitov 	bpf_stats_pre_submit_var_perf_event(&stats_ctx, &filemod_data->meta);
81903d4d13fSAlexei Starovoitov 	unsigned long data_len = payload - (void*)filemod_data;
82003d4d13fSAlexei Starovoitov 	data_len = data_len > sizeof(*filemod_data) ? sizeof(*filemod_data) : data_len;
82103d4d13fSAlexei Starovoitov 	bpf_perf_event_output(ctx, &events, BPF_F_CURRENT_CPU, filemod_data, data_len);
82203d4d13fSAlexei Starovoitov out:
82303d4d13fSAlexei Starovoitov 	bpf_stats_exit(&stats_ctx);
82403d4d13fSAlexei Starovoitov 	return 0;
82503d4d13fSAlexei Starovoitov }
82603d4d13fSAlexei Starovoitov 
82703d4d13fSAlexei Starovoitov SEC("kprobe/vfs_link")
82803d4d13fSAlexei Starovoitov int BPF_KPROBE(kprobe__vfs_link,
829*abf08576SChristian Brauner 	       struct dentry* old_dentry, struct mnt_idmap *idmap,
830e299bcd4SNikolay Borisov 	       struct inode* dir, struct dentry* new_dentry,
831e299bcd4SNikolay Borisov 	       struct inode** delegated_inode)
83203d4d13fSAlexei Starovoitov {
83303d4d13fSAlexei Starovoitov 	struct bpf_func_stats_ctx stats_ctx;
83403d4d13fSAlexei Starovoitov 	bpf_stats_enter(&stats_ctx, profiler_bpf_vfs_link);
83503d4d13fSAlexei Starovoitov 
83603d4d13fSAlexei Starovoitov 	u32 src_device_id = 0;
83703d4d13fSAlexei Starovoitov 	u64 src_file_ino = 0;
83803d4d13fSAlexei Starovoitov 	u32 dst_device_id = 0;
83903d4d13fSAlexei Starovoitov 	u64 dst_file_ino = 0;
84003d4d13fSAlexei Starovoitov 	if (!is_dentry_allowed_for_filemod(old_dentry, &src_device_id, &src_file_ino) &&
84103d4d13fSAlexei Starovoitov 	    !is_dentry_allowed_for_filemod(new_dentry, &dst_device_id, &dst_file_ino))
84203d4d13fSAlexei Starovoitov 		goto out;
84303d4d13fSAlexei Starovoitov 
84403d4d13fSAlexei Starovoitov 	int zero = 0;
84503d4d13fSAlexei Starovoitov 	struct var_filemod_data_t* filemod_data = bpf_map_lookup_elem(&data_heap, &zero);
84603d4d13fSAlexei Starovoitov 	if (!filemod_data)
84703d4d13fSAlexei Starovoitov 		goto out;
84803d4d13fSAlexei Starovoitov 
84903d4d13fSAlexei Starovoitov 	u32 pid = get_userspace_pid();
85003d4d13fSAlexei Starovoitov 	struct task_struct* task = (struct task_struct*)bpf_get_current_task();
85103d4d13fSAlexei Starovoitov 
85203d4d13fSAlexei Starovoitov 	filemod_data->meta.type = FILEMOD_EVENT;
85303d4d13fSAlexei Starovoitov 	filemod_data->fmod_type = FMOD_LINK;
85403d4d13fSAlexei Starovoitov 	filemod_data->dst_flags = 0;
85503d4d13fSAlexei Starovoitov 	filemod_data->src_inode = src_file_ino;
85603d4d13fSAlexei Starovoitov 	filemod_data->dst_inode = dst_file_ino;
85703d4d13fSAlexei Starovoitov 	filemod_data->src_device_id = src_device_id;
85803d4d13fSAlexei Starovoitov 	filemod_data->dst_device_id = dst_device_id;
85903d4d13fSAlexei Starovoitov 	filemod_data->src_filepath_length = 0;
86003d4d13fSAlexei Starovoitov 	filemod_data->dst_filepath_length = 0;
86103d4d13fSAlexei Starovoitov 
86203d4d13fSAlexei Starovoitov 	void* payload = populate_var_metadata(&filemod_data->meta, task, pid,
86303d4d13fSAlexei Starovoitov 					      filemod_data->payload);
86403d4d13fSAlexei Starovoitov 	payload = populate_cgroup_info(&filemod_data->cgroup_data, task, payload);
86503d4d13fSAlexei Starovoitov 
86603d4d13fSAlexei Starovoitov 	size_t len = read_absolute_file_path_from_dentry(old_dentry, payload);
86703d4d13fSAlexei Starovoitov 	barrier_var(len);
86803d4d13fSAlexei Starovoitov 	if (len <= MAX_FILEPATH_LENGTH) {
86903d4d13fSAlexei Starovoitov 		barrier_var(len);
87003d4d13fSAlexei Starovoitov 		payload += len;
87103d4d13fSAlexei Starovoitov 		filemod_data->src_filepath_length = len;
87203d4d13fSAlexei Starovoitov 	}
87303d4d13fSAlexei Starovoitov 
87403d4d13fSAlexei Starovoitov 	len = read_absolute_file_path_from_dentry(new_dentry, payload);
87503d4d13fSAlexei Starovoitov 	barrier_var(len);
87603d4d13fSAlexei Starovoitov 	if (len <= MAX_FILEPATH_LENGTH) {
87703d4d13fSAlexei Starovoitov 		barrier_var(len);
87803d4d13fSAlexei Starovoitov 		payload += len;
87903d4d13fSAlexei Starovoitov 		filemod_data->dst_filepath_length = len;
88003d4d13fSAlexei Starovoitov 	}
88103d4d13fSAlexei Starovoitov 
88203d4d13fSAlexei Starovoitov 	bpf_stats_pre_submit_var_perf_event(&stats_ctx, &filemod_data->meta);
88303d4d13fSAlexei Starovoitov 	unsigned long data_len = payload - (void*)filemod_data;
88403d4d13fSAlexei Starovoitov 	data_len = data_len > sizeof(*filemod_data) ? sizeof(*filemod_data) : data_len;
88503d4d13fSAlexei Starovoitov 	bpf_perf_event_output(ctx, &events, BPF_F_CURRENT_CPU, filemod_data, data_len);
88603d4d13fSAlexei Starovoitov out:
88703d4d13fSAlexei Starovoitov 	bpf_stats_exit(&stats_ctx);
88803d4d13fSAlexei Starovoitov 	return 0;
88903d4d13fSAlexei Starovoitov }
89003d4d13fSAlexei Starovoitov 
89103d4d13fSAlexei Starovoitov SEC("kprobe/vfs_symlink")
89203d4d13fSAlexei Starovoitov int BPF_KPROBE(kprobe__vfs_symlink, struct inode* dir, struct dentry* dentry,
89303d4d13fSAlexei Starovoitov 	       const char* oldname)
89403d4d13fSAlexei Starovoitov {
89503d4d13fSAlexei Starovoitov 	struct bpf_func_stats_ctx stats_ctx;
89603d4d13fSAlexei Starovoitov 	bpf_stats_enter(&stats_ctx, profiler_bpf_vfs_symlink);
89703d4d13fSAlexei Starovoitov 
89803d4d13fSAlexei Starovoitov 	u32 dst_device_id = 0;
89903d4d13fSAlexei Starovoitov 	u64 dst_file_ino = 0;
90003d4d13fSAlexei Starovoitov 	if (!is_dentry_allowed_for_filemod(dentry, &dst_device_id, &dst_file_ino))
90103d4d13fSAlexei Starovoitov 		goto out;
90203d4d13fSAlexei Starovoitov 
90303d4d13fSAlexei Starovoitov 	int zero = 0;
90403d4d13fSAlexei Starovoitov 	struct var_filemod_data_t* filemod_data = bpf_map_lookup_elem(&data_heap, &zero);
90503d4d13fSAlexei Starovoitov 	if (!filemod_data)
90603d4d13fSAlexei Starovoitov 		goto out;
90703d4d13fSAlexei Starovoitov 
90803d4d13fSAlexei Starovoitov 	u32 pid = get_userspace_pid();
90903d4d13fSAlexei Starovoitov 	struct task_struct* task = (struct task_struct*)bpf_get_current_task();
91003d4d13fSAlexei Starovoitov 
91103d4d13fSAlexei Starovoitov 	filemod_data->meta.type = FILEMOD_EVENT;
91203d4d13fSAlexei Starovoitov 	filemod_data->fmod_type = FMOD_SYMLINK;
91303d4d13fSAlexei Starovoitov 	filemod_data->dst_flags = 0;
91403d4d13fSAlexei Starovoitov 	filemod_data->src_inode = 0;
91503d4d13fSAlexei Starovoitov 	filemod_data->dst_inode = dst_file_ino;
91603d4d13fSAlexei Starovoitov 	filemod_data->src_device_id = 0;
91703d4d13fSAlexei Starovoitov 	filemod_data->dst_device_id = dst_device_id;
91803d4d13fSAlexei Starovoitov 	filemod_data->src_filepath_length = 0;
91903d4d13fSAlexei Starovoitov 	filemod_data->dst_filepath_length = 0;
92003d4d13fSAlexei Starovoitov 
92103d4d13fSAlexei Starovoitov 	void* payload = populate_var_metadata(&filemod_data->meta, task, pid,
92203d4d13fSAlexei Starovoitov 					      filemod_data->payload);
92303d4d13fSAlexei Starovoitov 	payload = populate_cgroup_info(&filemod_data->cgroup_data, task, payload);
92403d4d13fSAlexei Starovoitov 
92503d4d13fSAlexei Starovoitov 	size_t len = bpf_probe_read_str(payload, MAX_FILEPATH_LENGTH, oldname);
92603d4d13fSAlexei Starovoitov 	barrier_var(len);
92703d4d13fSAlexei Starovoitov 	if (len <= MAX_FILEPATH_LENGTH) {
92803d4d13fSAlexei Starovoitov 		barrier_var(len);
92903d4d13fSAlexei Starovoitov 		payload += len;
93003d4d13fSAlexei Starovoitov 		filemod_data->src_filepath_length = len;
93103d4d13fSAlexei Starovoitov 	}
93203d4d13fSAlexei Starovoitov 	len = read_absolute_file_path_from_dentry(dentry, payload);
93303d4d13fSAlexei Starovoitov 	barrier_var(len);
93403d4d13fSAlexei Starovoitov 	if (len <= MAX_FILEPATH_LENGTH) {
93503d4d13fSAlexei Starovoitov 		barrier_var(len);
93603d4d13fSAlexei Starovoitov 		payload += len;
93703d4d13fSAlexei Starovoitov 		filemod_data->dst_filepath_length = len;
93803d4d13fSAlexei Starovoitov 	}
93903d4d13fSAlexei Starovoitov 	bpf_stats_pre_submit_var_perf_event(&stats_ctx, &filemod_data->meta);
94003d4d13fSAlexei Starovoitov 	unsigned long data_len = payload - (void*)filemod_data;
94103d4d13fSAlexei Starovoitov 	data_len = data_len > sizeof(*filemod_data) ? sizeof(*filemod_data) : data_len;
94203d4d13fSAlexei Starovoitov 	bpf_perf_event_output(ctx, &events, BPF_F_CURRENT_CPU, filemod_data, data_len);
94303d4d13fSAlexei Starovoitov out:
94403d4d13fSAlexei Starovoitov 	bpf_stats_exit(&stats_ctx);
94503d4d13fSAlexei Starovoitov 	return 0;
94603d4d13fSAlexei Starovoitov }
94703d4d13fSAlexei Starovoitov 
94803d4d13fSAlexei Starovoitov SEC("raw_tracepoint/sched_process_fork")
94903d4d13fSAlexei Starovoitov int raw_tracepoint__sched_process_fork(struct bpf_raw_tracepoint_args* ctx)
95003d4d13fSAlexei Starovoitov {
95103d4d13fSAlexei Starovoitov 	struct bpf_func_stats_ctx stats_ctx;
95203d4d13fSAlexei Starovoitov 	bpf_stats_enter(&stats_ctx, profiler_bpf_sched_process_fork);
95303d4d13fSAlexei Starovoitov 
95403d4d13fSAlexei Starovoitov 	int zero = 0;
95503d4d13fSAlexei Starovoitov 	struct var_fork_data_t* fork_data = bpf_map_lookup_elem(&data_heap, &zero);
95603d4d13fSAlexei Starovoitov 	if (!fork_data)
95703d4d13fSAlexei Starovoitov 		goto out;
95803d4d13fSAlexei Starovoitov 
95903d4d13fSAlexei Starovoitov 	struct task_struct* parent = (struct task_struct*)ctx->args[0];
96003d4d13fSAlexei Starovoitov 	struct task_struct* child = (struct task_struct*)ctx->args[1];
96103d4d13fSAlexei Starovoitov 	fork_data->meta.type = FORK_EVENT;
96203d4d13fSAlexei Starovoitov 
96303d4d13fSAlexei Starovoitov 	void* payload = populate_var_metadata(&fork_data->meta, child,
96403d4d13fSAlexei Starovoitov 					      BPF_CORE_READ(child, pid), fork_data->payload);
96503d4d13fSAlexei Starovoitov 	fork_data->parent_pid = BPF_CORE_READ(parent, pid);
96603d4d13fSAlexei Starovoitov 	fork_data->parent_exec_id = BPF_CORE_READ(parent, self_exec_id);
96703d4d13fSAlexei Starovoitov 	fork_data->parent_start_time = BPF_CORE_READ(parent, start_time);
96803d4d13fSAlexei Starovoitov 	bpf_stats_pre_submit_var_perf_event(&stats_ctx, &fork_data->meta);
96903d4d13fSAlexei Starovoitov 
97003d4d13fSAlexei Starovoitov 	unsigned long data_len = payload - (void*)fork_data;
97103d4d13fSAlexei Starovoitov 	data_len = data_len > sizeof(*fork_data) ? sizeof(*fork_data) : data_len;
97203d4d13fSAlexei Starovoitov 	bpf_perf_event_output(ctx, &events, BPF_F_CURRENT_CPU, fork_data, data_len);
97303d4d13fSAlexei Starovoitov out:
97403d4d13fSAlexei Starovoitov 	bpf_stats_exit(&stats_ctx);
97503d4d13fSAlexei Starovoitov 	return 0;
97603d4d13fSAlexei Starovoitov }
97703d4d13fSAlexei Starovoitov char _license[] SEC("license") = "GPL";
978