1*bd45d46fSMichał Winiarski // SPDX-License-Identifier: MIT
2*bd45d46fSMichał Winiarski /*
3*bd45d46fSMichał Winiarski * Copyright © 2025 Intel Corporation
4*bd45d46fSMichał Winiarski */
5*bd45d46fSMichał Winiarski
6*bd45d46fSMichał Winiarski #include <drm/intel/xe_sriov_vfio.h>
7*bd45d46fSMichał Winiarski #include <linux/cleanup.h>
8*bd45d46fSMichał Winiarski
9*bd45d46fSMichał Winiarski #include "xe_pci.h"
10*bd45d46fSMichał Winiarski #include "xe_pm.h"
11*bd45d46fSMichał Winiarski #include "xe_sriov_pf_control.h"
12*bd45d46fSMichał Winiarski #include "xe_sriov_pf_helpers.h"
13*bd45d46fSMichał Winiarski #include "xe_sriov_pf_migration.h"
14*bd45d46fSMichał Winiarski
xe_sriov_vfio_get_pf(struct pci_dev * pdev)15*bd45d46fSMichał Winiarski struct xe_device *xe_sriov_vfio_get_pf(struct pci_dev *pdev)
16*bd45d46fSMichał Winiarski {
17*bd45d46fSMichał Winiarski return xe_pci_to_pf_device(pdev);
18*bd45d46fSMichał Winiarski }
19*bd45d46fSMichał Winiarski EXPORT_SYMBOL_FOR_MODULES(xe_sriov_vfio_get_pf, "xe-vfio-pci");
20*bd45d46fSMichał Winiarski
xe_sriov_vfio_migration_supported(struct xe_device * xe)21*bd45d46fSMichał Winiarski bool xe_sriov_vfio_migration_supported(struct xe_device *xe)
22*bd45d46fSMichał Winiarski {
23*bd45d46fSMichał Winiarski if (!IS_SRIOV_PF(xe))
24*bd45d46fSMichał Winiarski return -EPERM;
25*bd45d46fSMichał Winiarski
26*bd45d46fSMichał Winiarski return xe_sriov_pf_migration_supported(xe);
27*bd45d46fSMichał Winiarski }
28*bd45d46fSMichał Winiarski EXPORT_SYMBOL_FOR_MODULES(xe_sriov_vfio_migration_supported, "xe-vfio-pci");
29*bd45d46fSMichał Winiarski
30*bd45d46fSMichał Winiarski #define DEFINE_XE_SRIOV_VFIO_FUNCTION(_type, _func, _impl) \
31*bd45d46fSMichał Winiarski _type xe_sriov_vfio_##_func(struct xe_device *xe, unsigned int vfid) \
32*bd45d46fSMichał Winiarski { \
33*bd45d46fSMichał Winiarski if (!IS_SRIOV_PF(xe)) \
34*bd45d46fSMichał Winiarski return -EPERM; \
35*bd45d46fSMichał Winiarski if (vfid == PFID || vfid > xe_sriov_pf_num_vfs(xe)) \
36*bd45d46fSMichał Winiarski return -EINVAL; \
37*bd45d46fSMichał Winiarski \
38*bd45d46fSMichał Winiarski guard(xe_pm_runtime_noresume)(xe); \
39*bd45d46fSMichał Winiarski \
40*bd45d46fSMichał Winiarski return xe_sriov_pf_##_impl(xe, vfid); \
41*bd45d46fSMichał Winiarski } \
42*bd45d46fSMichał Winiarski EXPORT_SYMBOL_FOR_MODULES(xe_sriov_vfio_##_func, "xe-vfio-pci")
43*bd45d46fSMichał Winiarski
44*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, wait_flr_done, control_wait_flr);
45*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, suspend_device, control_pause_vf);
46*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, resume_device, control_resume_vf);
47*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, stop_copy_enter, control_trigger_save_vf);
48*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, stop_copy_exit, control_finish_save_vf);
49*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, resume_data_enter, control_trigger_restore_vf);
50*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, resume_data_exit, control_finish_restore_vf);
51*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, error, control_stop_vf);
52*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(ssize_t, stop_copy_size, migration_size);
53*bd45d46fSMichał Winiarski
xe_sriov_vfio_data_read(struct xe_device * xe,unsigned int vfid,char __user * buf,size_t len)54*bd45d46fSMichał Winiarski ssize_t xe_sriov_vfio_data_read(struct xe_device *xe, unsigned int vfid,
55*bd45d46fSMichał Winiarski char __user *buf, size_t len)
56*bd45d46fSMichał Winiarski {
57*bd45d46fSMichał Winiarski if (!IS_SRIOV_PF(xe))
58*bd45d46fSMichał Winiarski return -EPERM;
59*bd45d46fSMichał Winiarski if (vfid == PFID || vfid > xe_sriov_pf_num_vfs(xe))
60*bd45d46fSMichał Winiarski return -EINVAL;
61*bd45d46fSMichał Winiarski
62*bd45d46fSMichał Winiarski guard(xe_pm_runtime_noresume)(xe);
63*bd45d46fSMichał Winiarski
64*bd45d46fSMichał Winiarski return xe_sriov_pf_migration_read(xe, vfid, buf, len);
65*bd45d46fSMichał Winiarski }
66*bd45d46fSMichał Winiarski EXPORT_SYMBOL_FOR_MODULES(xe_sriov_vfio_data_read, "xe-vfio-pci");
67*bd45d46fSMichał Winiarski
xe_sriov_vfio_data_write(struct xe_device * xe,unsigned int vfid,const char __user * buf,size_t len)68*bd45d46fSMichał Winiarski ssize_t xe_sriov_vfio_data_write(struct xe_device *xe, unsigned int vfid,
69*bd45d46fSMichał Winiarski const char __user *buf, size_t len)
70*bd45d46fSMichał Winiarski {
71*bd45d46fSMichał Winiarski if (!IS_SRIOV_PF(xe))
72*bd45d46fSMichał Winiarski return -EPERM;
73*bd45d46fSMichał Winiarski if (vfid == PFID || vfid > xe_sriov_pf_num_vfs(xe))
74*bd45d46fSMichał Winiarski return -EINVAL;
75*bd45d46fSMichał Winiarski
76*bd45d46fSMichał Winiarski guard(xe_pm_runtime_noresume)(xe);
77*bd45d46fSMichał Winiarski
78*bd45d46fSMichał Winiarski return xe_sriov_pf_migration_write(xe, vfid, buf, len);
79*bd45d46fSMichał Winiarski }
80*bd45d46fSMichał Winiarski EXPORT_SYMBOL_FOR_MODULES(xe_sriov_vfio_data_write, "xe-vfio-pci");
81