xref: /linux/drivers/gpu/drm/xe/xe_sriov_vfio.c (revision deb879faa9d2f327ac5c079d9d1a1747b79260e3)
1*bd45d46fSMichał Winiarski // SPDX-License-Identifier: MIT
2*bd45d46fSMichał Winiarski /*
3*bd45d46fSMichał Winiarski  * Copyright © 2025 Intel Corporation
4*bd45d46fSMichał Winiarski  */
5*bd45d46fSMichał Winiarski 
6*bd45d46fSMichał Winiarski #include <drm/intel/xe_sriov_vfio.h>
7*bd45d46fSMichał Winiarski #include <linux/cleanup.h>
8*bd45d46fSMichał Winiarski 
9*bd45d46fSMichał Winiarski #include "xe_pci.h"
10*bd45d46fSMichał Winiarski #include "xe_pm.h"
11*bd45d46fSMichał Winiarski #include "xe_sriov_pf_control.h"
12*bd45d46fSMichał Winiarski #include "xe_sriov_pf_helpers.h"
13*bd45d46fSMichał Winiarski #include "xe_sriov_pf_migration.h"
14*bd45d46fSMichał Winiarski 
xe_sriov_vfio_get_pf(struct pci_dev * pdev)15*bd45d46fSMichał Winiarski struct xe_device *xe_sriov_vfio_get_pf(struct pci_dev *pdev)
16*bd45d46fSMichał Winiarski {
17*bd45d46fSMichał Winiarski 	return xe_pci_to_pf_device(pdev);
18*bd45d46fSMichał Winiarski }
19*bd45d46fSMichał Winiarski EXPORT_SYMBOL_FOR_MODULES(xe_sriov_vfio_get_pf, "xe-vfio-pci");
20*bd45d46fSMichał Winiarski 
xe_sriov_vfio_migration_supported(struct xe_device * xe)21*bd45d46fSMichał Winiarski bool xe_sriov_vfio_migration_supported(struct xe_device *xe)
22*bd45d46fSMichał Winiarski {
23*bd45d46fSMichał Winiarski 	if (!IS_SRIOV_PF(xe))
24*bd45d46fSMichał Winiarski 		return -EPERM;
25*bd45d46fSMichał Winiarski 
26*bd45d46fSMichał Winiarski 	return xe_sriov_pf_migration_supported(xe);
27*bd45d46fSMichał Winiarski }
28*bd45d46fSMichał Winiarski EXPORT_SYMBOL_FOR_MODULES(xe_sriov_vfio_migration_supported, "xe-vfio-pci");
29*bd45d46fSMichał Winiarski 
30*bd45d46fSMichał Winiarski #define DEFINE_XE_SRIOV_VFIO_FUNCTION(_type, _func, _impl)			\
31*bd45d46fSMichał Winiarski _type xe_sriov_vfio_##_func(struct xe_device *xe, unsigned int vfid)		\
32*bd45d46fSMichał Winiarski {										\
33*bd45d46fSMichał Winiarski 	if (!IS_SRIOV_PF(xe))							\
34*bd45d46fSMichał Winiarski 		return -EPERM;							\
35*bd45d46fSMichał Winiarski 	if (vfid == PFID || vfid > xe_sriov_pf_num_vfs(xe))			\
36*bd45d46fSMichał Winiarski 		return -EINVAL;							\
37*bd45d46fSMichał Winiarski 										\
38*bd45d46fSMichał Winiarski 	guard(xe_pm_runtime_noresume)(xe);					\
39*bd45d46fSMichał Winiarski 										\
40*bd45d46fSMichał Winiarski 	return xe_sriov_pf_##_impl(xe, vfid);					\
41*bd45d46fSMichał Winiarski }										\
42*bd45d46fSMichał Winiarski EXPORT_SYMBOL_FOR_MODULES(xe_sriov_vfio_##_func, "xe-vfio-pci")
43*bd45d46fSMichał Winiarski 
44*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, wait_flr_done, control_wait_flr);
45*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, suspend_device, control_pause_vf);
46*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, resume_device, control_resume_vf);
47*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, stop_copy_enter, control_trigger_save_vf);
48*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, stop_copy_exit, control_finish_save_vf);
49*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, resume_data_enter, control_trigger_restore_vf);
50*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, resume_data_exit, control_finish_restore_vf);
51*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(int, error, control_stop_vf);
52*bd45d46fSMichał Winiarski DEFINE_XE_SRIOV_VFIO_FUNCTION(ssize_t, stop_copy_size, migration_size);
53*bd45d46fSMichał Winiarski 
xe_sriov_vfio_data_read(struct xe_device * xe,unsigned int vfid,char __user * buf,size_t len)54*bd45d46fSMichał Winiarski ssize_t xe_sriov_vfio_data_read(struct xe_device *xe, unsigned int vfid,
55*bd45d46fSMichał Winiarski 				char __user *buf, size_t len)
56*bd45d46fSMichał Winiarski {
57*bd45d46fSMichał Winiarski 	if (!IS_SRIOV_PF(xe))
58*bd45d46fSMichał Winiarski 		return -EPERM;
59*bd45d46fSMichał Winiarski 	if (vfid == PFID || vfid > xe_sriov_pf_num_vfs(xe))
60*bd45d46fSMichał Winiarski 		return -EINVAL;
61*bd45d46fSMichał Winiarski 
62*bd45d46fSMichał Winiarski 	guard(xe_pm_runtime_noresume)(xe);
63*bd45d46fSMichał Winiarski 
64*bd45d46fSMichał Winiarski 	return xe_sriov_pf_migration_read(xe, vfid, buf, len);
65*bd45d46fSMichał Winiarski }
66*bd45d46fSMichał Winiarski EXPORT_SYMBOL_FOR_MODULES(xe_sriov_vfio_data_read, "xe-vfio-pci");
67*bd45d46fSMichał Winiarski 
xe_sriov_vfio_data_write(struct xe_device * xe,unsigned int vfid,const char __user * buf,size_t len)68*bd45d46fSMichał Winiarski ssize_t xe_sriov_vfio_data_write(struct xe_device *xe, unsigned int vfid,
69*bd45d46fSMichał Winiarski 				 const char __user *buf, size_t len)
70*bd45d46fSMichał Winiarski {
71*bd45d46fSMichał Winiarski 	if (!IS_SRIOV_PF(xe))
72*bd45d46fSMichał Winiarski 		return -EPERM;
73*bd45d46fSMichał Winiarski 	if (vfid == PFID || vfid > xe_sriov_pf_num_vfs(xe))
74*bd45d46fSMichał Winiarski 		return -EINVAL;
75*bd45d46fSMichał Winiarski 
76*bd45d46fSMichał Winiarski 	guard(xe_pm_runtime_noresume)(xe);
77*bd45d46fSMichał Winiarski 
78*bd45d46fSMichał Winiarski 	return xe_sriov_pf_migration_write(xe, vfid, buf, len);
79*bd45d46fSMichał Winiarski }
80*bd45d46fSMichał Winiarski EXPORT_SYMBOL_FOR_MODULES(xe_sriov_vfio_data_write, "xe-vfio-pci");
81