xref: /linux/fs/xfs/xfs_zone_alloc.c (revision 0bb2193056b5969e4148fc0909e89a5362da873e)
14e4d5207SChristoph Hellwig // SPDX-License-Identifier: GPL-2.0
24e4d5207SChristoph Hellwig /*
34e4d5207SChristoph Hellwig  * Copyright (c) 2023-2025 Christoph Hellwig.
44e4d5207SChristoph Hellwig  * Copyright (c) 2024-2025, Western Digital Corporation or its affiliates.
54e4d5207SChristoph Hellwig  */
64e4d5207SChristoph Hellwig #include "xfs.h"
74e4d5207SChristoph Hellwig #include "xfs_shared.h"
84e4d5207SChristoph Hellwig #include "xfs_format.h"
94e4d5207SChristoph Hellwig #include "xfs_log_format.h"
104e4d5207SChristoph Hellwig #include "xfs_error.h"
114e4d5207SChristoph Hellwig #include "xfs_trans_resv.h"
124e4d5207SChristoph Hellwig #include "xfs_mount.h"
134e4d5207SChristoph Hellwig #include "xfs_inode.h"
144e4d5207SChristoph Hellwig #include "xfs_iomap.h"
154e4d5207SChristoph Hellwig #include "xfs_trans.h"
164e4d5207SChristoph Hellwig #include "xfs_alloc.h"
174e4d5207SChristoph Hellwig #include "xfs_bmap.h"
184e4d5207SChristoph Hellwig #include "xfs_bmap_btree.h"
194e4d5207SChristoph Hellwig #include "xfs_trans_space.h"
204e4d5207SChristoph Hellwig #include "xfs_refcount.h"
214e4d5207SChristoph Hellwig #include "xfs_rtbitmap.h"
224e4d5207SChristoph Hellwig #include "xfs_rtrmap_btree.h"
234e4d5207SChristoph Hellwig #include "xfs_zone_alloc.h"
244e4d5207SChristoph Hellwig #include "xfs_zone_priv.h"
254e4d5207SChristoph Hellwig #include "xfs_zones.h"
264e4d5207SChristoph Hellwig #include "xfs_trace.h"
274e4d5207SChristoph Hellwig 
284e4d5207SChristoph Hellwig void
294e4d5207SChristoph Hellwig xfs_open_zone_put(
304e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz)
314e4d5207SChristoph Hellwig {
324e4d5207SChristoph Hellwig 	if (atomic_dec_and_test(&oz->oz_ref)) {
334e4d5207SChristoph Hellwig 		xfs_rtgroup_rele(oz->oz_rtg);
344e4d5207SChristoph Hellwig 		kfree(oz);
354e4d5207SChristoph Hellwig 	}
364e4d5207SChristoph Hellwig }
374e4d5207SChristoph Hellwig 
384e4d5207SChristoph Hellwig static void
394e4d5207SChristoph Hellwig xfs_open_zone_mark_full(
404e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz)
414e4d5207SChristoph Hellwig {
424e4d5207SChristoph Hellwig 	struct xfs_rtgroup	*rtg = oz->oz_rtg;
434e4d5207SChristoph Hellwig 	struct xfs_mount	*mp = rtg_mount(rtg);
444e4d5207SChristoph Hellwig 	struct xfs_zone_info	*zi = mp->m_zone_info;
454e4d5207SChristoph Hellwig 
464e4d5207SChristoph Hellwig 	trace_xfs_zone_full(rtg);
474e4d5207SChristoph Hellwig 
484e4d5207SChristoph Hellwig 	WRITE_ONCE(rtg->rtg_open_zone, NULL);
494e4d5207SChristoph Hellwig 
504e4d5207SChristoph Hellwig 	spin_lock(&zi->zi_open_zones_lock);
514e4d5207SChristoph Hellwig 	if (oz->oz_is_gc) {
524e4d5207SChristoph Hellwig 		ASSERT(current == zi->zi_gc_thread);
534e4d5207SChristoph Hellwig 		zi->zi_open_gc_zone = NULL;
544e4d5207SChristoph Hellwig 	} else {
554e4d5207SChristoph Hellwig 		zi->zi_nr_open_zones--;
564e4d5207SChristoph Hellwig 		list_del_init(&oz->oz_entry);
574e4d5207SChristoph Hellwig 	}
584e4d5207SChristoph Hellwig 	spin_unlock(&zi->zi_open_zones_lock);
594e4d5207SChristoph Hellwig 	xfs_open_zone_put(oz);
604e4d5207SChristoph Hellwig 
614e4d5207SChristoph Hellwig 	wake_up_all(&zi->zi_zone_wait);
624e4d5207SChristoph Hellwig }
634e4d5207SChristoph Hellwig 
644e4d5207SChristoph Hellwig static void
654e4d5207SChristoph Hellwig xfs_zone_record_blocks(
664e4d5207SChristoph Hellwig 	struct xfs_trans	*tp,
674e4d5207SChristoph Hellwig 	xfs_fsblock_t		fsbno,
684e4d5207SChristoph Hellwig 	xfs_filblks_t		len,
694e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz,
704e4d5207SChristoph Hellwig 	bool			used)
714e4d5207SChristoph Hellwig {
724e4d5207SChristoph Hellwig 	struct xfs_mount	*mp = tp->t_mountp;
734e4d5207SChristoph Hellwig 	struct xfs_rtgroup	*rtg = oz->oz_rtg;
744e4d5207SChristoph Hellwig 	struct xfs_inode	*rmapip = rtg_rmap(rtg);
754e4d5207SChristoph Hellwig 
764e4d5207SChristoph Hellwig 	trace_xfs_zone_record_blocks(oz, xfs_rtb_to_rgbno(mp, fsbno), len);
774e4d5207SChristoph Hellwig 
784e4d5207SChristoph Hellwig 	xfs_rtgroup_lock(rtg, XFS_RTGLOCK_RMAP);
794e4d5207SChristoph Hellwig 	xfs_rtgroup_trans_join(tp, rtg, XFS_RTGLOCK_RMAP);
804e4d5207SChristoph Hellwig 	if (used) {
814e4d5207SChristoph Hellwig 		rmapip->i_used_blocks += len;
824e4d5207SChristoph Hellwig 		ASSERT(rmapip->i_used_blocks <= rtg_blocks(rtg));
834e4d5207SChristoph Hellwig 	} else {
844e4d5207SChristoph Hellwig 		xfs_add_frextents(mp, len);
854e4d5207SChristoph Hellwig 	}
864e4d5207SChristoph Hellwig 	oz->oz_written += len;
874e4d5207SChristoph Hellwig 	if (oz->oz_written == rtg_blocks(rtg))
884e4d5207SChristoph Hellwig 		xfs_open_zone_mark_full(oz);
894e4d5207SChristoph Hellwig 	xfs_trans_log_inode(tp, rmapip, XFS_ILOG_CORE);
904e4d5207SChristoph Hellwig }
914e4d5207SChristoph Hellwig 
924e4d5207SChristoph Hellwig static int
934e4d5207SChristoph Hellwig xfs_zoned_map_extent(
944e4d5207SChristoph Hellwig 	struct xfs_trans	*tp,
954e4d5207SChristoph Hellwig 	struct xfs_inode	*ip,
964e4d5207SChristoph Hellwig 	struct xfs_bmbt_irec	*new,
974e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz,
984e4d5207SChristoph Hellwig 	xfs_fsblock_t		old_startblock)
994e4d5207SChristoph Hellwig {
1004e4d5207SChristoph Hellwig 	struct xfs_bmbt_irec	data;
1014e4d5207SChristoph Hellwig 	int			nmaps = 1;
1024e4d5207SChristoph Hellwig 	int			error;
1034e4d5207SChristoph Hellwig 
1044e4d5207SChristoph Hellwig 	/* Grab the corresponding mapping in the data fork. */
1054e4d5207SChristoph Hellwig 	error = xfs_bmapi_read(ip, new->br_startoff, new->br_blockcount, &data,
1064e4d5207SChristoph Hellwig 			       &nmaps, 0);
1074e4d5207SChristoph Hellwig 	if (error)
1084e4d5207SChristoph Hellwig 		return error;
1094e4d5207SChristoph Hellwig 
1104e4d5207SChristoph Hellwig 	/*
1114e4d5207SChristoph Hellwig 	 * Cap the update to the existing extent in the data fork because we can
1124e4d5207SChristoph Hellwig 	 * only overwrite one extent at a time.
1134e4d5207SChristoph Hellwig 	 */
1144e4d5207SChristoph Hellwig 	ASSERT(new->br_blockcount >= data.br_blockcount);
1154e4d5207SChristoph Hellwig 	new->br_blockcount = data.br_blockcount;
1164e4d5207SChristoph Hellwig 
1174e4d5207SChristoph Hellwig 	/*
1184e4d5207SChristoph Hellwig 	 * If a data write raced with this GC write, keep the existing data in
1194e4d5207SChristoph Hellwig 	 * the data fork, mark our newly written GC extent as reclaimable, then
1204e4d5207SChristoph Hellwig 	 * move on to the next extent.
1214e4d5207SChristoph Hellwig 	 */
1224e4d5207SChristoph Hellwig 	if (old_startblock != NULLFSBLOCK &&
1234e4d5207SChristoph Hellwig 	    old_startblock != data.br_startblock)
1244e4d5207SChristoph Hellwig 		goto skip;
1254e4d5207SChristoph Hellwig 
1264e4d5207SChristoph Hellwig 	trace_xfs_reflink_cow_remap_from(ip, new);
1274e4d5207SChristoph Hellwig 	trace_xfs_reflink_cow_remap_to(ip, &data);
1284e4d5207SChristoph Hellwig 
1294e4d5207SChristoph Hellwig 	error = xfs_iext_count_extend(tp, ip, XFS_DATA_FORK,
1304e4d5207SChristoph Hellwig 			XFS_IEXT_REFLINK_END_COW_CNT);
1314e4d5207SChristoph Hellwig 	if (error)
1324e4d5207SChristoph Hellwig 		return error;
1334e4d5207SChristoph Hellwig 
1344e4d5207SChristoph Hellwig 	if (data.br_startblock != HOLESTARTBLOCK) {
1354e4d5207SChristoph Hellwig 		ASSERT(data.br_startblock != DELAYSTARTBLOCK);
1364e4d5207SChristoph Hellwig 		ASSERT(!isnullstartblock(data.br_startblock));
1374e4d5207SChristoph Hellwig 
1384e4d5207SChristoph Hellwig 		xfs_bmap_unmap_extent(tp, ip, XFS_DATA_FORK, &data);
1394e4d5207SChristoph Hellwig 		if (xfs_is_reflink_inode(ip)) {
1404e4d5207SChristoph Hellwig 			xfs_refcount_decrease_extent(tp, true, &data);
1414e4d5207SChristoph Hellwig 		} else {
1424e4d5207SChristoph Hellwig 			error = xfs_free_extent_later(tp, data.br_startblock,
1434e4d5207SChristoph Hellwig 					data.br_blockcount, NULL,
1444e4d5207SChristoph Hellwig 					XFS_AG_RESV_NONE,
1454e4d5207SChristoph Hellwig 					XFS_FREE_EXTENT_REALTIME);
1464e4d5207SChristoph Hellwig 			if (error)
1474e4d5207SChristoph Hellwig 				return error;
1484e4d5207SChristoph Hellwig 		}
1494e4d5207SChristoph Hellwig 	}
1504e4d5207SChristoph Hellwig 
1514e4d5207SChristoph Hellwig 	xfs_zone_record_blocks(tp, new->br_startblock, new->br_blockcount, oz,
1524e4d5207SChristoph Hellwig 			true);
1534e4d5207SChristoph Hellwig 
1544e4d5207SChristoph Hellwig 	/* Map the new blocks into the data fork. */
1554e4d5207SChristoph Hellwig 	xfs_bmap_map_extent(tp, ip, XFS_DATA_FORK, new);
1564e4d5207SChristoph Hellwig 	return 0;
1574e4d5207SChristoph Hellwig 
1584e4d5207SChristoph Hellwig skip:
1594e4d5207SChristoph Hellwig 	trace_xfs_reflink_cow_remap_skip(ip, new);
1604e4d5207SChristoph Hellwig 	xfs_zone_record_blocks(tp, new->br_startblock, new->br_blockcount, oz,
1614e4d5207SChristoph Hellwig 			false);
1624e4d5207SChristoph Hellwig 	return 0;
1634e4d5207SChristoph Hellwig }
1644e4d5207SChristoph Hellwig 
1654e4d5207SChristoph Hellwig int
1664e4d5207SChristoph Hellwig xfs_zoned_end_io(
1674e4d5207SChristoph Hellwig 	struct xfs_inode	*ip,
1684e4d5207SChristoph Hellwig 	xfs_off_t		offset,
1694e4d5207SChristoph Hellwig 	xfs_off_t		count,
1704e4d5207SChristoph Hellwig 	xfs_daddr_t		daddr,
1714e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz,
1724e4d5207SChristoph Hellwig 	xfs_fsblock_t		old_startblock)
1734e4d5207SChristoph Hellwig {
1744e4d5207SChristoph Hellwig 	struct xfs_mount	*mp = ip->i_mount;
1754e4d5207SChristoph Hellwig 	xfs_fileoff_t		end_fsb = XFS_B_TO_FSB(mp, offset + count);
1764e4d5207SChristoph Hellwig 	struct xfs_bmbt_irec	new = {
1774e4d5207SChristoph Hellwig 		.br_startoff	= XFS_B_TO_FSBT(mp, offset),
1784e4d5207SChristoph Hellwig 		.br_startblock	= xfs_daddr_to_rtb(mp, daddr),
1794e4d5207SChristoph Hellwig 		.br_state	= XFS_EXT_NORM,
1804e4d5207SChristoph Hellwig 	};
1814e4d5207SChristoph Hellwig 	unsigned int		resblks =
1824e4d5207SChristoph Hellwig 		XFS_EXTENTADD_SPACE_RES(mp, XFS_DATA_FORK);
1834e4d5207SChristoph Hellwig 	struct xfs_trans	*tp;
1844e4d5207SChristoph Hellwig 	int			error;
1854e4d5207SChristoph Hellwig 
1864e4d5207SChristoph Hellwig 	if (xfs_is_shutdown(mp))
1874e4d5207SChristoph Hellwig 		return -EIO;
1884e4d5207SChristoph Hellwig 
1894e4d5207SChristoph Hellwig 	while (new.br_startoff < end_fsb) {
1904e4d5207SChristoph Hellwig 		new.br_blockcount = end_fsb - new.br_startoff;
1914e4d5207SChristoph Hellwig 
1924e4d5207SChristoph Hellwig 		error = xfs_trans_alloc(mp, &M_RES(mp)->tr_write, resblks, 0,
1934e4d5207SChristoph Hellwig 				XFS_TRANS_RESERVE | XFS_TRANS_RES_FDBLKS, &tp);
1944e4d5207SChristoph Hellwig 		if (error)
1954e4d5207SChristoph Hellwig 			return error;
1964e4d5207SChristoph Hellwig 		xfs_ilock(ip, XFS_ILOCK_EXCL);
1974e4d5207SChristoph Hellwig 		xfs_trans_ijoin(tp, ip, 0);
1984e4d5207SChristoph Hellwig 
1994e4d5207SChristoph Hellwig 		error = xfs_zoned_map_extent(tp, ip, &new, oz, old_startblock);
2004e4d5207SChristoph Hellwig 		if (error)
2014e4d5207SChristoph Hellwig 			xfs_trans_cancel(tp);
2024e4d5207SChristoph Hellwig 		else
2034e4d5207SChristoph Hellwig 			error = xfs_trans_commit(tp);
2044e4d5207SChristoph Hellwig 		xfs_iunlock(ip, XFS_ILOCK_EXCL);
2054e4d5207SChristoph Hellwig 		if (error)
2064e4d5207SChristoph Hellwig 			return error;
2074e4d5207SChristoph Hellwig 
2084e4d5207SChristoph Hellwig 		new.br_startoff += new.br_blockcount;
2094e4d5207SChristoph Hellwig 		new.br_startblock += new.br_blockcount;
2104e4d5207SChristoph Hellwig 		if (old_startblock != NULLFSBLOCK)
2114e4d5207SChristoph Hellwig 			old_startblock += new.br_blockcount;
2124e4d5207SChristoph Hellwig 	}
2134e4d5207SChristoph Hellwig 
2144e4d5207SChristoph Hellwig 	return 0;
2154e4d5207SChristoph Hellwig }
2164e4d5207SChristoph Hellwig 
2174e4d5207SChristoph Hellwig /*
2184e4d5207SChristoph Hellwig  * "Free" blocks allocated in a zone.
2194e4d5207SChristoph Hellwig  *
2204e4d5207SChristoph Hellwig  * Just decrement the used blocks counter and report the space as freed.
2214e4d5207SChristoph Hellwig  */
2224e4d5207SChristoph Hellwig int
2234e4d5207SChristoph Hellwig xfs_zone_free_blocks(
2244e4d5207SChristoph Hellwig 	struct xfs_trans	*tp,
2254e4d5207SChristoph Hellwig 	struct xfs_rtgroup	*rtg,
2264e4d5207SChristoph Hellwig 	xfs_fsblock_t		fsbno,
2274e4d5207SChristoph Hellwig 	xfs_filblks_t		len)
2284e4d5207SChristoph Hellwig {
2294e4d5207SChristoph Hellwig 	struct xfs_mount	*mp = tp->t_mountp;
2304e4d5207SChristoph Hellwig 	struct xfs_inode	*rmapip = rtg_rmap(rtg);
2314e4d5207SChristoph Hellwig 
2324e4d5207SChristoph Hellwig 	xfs_assert_ilocked(rmapip, XFS_ILOCK_EXCL);
2334e4d5207SChristoph Hellwig 
2344e4d5207SChristoph Hellwig 	if (len > rmapip->i_used_blocks) {
2354e4d5207SChristoph Hellwig 		xfs_err(mp,
2364e4d5207SChristoph Hellwig "trying to free more blocks (%lld) than used counter (%u).",
2374e4d5207SChristoph Hellwig 			len, rmapip->i_used_blocks);
2384e4d5207SChristoph Hellwig 		ASSERT(len <= rmapip->i_used_blocks);
2394e4d5207SChristoph Hellwig 		xfs_rtginode_mark_sick(rtg, XFS_RTGI_RMAP);
2404e4d5207SChristoph Hellwig 		xfs_force_shutdown(mp, SHUTDOWN_CORRUPT_INCORE);
2414e4d5207SChristoph Hellwig 		return -EFSCORRUPTED;
2424e4d5207SChristoph Hellwig 	}
2434e4d5207SChristoph Hellwig 
2444e4d5207SChristoph Hellwig 	trace_xfs_zone_free_blocks(rtg, xfs_rtb_to_rgbno(mp, fsbno), len);
2454e4d5207SChristoph Hellwig 
2464e4d5207SChristoph Hellwig 	rmapip->i_used_blocks -= len;
2474e4d5207SChristoph Hellwig 	xfs_add_frextents(mp, len);
2484e4d5207SChristoph Hellwig 	xfs_trans_log_inode(tp, rmapip, XFS_ILOG_CORE);
2494e4d5207SChristoph Hellwig 	return 0;
2504e4d5207SChristoph Hellwig }
2514e4d5207SChristoph Hellwig 
2524e4d5207SChristoph Hellwig /*
2534e4d5207SChristoph Hellwig  * Check if the zone containing the data just before the offset we are
2544e4d5207SChristoph Hellwig  * writing to is still open and has space.
2554e4d5207SChristoph Hellwig  */
2564e4d5207SChristoph Hellwig static struct xfs_open_zone *
2574e4d5207SChristoph Hellwig xfs_last_used_zone(
2584e4d5207SChristoph Hellwig 	struct iomap_ioend	*ioend)
2594e4d5207SChristoph Hellwig {
2604e4d5207SChristoph Hellwig 	struct xfs_inode	*ip = XFS_I(ioend->io_inode);
2614e4d5207SChristoph Hellwig 	struct xfs_mount	*mp = ip->i_mount;
2624e4d5207SChristoph Hellwig 	xfs_fileoff_t		offset_fsb = XFS_B_TO_FSB(mp, ioend->io_offset);
2634e4d5207SChristoph Hellwig 	struct xfs_rtgroup	*rtg = NULL;
2644e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz = NULL;
2654e4d5207SChristoph Hellwig 	struct xfs_iext_cursor	icur;
2664e4d5207SChristoph Hellwig 	struct xfs_bmbt_irec	got;
2674e4d5207SChristoph Hellwig 
2684e4d5207SChristoph Hellwig 	xfs_ilock(ip, XFS_ILOCK_SHARED);
2694e4d5207SChristoph Hellwig 	if (!xfs_iext_lookup_extent_before(ip, &ip->i_df, &offset_fsb,
2704e4d5207SChristoph Hellwig 				&icur, &got)) {
2714e4d5207SChristoph Hellwig 		xfs_iunlock(ip, XFS_ILOCK_SHARED);
2724e4d5207SChristoph Hellwig 		return NULL;
2734e4d5207SChristoph Hellwig 	}
2744e4d5207SChristoph Hellwig 	xfs_iunlock(ip, XFS_ILOCK_SHARED);
2754e4d5207SChristoph Hellwig 
2764e4d5207SChristoph Hellwig 	rtg = xfs_rtgroup_grab(mp, xfs_rtb_to_rgno(mp, got.br_startblock));
2774e4d5207SChristoph Hellwig 	if (!rtg)
2784e4d5207SChristoph Hellwig 		return NULL;
2794e4d5207SChristoph Hellwig 
2804e4d5207SChristoph Hellwig 	xfs_ilock(rtg_rmap(rtg), XFS_ILOCK_SHARED);
2814e4d5207SChristoph Hellwig 	oz = READ_ONCE(rtg->rtg_open_zone);
2824e4d5207SChristoph Hellwig 	if (oz && (oz->oz_is_gc || !atomic_inc_not_zero(&oz->oz_ref)))
2834e4d5207SChristoph Hellwig 		oz = NULL;
2844e4d5207SChristoph Hellwig 	xfs_iunlock(rtg_rmap(rtg), XFS_ILOCK_SHARED);
2854e4d5207SChristoph Hellwig 
2864e4d5207SChristoph Hellwig 	xfs_rtgroup_rele(rtg);
2874e4d5207SChristoph Hellwig 	return oz;
2884e4d5207SChristoph Hellwig }
2894e4d5207SChristoph Hellwig 
2904e4d5207SChristoph Hellwig static struct xfs_group *
2914e4d5207SChristoph Hellwig xfs_find_free_zone(
2924e4d5207SChristoph Hellwig 	struct xfs_mount	*mp,
2934e4d5207SChristoph Hellwig 	unsigned long		start,
2944e4d5207SChristoph Hellwig 	unsigned long		end)
2954e4d5207SChristoph Hellwig {
2964e4d5207SChristoph Hellwig 	struct xfs_zone_info	*zi = mp->m_zone_info;
2974e4d5207SChristoph Hellwig 	XA_STATE		(xas, &mp->m_groups[XG_TYPE_RTG].xa, start);
2984e4d5207SChristoph Hellwig 	struct xfs_group	*xg;
2994e4d5207SChristoph Hellwig 
3004e4d5207SChristoph Hellwig 	xas_lock(&xas);
3014e4d5207SChristoph Hellwig 	xas_for_each_marked(&xas, xg, end, XFS_RTG_FREE)
3024e4d5207SChristoph Hellwig 		if (atomic_inc_not_zero(&xg->xg_active_ref))
3034e4d5207SChristoph Hellwig 			goto found;
3044e4d5207SChristoph Hellwig 	xas_unlock(&xas);
3054e4d5207SChristoph Hellwig 	return NULL;
3064e4d5207SChristoph Hellwig 
3074e4d5207SChristoph Hellwig found:
3084e4d5207SChristoph Hellwig 	xas_clear_mark(&xas, XFS_RTG_FREE);
3094e4d5207SChristoph Hellwig 	atomic_dec(&zi->zi_nr_free_zones);
3104e4d5207SChristoph Hellwig 	zi->zi_free_zone_cursor = xg->xg_gno;
3114e4d5207SChristoph Hellwig 	xas_unlock(&xas);
3124e4d5207SChristoph Hellwig 	return xg;
3134e4d5207SChristoph Hellwig }
3144e4d5207SChristoph Hellwig 
3154e4d5207SChristoph Hellwig static struct xfs_open_zone *
3164e4d5207SChristoph Hellwig xfs_init_open_zone(
3174e4d5207SChristoph Hellwig 	struct xfs_rtgroup	*rtg,
3184e4d5207SChristoph Hellwig 	xfs_rgblock_t		write_pointer,
3194e4d5207SChristoph Hellwig 	bool			is_gc)
3204e4d5207SChristoph Hellwig {
3214e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz;
3224e4d5207SChristoph Hellwig 
3234e4d5207SChristoph Hellwig 	oz = kzalloc(sizeof(*oz), GFP_NOFS | __GFP_NOFAIL);
3244e4d5207SChristoph Hellwig 	spin_lock_init(&oz->oz_alloc_lock);
3254e4d5207SChristoph Hellwig 	atomic_set(&oz->oz_ref, 1);
3264e4d5207SChristoph Hellwig 	oz->oz_rtg = rtg;
3274e4d5207SChristoph Hellwig 	oz->oz_write_pointer = write_pointer;
3284e4d5207SChristoph Hellwig 	oz->oz_written = write_pointer;
3294e4d5207SChristoph Hellwig 	oz->oz_is_gc = is_gc;
3304e4d5207SChristoph Hellwig 
3314e4d5207SChristoph Hellwig 	/*
3324e4d5207SChristoph Hellwig 	 * All dereferences of rtg->rtg_open_zone hold the ILOCK for the rmap
3334e4d5207SChristoph Hellwig 	 * inode, but we don't really want to take that here because we are
3344e4d5207SChristoph Hellwig 	 * under the zone_list_lock.  Ensure the pointer is only set for a fully
3354e4d5207SChristoph Hellwig 	 * initialized open zone structure so that a racy lookup finding it is
3364e4d5207SChristoph Hellwig 	 * fine.
3374e4d5207SChristoph Hellwig 	 */
3384e4d5207SChristoph Hellwig 	WRITE_ONCE(rtg->rtg_open_zone, oz);
3394e4d5207SChristoph Hellwig 	return oz;
3404e4d5207SChristoph Hellwig }
3414e4d5207SChristoph Hellwig 
3424e4d5207SChristoph Hellwig /*
3434e4d5207SChristoph Hellwig  * Find a completely free zone, open it, and return a reference.
3444e4d5207SChristoph Hellwig  */
3454e4d5207SChristoph Hellwig struct xfs_open_zone *
3464e4d5207SChristoph Hellwig xfs_open_zone(
3474e4d5207SChristoph Hellwig 	struct xfs_mount	*mp,
3484e4d5207SChristoph Hellwig 	bool			is_gc)
3494e4d5207SChristoph Hellwig {
3504e4d5207SChristoph Hellwig 	struct xfs_zone_info	*zi = mp->m_zone_info;
3514e4d5207SChristoph Hellwig 	struct xfs_group	*xg;
3524e4d5207SChristoph Hellwig 
3534e4d5207SChristoph Hellwig 	xg = xfs_find_free_zone(mp, zi->zi_free_zone_cursor, ULONG_MAX);
3544e4d5207SChristoph Hellwig 	if (!xg)
3554e4d5207SChristoph Hellwig 		xg = xfs_find_free_zone(mp, 0, zi->zi_free_zone_cursor);
3564e4d5207SChristoph Hellwig 	if (!xg)
3574e4d5207SChristoph Hellwig 		return NULL;
3584e4d5207SChristoph Hellwig 
3594e4d5207SChristoph Hellwig 	set_current_state(TASK_RUNNING);
3604e4d5207SChristoph Hellwig 	return xfs_init_open_zone(to_rtg(xg), 0, is_gc);
3614e4d5207SChristoph Hellwig }
3624e4d5207SChristoph Hellwig 
3634e4d5207SChristoph Hellwig static struct xfs_open_zone *
3644e4d5207SChristoph Hellwig xfs_try_open_zone(
3654e4d5207SChristoph Hellwig 	struct xfs_mount	*mp)
3664e4d5207SChristoph Hellwig {
3674e4d5207SChristoph Hellwig 	struct xfs_zone_info	*zi = mp->m_zone_info;
3684e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz;
3694e4d5207SChristoph Hellwig 
3704e4d5207SChristoph Hellwig 	if (zi->zi_nr_open_zones >= mp->m_max_open_zones - XFS_OPEN_GC_ZONES)
3714e4d5207SChristoph Hellwig 		return NULL;
3724e4d5207SChristoph Hellwig 	if (atomic_read(&zi->zi_nr_free_zones) <
3734e4d5207SChristoph Hellwig 	    XFS_GC_ZONES - XFS_OPEN_GC_ZONES)
3744e4d5207SChristoph Hellwig 		return NULL;
3754e4d5207SChristoph Hellwig 
3764e4d5207SChristoph Hellwig 	/*
3774e4d5207SChristoph Hellwig 	 * Increment the open zone count to reserve our slot before dropping
3784e4d5207SChristoph Hellwig 	 * zi_open_zones_lock.
3794e4d5207SChristoph Hellwig 	 */
3804e4d5207SChristoph Hellwig 	zi->zi_nr_open_zones++;
3814e4d5207SChristoph Hellwig 	spin_unlock(&zi->zi_open_zones_lock);
3824e4d5207SChristoph Hellwig 	oz = xfs_open_zone(mp, false);
3834e4d5207SChristoph Hellwig 	spin_lock(&zi->zi_open_zones_lock);
3844e4d5207SChristoph Hellwig 	if (!oz) {
3854e4d5207SChristoph Hellwig 		zi->zi_nr_open_zones--;
3864e4d5207SChristoph Hellwig 		return NULL;
3874e4d5207SChristoph Hellwig 	}
3884e4d5207SChristoph Hellwig 
3894e4d5207SChristoph Hellwig 	atomic_inc(&oz->oz_ref);
3904e4d5207SChristoph Hellwig 	list_add_tail(&oz->oz_entry, &zi->zi_open_zones);
3914e4d5207SChristoph Hellwig 
3924e4d5207SChristoph Hellwig 	/*
3934e4d5207SChristoph Hellwig 	 * If this was the last free zone, other waiters might be waiting
3944e4d5207SChristoph Hellwig 	 * on us to write to it as well.
3954e4d5207SChristoph Hellwig 	 */
3964e4d5207SChristoph Hellwig 	wake_up_all(&zi->zi_zone_wait);
3974e4d5207SChristoph Hellwig 
3984e4d5207SChristoph Hellwig 	trace_xfs_zone_opened(oz->oz_rtg);
3994e4d5207SChristoph Hellwig 	return oz;
4004e4d5207SChristoph Hellwig }
4014e4d5207SChristoph Hellwig 
4024e4d5207SChristoph Hellwig static bool
4034e4d5207SChristoph Hellwig xfs_try_use_zone(
4044e4d5207SChristoph Hellwig 	struct xfs_zone_info	*zi,
4054e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz)
4064e4d5207SChristoph Hellwig {
4074e4d5207SChristoph Hellwig 	if (oz->oz_write_pointer == rtg_blocks(oz->oz_rtg))
4084e4d5207SChristoph Hellwig 		return false;
4094e4d5207SChristoph Hellwig 	if (!atomic_inc_not_zero(&oz->oz_ref))
4104e4d5207SChristoph Hellwig 		return false;
4114e4d5207SChristoph Hellwig 
4124e4d5207SChristoph Hellwig 	/*
4134e4d5207SChristoph Hellwig 	 * If we couldn't match by inode or life time we just pick the first
4144e4d5207SChristoph Hellwig 	 * zone with enough space above.  For that we want the least busy zone
4154e4d5207SChristoph Hellwig 	 * for some definition of "least" busy.  For now this simple LRU
4164e4d5207SChristoph Hellwig 	 * algorithm that rotates every zone to the end of the list will do it,
4174e4d5207SChristoph Hellwig 	 * even if it isn't exactly cache friendly.
4184e4d5207SChristoph Hellwig 	 */
4194e4d5207SChristoph Hellwig 	if (!list_is_last(&oz->oz_entry, &zi->zi_open_zones))
4204e4d5207SChristoph Hellwig 		list_move_tail(&oz->oz_entry, &zi->zi_open_zones);
4214e4d5207SChristoph Hellwig 	return true;
4224e4d5207SChristoph Hellwig }
4234e4d5207SChristoph Hellwig 
4244e4d5207SChristoph Hellwig static struct xfs_open_zone *
4254e4d5207SChristoph Hellwig xfs_select_open_zone_lru(
4264e4d5207SChristoph Hellwig 	struct xfs_zone_info	*zi)
4274e4d5207SChristoph Hellwig {
4284e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz;
4294e4d5207SChristoph Hellwig 
4304e4d5207SChristoph Hellwig 	lockdep_assert_held(&zi->zi_open_zones_lock);
4314e4d5207SChristoph Hellwig 
4324e4d5207SChristoph Hellwig 	list_for_each_entry(oz, &zi->zi_open_zones, oz_entry)
4334e4d5207SChristoph Hellwig 		if (xfs_try_use_zone(zi, oz))
4344e4d5207SChristoph Hellwig 			return oz;
4354e4d5207SChristoph Hellwig 
4364e4d5207SChristoph Hellwig 	cond_resched_lock(&zi->zi_open_zones_lock);
4374e4d5207SChristoph Hellwig 	return NULL;
4384e4d5207SChristoph Hellwig }
4394e4d5207SChristoph Hellwig 
4404e4d5207SChristoph Hellwig static struct xfs_open_zone *
4414e4d5207SChristoph Hellwig xfs_select_open_zone_mru(
4424e4d5207SChristoph Hellwig 	struct xfs_zone_info	*zi)
4434e4d5207SChristoph Hellwig {
4444e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz;
4454e4d5207SChristoph Hellwig 
4464e4d5207SChristoph Hellwig 	lockdep_assert_held(&zi->zi_open_zones_lock);
4474e4d5207SChristoph Hellwig 
4484e4d5207SChristoph Hellwig 	list_for_each_entry_reverse(oz, &zi->zi_open_zones, oz_entry)
4494e4d5207SChristoph Hellwig 		if (xfs_try_use_zone(zi, oz))
4504e4d5207SChristoph Hellwig 			return oz;
4514e4d5207SChristoph Hellwig 
4524e4d5207SChristoph Hellwig 	cond_resched_lock(&zi->zi_open_zones_lock);
4534e4d5207SChristoph Hellwig 	return NULL;
4544e4d5207SChristoph Hellwig }
4554e4d5207SChristoph Hellwig 
4564e4d5207SChristoph Hellwig /*
4574e4d5207SChristoph Hellwig  * Try to pack inodes that are written back after they were closed tight instead
4584e4d5207SChristoph Hellwig  * of trying to open new zones for them or spread them to the least recently
4594e4d5207SChristoph Hellwig  * used zone.  This optimizes the data layout for workloads that untar or copy
4604e4d5207SChristoph Hellwig  * a lot of small files.  Right now this does not separate multiple such
4614e4d5207SChristoph Hellwig  * streams.
4624e4d5207SChristoph Hellwig  */
4634e4d5207SChristoph Hellwig static inline bool xfs_zoned_pack_tight(struct xfs_inode *ip)
4644e4d5207SChristoph Hellwig {
4654e4d5207SChristoph Hellwig 	return !inode_is_open_for_write(VFS_I(ip)) &&
4664e4d5207SChristoph Hellwig 		!(ip->i_diflags & XFS_DIFLAG_APPEND);
4674e4d5207SChristoph Hellwig }
4684e4d5207SChristoph Hellwig 
4694e4d5207SChristoph Hellwig /*
4704e4d5207SChristoph Hellwig  * Pick a new zone for writes.
4714e4d5207SChristoph Hellwig  *
4724e4d5207SChristoph Hellwig  * If we aren't using up our budget of open zones just open a new one from the
4734e4d5207SChristoph Hellwig  * freelist.  Else try to find one that matches the expected data lifetime.  If
4744e4d5207SChristoph Hellwig  * we don't find one that is good pick any zone that is available.
4754e4d5207SChristoph Hellwig  */
4764e4d5207SChristoph Hellwig static struct xfs_open_zone *
4774e4d5207SChristoph Hellwig xfs_select_zone_nowait(
4784e4d5207SChristoph Hellwig 	struct xfs_mount	*mp,
4794e4d5207SChristoph Hellwig 	bool			pack_tight)
4804e4d5207SChristoph Hellwig {
4814e4d5207SChristoph Hellwig 	struct xfs_zone_info	*zi = mp->m_zone_info;
4824e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz = NULL;
4834e4d5207SChristoph Hellwig 
4844e4d5207SChristoph Hellwig 	if (xfs_is_shutdown(mp))
4854e4d5207SChristoph Hellwig 		return NULL;
4864e4d5207SChristoph Hellwig 
4874e4d5207SChristoph Hellwig 	spin_lock(&zi->zi_open_zones_lock);
4884e4d5207SChristoph Hellwig 	if (pack_tight)
4894e4d5207SChristoph Hellwig 		oz = xfs_select_open_zone_mru(zi);
4904e4d5207SChristoph Hellwig 	if (oz)
4914e4d5207SChristoph Hellwig 		goto out_unlock;
4924e4d5207SChristoph Hellwig 
4934e4d5207SChristoph Hellwig 	/*
4944e4d5207SChristoph Hellwig 	 * See if we can open a new zone and use that.
4954e4d5207SChristoph Hellwig 	 */
4964e4d5207SChristoph Hellwig 	oz = xfs_try_open_zone(mp);
4974e4d5207SChristoph Hellwig 	if (oz)
4984e4d5207SChristoph Hellwig 		goto out_unlock;
4994e4d5207SChristoph Hellwig 
5004e4d5207SChristoph Hellwig 	oz = xfs_select_open_zone_lru(zi);
5014e4d5207SChristoph Hellwig out_unlock:
5024e4d5207SChristoph Hellwig 	spin_unlock(&zi->zi_open_zones_lock);
5034e4d5207SChristoph Hellwig 	return oz;
5044e4d5207SChristoph Hellwig }
5054e4d5207SChristoph Hellwig 
5064e4d5207SChristoph Hellwig static struct xfs_open_zone *
5074e4d5207SChristoph Hellwig xfs_select_zone(
5084e4d5207SChristoph Hellwig 	struct xfs_mount	*mp,
5094e4d5207SChristoph Hellwig 	bool			pack_tight)
5104e4d5207SChristoph Hellwig {
5114e4d5207SChristoph Hellwig 	struct xfs_zone_info	*zi = mp->m_zone_info;
5124e4d5207SChristoph Hellwig 	DEFINE_WAIT		(wait);
5134e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz;
5144e4d5207SChristoph Hellwig 
5154e4d5207SChristoph Hellwig 	oz = xfs_select_zone_nowait(mp, pack_tight);
5164e4d5207SChristoph Hellwig 	if (oz)
5174e4d5207SChristoph Hellwig 		return oz;
5184e4d5207SChristoph Hellwig 
5194e4d5207SChristoph Hellwig 	for (;;) {
5204e4d5207SChristoph Hellwig 		prepare_to_wait(&zi->zi_zone_wait, &wait, TASK_UNINTERRUPTIBLE);
5214e4d5207SChristoph Hellwig 		oz = xfs_select_zone_nowait(mp, pack_tight);
5224e4d5207SChristoph Hellwig 		if (oz)
5234e4d5207SChristoph Hellwig 			break;
5244e4d5207SChristoph Hellwig 		schedule();
5254e4d5207SChristoph Hellwig 	}
5264e4d5207SChristoph Hellwig 	finish_wait(&zi->zi_zone_wait, &wait);
5274e4d5207SChristoph Hellwig 	return oz;
5284e4d5207SChristoph Hellwig }
5294e4d5207SChristoph Hellwig 
5304e4d5207SChristoph Hellwig static unsigned int
5314e4d5207SChristoph Hellwig xfs_zone_alloc_blocks(
5324e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz,
5334e4d5207SChristoph Hellwig 	xfs_filblks_t		count_fsb,
5344e4d5207SChristoph Hellwig 	sector_t		*sector,
5354e4d5207SChristoph Hellwig 	bool			*is_seq)
5364e4d5207SChristoph Hellwig {
5374e4d5207SChristoph Hellwig 	struct xfs_rtgroup	*rtg = oz->oz_rtg;
5384e4d5207SChristoph Hellwig 	struct xfs_mount	*mp = rtg_mount(rtg);
5394e4d5207SChristoph Hellwig 	xfs_rgblock_t		rgbno;
5404e4d5207SChristoph Hellwig 
5414e4d5207SChristoph Hellwig 	spin_lock(&oz->oz_alloc_lock);
5424e4d5207SChristoph Hellwig 	count_fsb = min3(count_fsb, XFS_MAX_BMBT_EXTLEN,
5434e4d5207SChristoph Hellwig 		(xfs_filblks_t)rtg_blocks(rtg) - oz->oz_write_pointer);
5444e4d5207SChristoph Hellwig 	if (!count_fsb) {
5454e4d5207SChristoph Hellwig 		spin_unlock(&oz->oz_alloc_lock);
5464e4d5207SChristoph Hellwig 		return 0;
5474e4d5207SChristoph Hellwig 	}
5484e4d5207SChristoph Hellwig 	rgbno = oz->oz_write_pointer;
5494e4d5207SChristoph Hellwig 	oz->oz_write_pointer += count_fsb;
5504e4d5207SChristoph Hellwig 	spin_unlock(&oz->oz_alloc_lock);
5514e4d5207SChristoph Hellwig 
5524e4d5207SChristoph Hellwig 	trace_xfs_zone_alloc_blocks(oz, rgbno, count_fsb);
5534e4d5207SChristoph Hellwig 
5544e4d5207SChristoph Hellwig 	*sector = xfs_gbno_to_daddr(&rtg->rtg_group, 0);
5554e4d5207SChristoph Hellwig 	*is_seq = bdev_zone_is_seq(mp->m_rtdev_targp->bt_bdev, *sector);
5564e4d5207SChristoph Hellwig 	if (!*is_seq)
5574e4d5207SChristoph Hellwig 		*sector += XFS_FSB_TO_BB(mp, rgbno);
5584e4d5207SChristoph Hellwig 	return XFS_FSB_TO_B(mp, count_fsb);
5594e4d5207SChristoph Hellwig }
5604e4d5207SChristoph Hellwig 
5614e4d5207SChristoph Hellwig void
5624e4d5207SChristoph Hellwig xfs_mark_rtg_boundary(
5634e4d5207SChristoph Hellwig 	struct iomap_ioend	*ioend)
5644e4d5207SChristoph Hellwig {
5654e4d5207SChristoph Hellwig 	struct xfs_mount	*mp = XFS_I(ioend->io_inode)->i_mount;
5664e4d5207SChristoph Hellwig 	sector_t		sector = ioend->io_bio.bi_iter.bi_sector;
5674e4d5207SChristoph Hellwig 
5684e4d5207SChristoph Hellwig 	if (xfs_rtb_to_rgbno(mp, xfs_daddr_to_rtb(mp, sector)) == 0)
5694e4d5207SChristoph Hellwig 		ioend->io_flags |= IOMAP_IOEND_BOUNDARY;
5704e4d5207SChristoph Hellwig }
5714e4d5207SChristoph Hellwig 
5724e4d5207SChristoph Hellwig static void
5734e4d5207SChristoph Hellwig xfs_submit_zoned_bio(
5744e4d5207SChristoph Hellwig 	struct iomap_ioend	*ioend,
5754e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz,
5764e4d5207SChristoph Hellwig 	bool			is_seq)
5774e4d5207SChristoph Hellwig {
5784e4d5207SChristoph Hellwig 	ioend->io_bio.bi_iter.bi_sector = ioend->io_sector;
5794e4d5207SChristoph Hellwig 	ioend->io_private = oz;
5804e4d5207SChristoph Hellwig 	atomic_inc(&oz->oz_ref); /* for xfs_zoned_end_io */
5814e4d5207SChristoph Hellwig 
5824e4d5207SChristoph Hellwig 	if (is_seq) {
5834e4d5207SChristoph Hellwig 		ioend->io_bio.bi_opf &= ~REQ_OP_WRITE;
5844e4d5207SChristoph Hellwig 		ioend->io_bio.bi_opf |= REQ_OP_ZONE_APPEND;
5854e4d5207SChristoph Hellwig 	} else {
5864e4d5207SChristoph Hellwig 		xfs_mark_rtg_boundary(ioend);
5874e4d5207SChristoph Hellwig 	}
5884e4d5207SChristoph Hellwig 
5894e4d5207SChristoph Hellwig 	submit_bio(&ioend->io_bio);
5904e4d5207SChristoph Hellwig }
5914e4d5207SChristoph Hellwig 
5924e4d5207SChristoph Hellwig void
5934e4d5207SChristoph Hellwig xfs_zone_alloc_and_submit(
5944e4d5207SChristoph Hellwig 	struct iomap_ioend	*ioend,
5954e4d5207SChristoph Hellwig 	struct xfs_open_zone	**oz)
5964e4d5207SChristoph Hellwig {
5974e4d5207SChristoph Hellwig 	struct xfs_inode	*ip = XFS_I(ioend->io_inode);
5984e4d5207SChristoph Hellwig 	struct xfs_mount	*mp = ip->i_mount;
5994e4d5207SChristoph Hellwig 	bool			pack_tight = xfs_zoned_pack_tight(ip);
6004e4d5207SChristoph Hellwig 	unsigned int		alloc_len;
6014e4d5207SChristoph Hellwig 	struct iomap_ioend	*split;
6024e4d5207SChristoph Hellwig 	bool			is_seq;
6034e4d5207SChristoph Hellwig 
6044e4d5207SChristoph Hellwig 	if (xfs_is_shutdown(mp))
6054e4d5207SChristoph Hellwig 		goto out_error;
6064e4d5207SChristoph Hellwig 
6074e4d5207SChristoph Hellwig 	/*
6084e4d5207SChristoph Hellwig 	 * If we don't have a cached zone in this write context, see if the
6094e4d5207SChristoph Hellwig 	 * last extent before the one we are writing to points to an active
6104e4d5207SChristoph Hellwig 	 * zone.  If so, just continue writing to it.
6114e4d5207SChristoph Hellwig 	 */
6124e4d5207SChristoph Hellwig 	if (!*oz && ioend->io_offset)
6134e4d5207SChristoph Hellwig 		*oz = xfs_last_used_zone(ioend);
6144e4d5207SChristoph Hellwig 	if (!*oz) {
6154e4d5207SChristoph Hellwig select_zone:
6164e4d5207SChristoph Hellwig 		*oz = xfs_select_zone(mp, pack_tight);
6174e4d5207SChristoph Hellwig 		if (!*oz)
6184e4d5207SChristoph Hellwig 			goto out_error;
6194e4d5207SChristoph Hellwig 	}
6204e4d5207SChristoph Hellwig 
6214e4d5207SChristoph Hellwig 	alloc_len = xfs_zone_alloc_blocks(*oz, XFS_B_TO_FSB(mp, ioend->io_size),
6224e4d5207SChristoph Hellwig 			&ioend->io_sector, &is_seq);
6234e4d5207SChristoph Hellwig 	if (!alloc_len) {
6244e4d5207SChristoph Hellwig 		xfs_open_zone_put(*oz);
6254e4d5207SChristoph Hellwig 		goto select_zone;
6264e4d5207SChristoph Hellwig 	}
6274e4d5207SChristoph Hellwig 
6284e4d5207SChristoph Hellwig 	while ((split = iomap_split_ioend(ioend, alloc_len, is_seq))) {
6294e4d5207SChristoph Hellwig 		if (IS_ERR(split))
6304e4d5207SChristoph Hellwig 			goto out_split_error;
6314e4d5207SChristoph Hellwig 		alloc_len -= split->io_bio.bi_iter.bi_size;
6324e4d5207SChristoph Hellwig 		xfs_submit_zoned_bio(split, *oz, is_seq);
6334e4d5207SChristoph Hellwig 		if (!alloc_len) {
6344e4d5207SChristoph Hellwig 			xfs_open_zone_put(*oz);
6354e4d5207SChristoph Hellwig 			goto select_zone;
6364e4d5207SChristoph Hellwig 		}
6374e4d5207SChristoph Hellwig 	}
6384e4d5207SChristoph Hellwig 
6394e4d5207SChristoph Hellwig 	xfs_submit_zoned_bio(ioend, *oz, is_seq);
6404e4d5207SChristoph Hellwig 	return;
6414e4d5207SChristoph Hellwig 
6424e4d5207SChristoph Hellwig out_split_error:
6434e4d5207SChristoph Hellwig 	ioend->io_bio.bi_status = errno_to_blk_status(PTR_ERR(split));
6444e4d5207SChristoph Hellwig out_error:
6454e4d5207SChristoph Hellwig 	bio_io_error(&ioend->io_bio);
6464e4d5207SChristoph Hellwig }
6474e4d5207SChristoph Hellwig 
6484e4d5207SChristoph Hellwig void
6494e4d5207SChristoph Hellwig xfs_zoned_wake_all(
6504e4d5207SChristoph Hellwig 	struct xfs_mount	*mp)
6514e4d5207SChristoph Hellwig {
6524e4d5207SChristoph Hellwig 	if (!(mp->m_super->s_flags & SB_ACTIVE))
6534e4d5207SChristoph Hellwig 		return; /* can happen during log recovery */
6544e4d5207SChristoph Hellwig 	wake_up_all(&mp->m_zone_info->zi_zone_wait);
6554e4d5207SChristoph Hellwig }
6564e4d5207SChristoph Hellwig 
6574e4d5207SChristoph Hellwig /*
6584e4d5207SChristoph Hellwig  * Check if @rgbno in @rgb is a potentially valid block.  It might still be
6594e4d5207SChristoph Hellwig  * unused, but that information is only found in the rmap.
6604e4d5207SChristoph Hellwig  */
6614e4d5207SChristoph Hellwig bool
6624e4d5207SChristoph Hellwig xfs_zone_rgbno_is_valid(
6634e4d5207SChristoph Hellwig 	struct xfs_rtgroup	*rtg,
6644e4d5207SChristoph Hellwig 	xfs_rgnumber_t		rgbno)
6654e4d5207SChristoph Hellwig {
6664e4d5207SChristoph Hellwig 	lockdep_assert_held(&rtg_rmap(rtg)->i_lock);
6674e4d5207SChristoph Hellwig 
6684e4d5207SChristoph Hellwig 	if (rtg->rtg_open_zone)
6694e4d5207SChristoph Hellwig 		return rgbno < rtg->rtg_open_zone->oz_write_pointer;
6704e4d5207SChristoph Hellwig 	return !xa_get_mark(&rtg_mount(rtg)->m_groups[XG_TYPE_RTG].xa,
6714e4d5207SChristoph Hellwig 			rtg_rgno(rtg), XFS_RTG_FREE);
6724e4d5207SChristoph Hellwig }
6734e4d5207SChristoph Hellwig 
6744e4d5207SChristoph Hellwig static void
6754e4d5207SChristoph Hellwig xfs_free_open_zones(
6764e4d5207SChristoph Hellwig 	struct xfs_zone_info	*zi)
6774e4d5207SChristoph Hellwig {
6784e4d5207SChristoph Hellwig 	struct xfs_open_zone	*oz;
6794e4d5207SChristoph Hellwig 
6804e4d5207SChristoph Hellwig 	spin_lock(&zi->zi_open_zones_lock);
6814e4d5207SChristoph Hellwig 	while ((oz = list_first_entry_or_null(&zi->zi_open_zones,
6824e4d5207SChristoph Hellwig 			struct xfs_open_zone, oz_entry))) {
6834e4d5207SChristoph Hellwig 		list_del(&oz->oz_entry);
6844e4d5207SChristoph Hellwig 		xfs_open_zone_put(oz);
6854e4d5207SChristoph Hellwig 	}
6864e4d5207SChristoph Hellwig 	spin_unlock(&zi->zi_open_zones_lock);
6874e4d5207SChristoph Hellwig }
6884e4d5207SChristoph Hellwig 
6894e4d5207SChristoph Hellwig struct xfs_init_zones {
6904e4d5207SChristoph Hellwig 	struct xfs_mount	*mp;
6914e4d5207SChristoph Hellwig 	uint64_t		available;
6924e4d5207SChristoph Hellwig 	uint64_t		reclaimable;
6934e4d5207SChristoph Hellwig };
6944e4d5207SChristoph Hellwig 
6954e4d5207SChristoph Hellwig static int
6964e4d5207SChristoph Hellwig xfs_init_zone(
6974e4d5207SChristoph Hellwig 	struct xfs_init_zones	*iz,
6984e4d5207SChristoph Hellwig 	struct xfs_rtgroup	*rtg,
6994e4d5207SChristoph Hellwig 	struct blk_zone		*zone)
7004e4d5207SChristoph Hellwig {
7014e4d5207SChristoph Hellwig 	struct xfs_mount	*mp = rtg_mount(rtg);
7024e4d5207SChristoph Hellwig 	struct xfs_zone_info	*zi = mp->m_zone_info;
7034e4d5207SChristoph Hellwig 	uint64_t		used = rtg_rmap(rtg)->i_used_blocks;
7044e4d5207SChristoph Hellwig 	xfs_rgblock_t		write_pointer, highest_rgbno;
7054e4d5207SChristoph Hellwig 
7064e4d5207SChristoph Hellwig 	if (zone && !xfs_zone_validate(zone, rtg, &write_pointer))
7074e4d5207SChristoph Hellwig 		return -EFSCORRUPTED;
7084e4d5207SChristoph Hellwig 
7094e4d5207SChristoph Hellwig 	/*
7104e4d5207SChristoph Hellwig 	 * For sequential write required zones we retrieved the hardware write
7114e4d5207SChristoph Hellwig 	 * pointer above.
7124e4d5207SChristoph Hellwig 	 *
7134e4d5207SChristoph Hellwig 	 * For conventional zones or conventional devices we don't have that
7144e4d5207SChristoph Hellwig 	 * luxury.  Instead query the rmap to find the highest recorded block
7154e4d5207SChristoph Hellwig 	 * and set the write pointer to the block after that.  In case of a
7164e4d5207SChristoph Hellwig 	 * power loss this misses blocks where the data I/O has completed but
7174e4d5207SChristoph Hellwig 	 * not recorded in the rmap yet, and it also rewrites blocks if the most
7184e4d5207SChristoph Hellwig 	 * recently written ones got deleted again before unmount, but this is
7194e4d5207SChristoph Hellwig 	 * the best we can do without hardware support.
7204e4d5207SChristoph Hellwig 	 */
7214e4d5207SChristoph Hellwig 	if (!zone || zone->cond == BLK_ZONE_COND_NOT_WP) {
7224e4d5207SChristoph Hellwig 		xfs_rtgroup_lock(rtg, XFS_RTGLOCK_RMAP);
7234e4d5207SChristoph Hellwig 		highest_rgbno = xfs_rtrmap_highest_rgbno(rtg);
7244e4d5207SChristoph Hellwig 		if (highest_rgbno == NULLRGBLOCK)
7254e4d5207SChristoph Hellwig 			write_pointer = 0;
7264e4d5207SChristoph Hellwig 		else
7274e4d5207SChristoph Hellwig 			write_pointer = highest_rgbno + 1;
7284e4d5207SChristoph Hellwig 		xfs_rtgroup_unlock(rtg, XFS_RTGLOCK_RMAP);
7294e4d5207SChristoph Hellwig 	}
7304e4d5207SChristoph Hellwig 
7314e4d5207SChristoph Hellwig 	if (write_pointer == 0) {
7324e4d5207SChristoph Hellwig 		/* zone is empty */
7334e4d5207SChristoph Hellwig 		atomic_inc(&zi->zi_nr_free_zones);
7344e4d5207SChristoph Hellwig 		xfs_group_set_mark(&rtg->rtg_group, XFS_RTG_FREE);
7354e4d5207SChristoph Hellwig 		iz->available += rtg_blocks(rtg);
7364e4d5207SChristoph Hellwig 	} else if (write_pointer < rtg_blocks(rtg)) {
7374e4d5207SChristoph Hellwig 		/* zone is open */
7384e4d5207SChristoph Hellwig 		struct xfs_open_zone *oz;
7394e4d5207SChristoph Hellwig 
7404e4d5207SChristoph Hellwig 		atomic_inc(&rtg_group(rtg)->xg_active_ref);
7414e4d5207SChristoph Hellwig 		oz = xfs_init_open_zone(rtg, write_pointer, false);
7424e4d5207SChristoph Hellwig 		list_add_tail(&oz->oz_entry, &zi->zi_open_zones);
7434e4d5207SChristoph Hellwig 		zi->zi_nr_open_zones++;
7444e4d5207SChristoph Hellwig 
7454e4d5207SChristoph Hellwig 		iz->available += (rtg_blocks(rtg) - write_pointer);
7464e4d5207SChristoph Hellwig 		iz->reclaimable += write_pointer - used;
7474e4d5207SChristoph Hellwig 	} else if (used < rtg_blocks(rtg)) {
7484e4d5207SChristoph Hellwig 		/* zone fully written, but has freed blocks */
7494e4d5207SChristoph Hellwig 		iz->reclaimable += (rtg_blocks(rtg) - used);
7504e4d5207SChristoph Hellwig 	}
7514e4d5207SChristoph Hellwig 
7524e4d5207SChristoph Hellwig 	return 0;
7534e4d5207SChristoph Hellwig }
7544e4d5207SChristoph Hellwig 
7554e4d5207SChristoph Hellwig static int
7564e4d5207SChristoph Hellwig xfs_get_zone_info_cb(
7574e4d5207SChristoph Hellwig 	struct blk_zone		*zone,
7584e4d5207SChristoph Hellwig 	unsigned int		idx,
7594e4d5207SChristoph Hellwig 	void			*data)
7604e4d5207SChristoph Hellwig {
7614e4d5207SChristoph Hellwig 	struct xfs_init_zones	*iz = data;
7624e4d5207SChristoph Hellwig 	struct xfs_mount	*mp = iz->mp;
7634e4d5207SChristoph Hellwig 	xfs_fsblock_t		zsbno = xfs_daddr_to_rtb(mp, zone->start);
7644e4d5207SChristoph Hellwig 	xfs_rgnumber_t		rgno;
7654e4d5207SChristoph Hellwig 	struct xfs_rtgroup	*rtg;
7664e4d5207SChristoph Hellwig 	int			error;
7674e4d5207SChristoph Hellwig 
7684e4d5207SChristoph Hellwig 	if (xfs_rtb_to_rgbno(mp, zsbno) != 0) {
7694e4d5207SChristoph Hellwig 		xfs_warn(mp, "mismatched zone start 0x%llx.", zsbno);
7704e4d5207SChristoph Hellwig 		return -EFSCORRUPTED;
7714e4d5207SChristoph Hellwig 	}
7724e4d5207SChristoph Hellwig 
7734e4d5207SChristoph Hellwig 	rgno = xfs_rtb_to_rgno(mp, zsbno);
7744e4d5207SChristoph Hellwig 	rtg = xfs_rtgroup_grab(mp, rgno);
7754e4d5207SChristoph Hellwig 	if (!rtg) {
7764e4d5207SChristoph Hellwig 		xfs_warn(mp, "realtime group not found for zone %u.", rgno);
7774e4d5207SChristoph Hellwig 		return -EFSCORRUPTED;
7784e4d5207SChristoph Hellwig 	}
7794e4d5207SChristoph Hellwig 	error = xfs_init_zone(iz, rtg, zone);
7804e4d5207SChristoph Hellwig 	xfs_rtgroup_rele(rtg);
7814e4d5207SChristoph Hellwig 	return error;
7824e4d5207SChristoph Hellwig }
7834e4d5207SChristoph Hellwig 
7844e4d5207SChristoph Hellwig /*
7854e4d5207SChristoph Hellwig  * Calculate the max open zone limit based on the of number of
7864e4d5207SChristoph Hellwig  * backing zones available
7874e4d5207SChristoph Hellwig  */
7884e4d5207SChristoph Hellwig static inline uint32_t
7894e4d5207SChristoph Hellwig xfs_max_open_zones(
7904e4d5207SChristoph Hellwig 	struct xfs_mount	*mp)
7914e4d5207SChristoph Hellwig {
7924e4d5207SChristoph Hellwig 	unsigned int		max_open, max_open_data_zones;
7934e4d5207SChristoph Hellwig 	/*
7944e4d5207SChristoph Hellwig 	 * We need two zones for every open data zone,
7954e4d5207SChristoph Hellwig 	 * one in reserve as we don't reclaim open zones. One data zone
7964e4d5207SChristoph Hellwig 	 * and its spare is included in XFS_MIN_ZONES.
7974e4d5207SChristoph Hellwig 	 */
7984e4d5207SChristoph Hellwig 	max_open_data_zones = (mp->m_sb.sb_rgcount - XFS_MIN_ZONES) / 2 + 1;
7994e4d5207SChristoph Hellwig 	max_open = max_open_data_zones + XFS_OPEN_GC_ZONES;
8004e4d5207SChristoph Hellwig 
8014e4d5207SChristoph Hellwig 	/*
8024e4d5207SChristoph Hellwig 	 * Cap the max open limit to 1/4 of available space
8034e4d5207SChristoph Hellwig 	 */
8044e4d5207SChristoph Hellwig 	max_open = min(max_open, mp->m_sb.sb_rgcount / 4);
8054e4d5207SChristoph Hellwig 
8064e4d5207SChristoph Hellwig 	return max(XFS_MIN_OPEN_ZONES, max_open);
8074e4d5207SChristoph Hellwig }
8084e4d5207SChristoph Hellwig 
8094e4d5207SChristoph Hellwig /*
8104e4d5207SChristoph Hellwig  * Normally we use the open zone limit that the device reports.  If there is
8114e4d5207SChristoph Hellwig  * none let the user pick one from the command line.
8124e4d5207SChristoph Hellwig  *
8134e4d5207SChristoph Hellwig  * If the device doesn't report an open zone limit and there is no override,
8144e4d5207SChristoph Hellwig  * allow to hold about a quarter of the zones open.  In theory we could allow
8154e4d5207SChristoph Hellwig  * all to be open, but at that point we run into GC deadlocks because we can't
8164e4d5207SChristoph Hellwig  * reclaim open zones.
8174e4d5207SChristoph Hellwig  *
8184e4d5207SChristoph Hellwig  * When used on conventional SSDs a lower open limit is advisable as we'll
8194e4d5207SChristoph Hellwig  * otherwise overwhelm the FTL just as much as a conventional block allocator.
8204e4d5207SChristoph Hellwig  *
8214e4d5207SChristoph Hellwig  * Note: To debug the open zone management code, force max_open to 1 here.
8224e4d5207SChristoph Hellwig  */
8234e4d5207SChristoph Hellwig static int
8244e4d5207SChristoph Hellwig xfs_calc_open_zones(
8254e4d5207SChristoph Hellwig 	struct xfs_mount	*mp)
8264e4d5207SChristoph Hellwig {
8274e4d5207SChristoph Hellwig 	struct block_device	*bdev = mp->m_rtdev_targp->bt_bdev;
8284e4d5207SChristoph Hellwig 	unsigned int		bdev_open_zones = bdev_max_open_zones(bdev);
8294e4d5207SChristoph Hellwig 
8304e4d5207SChristoph Hellwig 	if (!mp->m_max_open_zones) {
8314e4d5207SChristoph Hellwig 		if (bdev_open_zones)
8324e4d5207SChristoph Hellwig 			mp->m_max_open_zones = bdev_open_zones;
8334e4d5207SChristoph Hellwig 		else
8344e4d5207SChristoph Hellwig 			mp->m_max_open_zones = xfs_max_open_zones(mp);
8354e4d5207SChristoph Hellwig 	}
8364e4d5207SChristoph Hellwig 
8374e4d5207SChristoph Hellwig 	if (mp->m_max_open_zones < XFS_MIN_OPEN_ZONES) {
8384e4d5207SChristoph Hellwig 		xfs_notice(mp, "need at least %u open zones.",
8394e4d5207SChristoph Hellwig 			XFS_MIN_OPEN_ZONES);
8404e4d5207SChristoph Hellwig 		return -EIO;
8414e4d5207SChristoph Hellwig 	}
8424e4d5207SChristoph Hellwig 
8434e4d5207SChristoph Hellwig 	if (bdev_open_zones && bdev_open_zones < mp->m_max_open_zones) {
8444e4d5207SChristoph Hellwig 		mp->m_max_open_zones = bdev_open_zones;
8454e4d5207SChristoph Hellwig 		xfs_info(mp, "limiting open zones to %u due to hardware limit.\n",
8464e4d5207SChristoph Hellwig 			bdev_open_zones);
8474e4d5207SChristoph Hellwig 	}
8484e4d5207SChristoph Hellwig 
8494e4d5207SChristoph Hellwig 	if (mp->m_max_open_zones > xfs_max_open_zones(mp)) {
8504e4d5207SChristoph Hellwig 		mp->m_max_open_zones = xfs_max_open_zones(mp);
8514e4d5207SChristoph Hellwig 		xfs_info(mp,
8524e4d5207SChristoph Hellwig "limiting open zones to %u due to total zone count (%u)",
8534e4d5207SChristoph Hellwig 			mp->m_max_open_zones, mp->m_sb.sb_rgcount);
8544e4d5207SChristoph Hellwig 	}
8554e4d5207SChristoph Hellwig 
8564e4d5207SChristoph Hellwig 	return 0;
8574e4d5207SChristoph Hellwig }
8584e4d5207SChristoph Hellwig 
8594e4d5207SChristoph Hellwig static struct xfs_zone_info *
8604e4d5207SChristoph Hellwig xfs_alloc_zone_info(
8614e4d5207SChristoph Hellwig 	struct xfs_mount	*mp)
8624e4d5207SChristoph Hellwig {
8634e4d5207SChristoph Hellwig 	struct xfs_zone_info	*zi;
8644e4d5207SChristoph Hellwig 
8654e4d5207SChristoph Hellwig 	zi = kzalloc(sizeof(*zi), GFP_KERNEL);
8664e4d5207SChristoph Hellwig 	if (!zi)
8674e4d5207SChristoph Hellwig 		return NULL;
8684e4d5207SChristoph Hellwig 	INIT_LIST_HEAD(&zi->zi_open_zones);
8694e4d5207SChristoph Hellwig 	INIT_LIST_HEAD(&zi->zi_reclaim_reservations);
8704e4d5207SChristoph Hellwig 	spin_lock_init(&zi->zi_reset_list_lock);
8714e4d5207SChristoph Hellwig 	spin_lock_init(&zi->zi_open_zones_lock);
8724e4d5207SChristoph Hellwig 	spin_lock_init(&zi->zi_reservation_lock);
8734e4d5207SChristoph Hellwig 	init_waitqueue_head(&zi->zi_zone_wait);
8744e4d5207SChristoph Hellwig 	return zi;
8754e4d5207SChristoph Hellwig }
8764e4d5207SChristoph Hellwig 
8774e4d5207SChristoph Hellwig static void
8784e4d5207SChristoph Hellwig xfs_free_zone_info(
8794e4d5207SChristoph Hellwig 	struct xfs_zone_info	*zi)
8804e4d5207SChristoph Hellwig {
8814e4d5207SChristoph Hellwig 	xfs_free_open_zones(zi);
8824e4d5207SChristoph Hellwig 	kfree(zi);
8834e4d5207SChristoph Hellwig }
8844e4d5207SChristoph Hellwig 
8854e4d5207SChristoph Hellwig int
8864e4d5207SChristoph Hellwig xfs_mount_zones(
8874e4d5207SChristoph Hellwig 	struct xfs_mount	*mp)
8884e4d5207SChristoph Hellwig {
8894e4d5207SChristoph Hellwig 	struct xfs_init_zones	iz = {
8904e4d5207SChristoph Hellwig 		.mp		= mp,
8914e4d5207SChristoph Hellwig 	};
8924e4d5207SChristoph Hellwig 	struct xfs_buftarg	*bt = mp->m_rtdev_targp;
8934e4d5207SChristoph Hellwig 	int			error;
8944e4d5207SChristoph Hellwig 
8954e4d5207SChristoph Hellwig 	if (!bt) {
8964e4d5207SChristoph Hellwig 		xfs_notice(mp, "RT device missing.");
8974e4d5207SChristoph Hellwig 		return -EINVAL;
8984e4d5207SChristoph Hellwig 	}
8994e4d5207SChristoph Hellwig 
9004e4d5207SChristoph Hellwig 	if (!xfs_has_rtgroups(mp) || !xfs_has_rmapbt(mp)) {
9014e4d5207SChristoph Hellwig 		xfs_notice(mp, "invalid flag combination.");
9024e4d5207SChristoph Hellwig 		return -EFSCORRUPTED;
9034e4d5207SChristoph Hellwig 	}
9044e4d5207SChristoph Hellwig 	if (mp->m_sb.sb_rextsize != 1) {
9054e4d5207SChristoph Hellwig 		xfs_notice(mp, "zoned file systems do not support rextsize.");
9064e4d5207SChristoph Hellwig 		return -EFSCORRUPTED;
9074e4d5207SChristoph Hellwig 	}
9084e4d5207SChristoph Hellwig 	if (mp->m_sb.sb_rgcount < XFS_MIN_ZONES) {
9094e4d5207SChristoph Hellwig 		xfs_notice(mp,
9104e4d5207SChristoph Hellwig "zoned file systems need to have at least %u zones.", XFS_MIN_ZONES);
9114e4d5207SChristoph Hellwig 		return -EFSCORRUPTED;
9124e4d5207SChristoph Hellwig 	}
9134e4d5207SChristoph Hellwig 
9144e4d5207SChristoph Hellwig 	error = xfs_calc_open_zones(mp);
9154e4d5207SChristoph Hellwig 	if (error)
9164e4d5207SChristoph Hellwig 		return error;
9174e4d5207SChristoph Hellwig 
9184e4d5207SChristoph Hellwig 	mp->m_zone_info = xfs_alloc_zone_info(mp);
9194e4d5207SChristoph Hellwig 	if (!mp->m_zone_info)
9204e4d5207SChristoph Hellwig 		return -ENOMEM;
9214e4d5207SChristoph Hellwig 
9224e4d5207SChristoph Hellwig 	xfs_info(mp, "%u zones of %u blocks size (%u max open)",
9234e4d5207SChristoph Hellwig 		 mp->m_sb.sb_rgcount, mp->m_groups[XG_TYPE_RTG].blocks,
9244e4d5207SChristoph Hellwig 		 mp->m_max_open_zones);
925*0bb21930SChristoph Hellwig 	trace_xfs_zones_mount(mp);
9264e4d5207SChristoph Hellwig 
9274e4d5207SChristoph Hellwig 	if (bdev_is_zoned(bt->bt_bdev)) {
9284e4d5207SChristoph Hellwig 		error = blkdev_report_zones(bt->bt_bdev,
9294e4d5207SChristoph Hellwig 				XFS_FSB_TO_BB(mp, mp->m_sb.sb_rtstart),
9304e4d5207SChristoph Hellwig 				mp->m_sb.sb_rgcount, xfs_get_zone_info_cb, &iz);
9314e4d5207SChristoph Hellwig 		if (error < 0)
9324e4d5207SChristoph Hellwig 			goto out_free_zone_info;
9334e4d5207SChristoph Hellwig 	} else {
9344e4d5207SChristoph Hellwig 		struct xfs_rtgroup	*rtg = NULL;
9354e4d5207SChristoph Hellwig 
9364e4d5207SChristoph Hellwig 		while ((rtg = xfs_rtgroup_next(mp, rtg))) {
9374e4d5207SChristoph Hellwig 			error = xfs_init_zone(&iz, rtg, NULL);
9384e4d5207SChristoph Hellwig 			if (error)
9394e4d5207SChristoph Hellwig 				goto out_free_zone_info;
9404e4d5207SChristoph Hellwig 		}
9414e4d5207SChristoph Hellwig 	}
9424e4d5207SChristoph Hellwig 
943*0bb21930SChristoph Hellwig 	xfs_set_freecounter(mp, XC_FREE_RTAVAILABLE, iz.available);
9444e4d5207SChristoph Hellwig 	xfs_set_freecounter(mp, XC_FREE_RTEXTENTS,
9454e4d5207SChristoph Hellwig 			iz.available + iz.reclaimable);
9464e4d5207SChristoph Hellwig 	return 0;
9474e4d5207SChristoph Hellwig 
9484e4d5207SChristoph Hellwig out_free_zone_info:
9494e4d5207SChristoph Hellwig 	xfs_free_zone_info(mp->m_zone_info);
9504e4d5207SChristoph Hellwig 	return error;
9514e4d5207SChristoph Hellwig }
9524e4d5207SChristoph Hellwig 
9534e4d5207SChristoph Hellwig void
9544e4d5207SChristoph Hellwig xfs_unmount_zones(
9554e4d5207SChristoph Hellwig 	struct xfs_mount	*mp)
9564e4d5207SChristoph Hellwig {
9574e4d5207SChristoph Hellwig 	xfs_free_zone_info(mp->m_zone_info);
9584e4d5207SChristoph Hellwig }
959