cd308f119e20c15b4bc27d0b33cd1226dad8b5d2
[cascardo/linux.git] / fs / xfs / xfs_reflink.c
1 /*
2  * Copyright (C) 2016 Oracle.  All Rights Reserved.
3  *
4  * Author: Darrick J. Wong <darrick.wong@oracle.com>
5  *
6  * This program is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU General Public License
8  * as published by the Free Software Foundation; either version 2
9  * of the License, or (at your option) any later version.
10  *
11  * This program is distributed in the hope that it would be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14  * GNU General Public License for more details.
15  *
16  * You should have received a copy of the GNU General Public License
17  * along with this program; if not, write the Free Software Foundation,
18  * Inc.,  51 Franklin St, Fifth Floor, Boston, MA  02110-1301, USA.
19  */
20 #include "xfs.h"
21 #include "xfs_fs.h"
22 #include "xfs_shared.h"
23 #include "xfs_format.h"
24 #include "xfs_log_format.h"
25 #include "xfs_trans_resv.h"
26 #include "xfs_mount.h"
27 #include "xfs_defer.h"
28 #include "xfs_da_format.h"
29 #include "xfs_da_btree.h"
30 #include "xfs_inode.h"
31 #include "xfs_trans.h"
32 #include "xfs_inode_item.h"
33 #include "xfs_bmap.h"
34 #include "xfs_bmap_util.h"
35 #include "xfs_error.h"
36 #include "xfs_dir2.h"
37 #include "xfs_dir2_priv.h"
38 #include "xfs_ioctl.h"
39 #include "xfs_trace.h"
40 #include "xfs_log.h"
41 #include "xfs_icache.h"
42 #include "xfs_pnfs.h"
43 #include "xfs_btree.h"
44 #include "xfs_refcount_btree.h"
45 #include "xfs_refcount.h"
46 #include "xfs_bmap_btree.h"
47 #include "xfs_trans_space.h"
48 #include "xfs_bit.h"
49 #include "xfs_alloc.h"
50 #include "xfs_quota_defs.h"
51 #include "xfs_quota.h"
52 #include "xfs_btree.h"
53 #include "xfs_bmap_btree.h"
54 #include "xfs_reflink.h"
55 #include "xfs_iomap.h"
56 #include "xfs_rmap_btree.h"
57 #include "xfs_sb.h"
58 #include "xfs_ag_resv.h"
59
60 /*
61  * Copy on Write of Shared Blocks
62  *
63  * XFS must preserve "the usual" file semantics even when two files share
64  * the same physical blocks.  This means that a write to one file must not
65  * alter the blocks in a different file; the way that we'll do that is
66  * through the use of a copy-on-write mechanism.  At a high level, that
67  * means that when we want to write to a shared block, we allocate a new
68  * block, write the data to the new block, and if that succeeds we map the
69  * new block into the file.
70  *
71  * XFS provides a "delayed allocation" mechanism that defers the allocation
72  * of disk blocks to dirty-but-not-yet-mapped file blocks as long as
73  * possible.  This reduces fragmentation by enabling the filesystem to ask
74  * for bigger chunks less often, which is exactly what we want for CoW.
75  *
76  * The delalloc mechanism begins when the kernel wants to make a block
77  * writable (write_begin or page_mkwrite).  If the offset is not mapped, we
78  * create a delalloc mapping, which is a regular in-core extent, but without
79  * a real startblock.  (For delalloc mappings, the startblock encodes both
80  * a flag that this is a delalloc mapping, and a worst-case estimate of how
81  * many blocks might be required to put the mapping into the BMBT.)  delalloc
82  * mappings are a reservation against the free space in the filesystem;
83  * adjacent mappings can also be combined into fewer larger mappings.
84  *
85  * When dirty pages are being written out (typically in writepage), the
86  * delalloc reservations are converted into real mappings by allocating
87  * blocks and replacing the delalloc mapping with real ones.  A delalloc
88  * mapping can be replaced by several real ones if the free space is
89  * fragmented.
90  *
91  * We want to adapt the delalloc mechanism for copy-on-write, since the
92  * write paths are similar.  The first two steps (creating the reservation
93  * and allocating the blocks) are exactly the same as delalloc except that
94  * the mappings must be stored in a separate CoW fork because we do not want
95  * to disturb the mapping in the data fork until we're sure that the write
96  * succeeded.  IO completion in this case is the process of removing the old
97  * mapping from the data fork and moving the new mapping from the CoW fork to
98  * the data fork.  This will be discussed shortly.
99  *
100  * For now, unaligned directio writes will be bounced back to the page cache.
101  * Block-aligned directio writes will use the same mechanism as buffered
102  * writes.
103  *
104  * CoW remapping must be done after the data block write completes,
105  * because we don't want to destroy the old data fork map until we're sure
106  * the new block has been written.  Since the new mappings are kept in a
107  * separate fork, we can simply iterate these mappings to find the ones
108  * that cover the file blocks that we just CoW'd.  For each extent, simply
109  * unmap the corresponding range in the data fork, map the new range into
110  * the data fork, and remove the extent from the CoW fork.
111  *
112  * Since the remapping operation can be applied to an arbitrary file
113  * range, we record the need for the remap step as a flag in the ioend
114  * instead of declaring a new IO type.  This is required for direct io
115  * because we only have ioend for the whole dio, and we have to be able to
116  * remember the presence of unwritten blocks and CoW blocks with a single
117  * ioend structure.  Better yet, the more ground we can cover with one
118  * ioend, the better.
119  */
120
121 /*
122  * Given an AG extent, find the lowest-numbered run of shared blocks
123  * within that range and return the range in fbno/flen.  If
124  * find_end_of_shared is true, return the longest contiguous extent of
125  * shared blocks.  If there are no shared extents, fbno and flen will
126  * be set to NULLAGBLOCK and 0, respectively.
127  */
128 int
129 xfs_reflink_find_shared(
130         struct xfs_mount        *mp,
131         xfs_agnumber_t          agno,
132         xfs_agblock_t           agbno,
133         xfs_extlen_t            aglen,
134         xfs_agblock_t           *fbno,
135         xfs_extlen_t            *flen,
136         bool                    find_end_of_shared)
137 {
138         struct xfs_buf          *agbp;
139         struct xfs_btree_cur    *cur;
140         int                     error;
141
142         error = xfs_alloc_read_agf(mp, NULL, agno, 0, &agbp);
143         if (error)
144                 return error;
145
146         cur = xfs_refcountbt_init_cursor(mp, NULL, agbp, agno, NULL);
147
148         error = xfs_refcount_find_shared(cur, agbno, aglen, fbno, flen,
149                         find_end_of_shared);
150
151         xfs_btree_del_cursor(cur, error ? XFS_BTREE_ERROR : XFS_BTREE_NOERROR);
152
153         xfs_buf_relse(agbp);
154         return error;
155 }
156
157 /*
158  * Trim the mapping to the next block where there's a change in the
159  * shared/unshared status.  More specifically, this means that we
160  * find the lowest-numbered extent of shared blocks that coincides with
161  * the given block mapping.  If the shared extent overlaps the start of
162  * the mapping, trim the mapping to the end of the shared extent.  If
163  * the shared region intersects the mapping, trim the mapping to the
164  * start of the shared extent.  If there are no shared regions that
165  * overlap, just return the original extent.
166  */
167 int
168 xfs_reflink_trim_around_shared(
169         struct xfs_inode        *ip,
170         struct xfs_bmbt_irec    *irec,
171         bool                    *shared,
172         bool                    *trimmed)
173 {
174         xfs_agnumber_t          agno;
175         xfs_agblock_t           agbno;
176         xfs_extlen_t            aglen;
177         xfs_agblock_t           fbno;
178         xfs_extlen_t            flen;
179         int                     error = 0;
180
181         /* Holes, unwritten, and delalloc extents cannot be shared */
182         if (!xfs_is_reflink_inode(ip) ||
183             ISUNWRITTEN(irec) ||
184             irec->br_startblock == HOLESTARTBLOCK ||
185             irec->br_startblock == DELAYSTARTBLOCK ||
186             isnullstartblock(irec->br_startblock)) {
187                 *shared = false;
188                 return 0;
189         }
190
191         trace_xfs_reflink_trim_around_shared(ip, irec);
192
193         agno = XFS_FSB_TO_AGNO(ip->i_mount, irec->br_startblock);
194         agbno = XFS_FSB_TO_AGBNO(ip->i_mount, irec->br_startblock);
195         aglen = irec->br_blockcount;
196
197         error = xfs_reflink_find_shared(ip->i_mount, agno, agbno,
198                         aglen, &fbno, &flen, true);
199         if (error)
200                 return error;
201
202         *shared = *trimmed = false;
203         if (fbno == NULLAGBLOCK) {
204                 /* No shared blocks at all. */
205                 return 0;
206         } else if (fbno == agbno) {
207                 /*
208                  * The start of this extent is shared.  Truncate the
209                  * mapping at the end of the shared region so that a
210                  * subsequent iteration starts at the start of the
211                  * unshared region.
212                  */
213                 irec->br_blockcount = flen;
214                 *shared = true;
215                 if (flen != aglen)
216                         *trimmed = true;
217                 return 0;
218         } else {
219                 /*
220                  * There's a shared extent midway through this extent.
221                  * Truncate the mapping at the start of the shared
222                  * extent so that a subsequent iteration starts at the
223                  * start of the shared region.
224                  */
225                 irec->br_blockcount = fbno - agbno;
226                 *trimmed = true;
227                 return 0;
228         }
229 }
230
231 /*
232  * Trim the passed in imap to the next shared/unshared extent boundary, and
233  * if imap->br_startoff points to a shared extent reserve space for it in the
234  * COW fork.  In this case *shared is set to true, else to false.
235  *
236  * Note that imap will always contain the block numbers for the existing blocks
237  * in the data fork, as the upper layers need them for read-modify-write
238  * operations.
239  */
240 int
241 xfs_reflink_reserve_cow(
242         struct xfs_inode        *ip,
243         struct xfs_bmbt_irec    *imap,
244         bool                    *shared)
245 {
246         struct xfs_bmbt_irec    got, prev;
247         xfs_fileoff_t           end_fsb, orig_end_fsb;
248         int                     eof = 0, error = 0;
249         bool                    trimmed;
250         xfs_extnum_t            idx;
251         xfs_extlen_t            align;
252
253         /*
254          * Search the COW fork extent list first.  This serves two purposes:
255          * first this implement the speculative preallocation using cowextisze,
256          * so that we also unshared block adjacent to shared blocks instead
257          * of just the shared blocks themselves.  Second the lookup in the
258          * extent list is generally faster than going out to the shared extent
259          * tree.
260          */
261         xfs_bmap_search_extents(ip, imap->br_startoff, XFS_COW_FORK, &eof, &idx,
262                         &got, &prev);
263         if (!eof && got.br_startoff <= imap->br_startoff) {
264                 trace_xfs_reflink_cow_found(ip, imap);
265                 xfs_trim_extent(imap, got.br_startoff, got.br_blockcount);
266
267                 *shared = true;
268                 return 0;
269         }
270
271         /* Trim the mapping to the nearest shared extent boundary. */
272         error = xfs_reflink_trim_around_shared(ip, imap, shared, &trimmed);
273         if (error)
274                 return error;
275
276         /* Not shared?  Just report the (potentially capped) extent. */
277         if (!*shared)
278                 return 0;
279
280         /*
281          * Fork all the shared blocks from our write offset until the end of
282          * the extent.
283          */
284         error = xfs_qm_dqattach_locked(ip, 0);
285         if (error)
286                 return error;
287
288         end_fsb = orig_end_fsb = imap->br_startoff + imap->br_blockcount;
289
290         align = xfs_eof_alignment(ip, xfs_get_cowextsz_hint(ip));
291         if (align)
292                 end_fsb = roundup_64(end_fsb, align);
293
294 retry:
295         error = xfs_bmapi_reserve_delalloc(ip, XFS_COW_FORK, imap->br_startoff,
296                         end_fsb - imap->br_startoff, &got, &prev, &idx, eof);
297         switch (error) {
298         case 0:
299                 break;
300         case -ENOSPC:
301         case -EDQUOT:
302                 /* retry without any preallocation */
303                 trace_xfs_reflink_cow_enospc(ip, imap);
304                 if (end_fsb != orig_end_fsb) {
305                         end_fsb = orig_end_fsb;
306                         goto retry;
307                 }
308                 /*FALLTHRU*/
309         default:
310                 return error;
311         }
312
313         if (end_fsb != orig_end_fsb)
314                 xfs_inode_set_cowblocks_tag(ip);
315
316         trace_xfs_reflink_cow_alloc(ip, &got);
317         return 0;
318 }
319
320 /* Allocate all CoW reservations covering a range of blocks in a file. */
321 static int
322 __xfs_reflink_allocate_cow(
323         struct xfs_inode        *ip,
324         xfs_fileoff_t           *offset_fsb,
325         xfs_fileoff_t           end_fsb)
326 {
327         struct xfs_mount        *mp = ip->i_mount;
328         struct xfs_bmbt_irec    imap;
329         struct xfs_defer_ops    dfops;
330         struct xfs_trans        *tp;
331         xfs_fsblock_t           first_block;
332         int                     nimaps = 1, error;
333         bool                    shared;
334
335         xfs_defer_init(&dfops, &first_block);
336
337         error = xfs_trans_alloc(mp, &M_RES(mp)->tr_write, 0, 0,
338                         XFS_TRANS_RESERVE, &tp);
339         if (error)
340                 return error;
341
342         xfs_ilock(ip, XFS_ILOCK_EXCL);
343
344         /* Read extent from the source file. */
345         nimaps = 1;
346         error = xfs_bmapi_read(ip, *offset_fsb, end_fsb - *offset_fsb,
347                         &imap, &nimaps, 0);
348         if (error)
349                 goto out_unlock;
350         ASSERT(nimaps == 1);
351
352         error = xfs_reflink_reserve_cow(ip, &imap, &shared);
353         if (error)
354                 goto out_trans_cancel;
355
356         if (!shared) {
357                 *offset_fsb = imap.br_startoff + imap.br_blockcount;
358                 goto out_trans_cancel;
359         }
360
361         xfs_trans_ijoin(tp, ip, 0);
362         error = xfs_bmapi_write(tp, ip, imap.br_startoff, imap.br_blockcount,
363                         XFS_BMAPI_COWFORK, &first_block,
364                         XFS_EXTENTADD_SPACE_RES(mp, XFS_DATA_FORK),
365                         &imap, &nimaps, &dfops);
366         if (error)
367                 goto out_trans_cancel;
368
369         error = xfs_defer_finish(&tp, &dfops, NULL);
370         if (error)
371                 goto out_trans_cancel;
372
373         error = xfs_trans_commit(tp);
374
375         *offset_fsb = imap.br_startoff + imap.br_blockcount;
376 out_unlock:
377         xfs_iunlock(ip, XFS_ILOCK_EXCL);
378         return error;
379 out_trans_cancel:
380         xfs_defer_cancel(&dfops);
381         xfs_trans_cancel(tp);
382         goto out_unlock;
383 }
384
385 /* Allocate all CoW reservations covering a part of a file. */
386 int
387 xfs_reflink_allocate_cow_range(
388         struct xfs_inode        *ip,
389         xfs_off_t               offset,
390         xfs_off_t               count)
391 {
392         struct xfs_mount        *mp = ip->i_mount;
393         xfs_fileoff_t           offset_fsb = XFS_B_TO_FSBT(mp, offset);
394         xfs_fileoff_t           end_fsb = XFS_B_TO_FSB(mp, offset + count);
395         int                     error;
396
397         ASSERT(xfs_is_reflink_inode(ip));
398
399         trace_xfs_reflink_allocate_cow_range(ip, offset, count);
400
401         /*
402          * Make sure that the dquots are there.
403          */
404         error = xfs_qm_dqattach(ip, 0);
405         if (error)
406                 return error;
407
408         while (offset_fsb < end_fsb) {
409                 error = __xfs_reflink_allocate_cow(ip, &offset_fsb, end_fsb);
410                 if (error) {
411                         trace_xfs_reflink_allocate_cow_range_error(ip, error,
412                                         _RET_IP_);
413                         break;
414                 }
415         }
416
417         return error;
418 }
419
420 /*
421  * Find the CoW reservation (and whether or not it needs block allocation)
422  * for a given byte offset of a file.
423  */
424 bool
425 xfs_reflink_find_cow_mapping(
426         struct xfs_inode                *ip,
427         xfs_off_t                       offset,
428         struct xfs_bmbt_irec            *imap,
429         bool                            *need_alloc)
430 {
431         struct xfs_bmbt_irec            irec;
432         struct xfs_ifork                *ifp;
433         struct xfs_bmbt_rec_host        *gotp;
434         xfs_fileoff_t                   bno;
435         xfs_extnum_t                    idx;
436
437         ASSERT(xfs_isilocked(ip, XFS_ILOCK_EXCL | XFS_ILOCK_SHARED));
438         ASSERT(xfs_is_reflink_inode(ip));
439
440         /* Find the extent in the CoW fork. */
441         ifp = XFS_IFORK_PTR(ip, XFS_COW_FORK);
442         bno = XFS_B_TO_FSBT(ip->i_mount, offset);
443         gotp = xfs_iext_bno_to_ext(ifp, bno, &idx);
444         if (!gotp)
445                 return false;
446
447         xfs_bmbt_get_all(gotp, &irec);
448         if (bno >= irec.br_startoff + irec.br_blockcount ||
449             bno < irec.br_startoff)
450                 return false;
451
452         trace_xfs_reflink_find_cow_mapping(ip, offset, 1, XFS_IO_OVERWRITE,
453                         &irec);
454
455         /* If it's still delalloc, we must allocate later. */
456         *imap = irec;
457         *need_alloc = !!(isnullstartblock(irec.br_startblock));
458
459         return true;
460 }
461
462 /*
463  * Trim an extent to end at the next CoW reservation past offset_fsb.
464  */
465 int
466 xfs_reflink_trim_irec_to_next_cow(
467         struct xfs_inode                *ip,
468         xfs_fileoff_t                   offset_fsb,
469         struct xfs_bmbt_irec            *imap)
470 {
471         struct xfs_bmbt_irec            irec;
472         struct xfs_ifork                *ifp;
473         struct xfs_bmbt_rec_host        *gotp;
474         xfs_extnum_t                    idx;
475
476         if (!xfs_is_reflink_inode(ip))
477                 return 0;
478
479         /* Find the extent in the CoW fork. */
480         ifp = XFS_IFORK_PTR(ip, XFS_COW_FORK);
481         gotp = xfs_iext_bno_to_ext(ifp, offset_fsb, &idx);
482         if (!gotp)
483                 return 0;
484         xfs_bmbt_get_all(gotp, &irec);
485
486         /* This is the extent before; try sliding up one. */
487         if (irec.br_startoff < offset_fsb) {
488                 idx++;
489                 if (idx >= ifp->if_bytes / sizeof(xfs_bmbt_rec_t))
490                         return 0;
491                 gotp = xfs_iext_get_ext(ifp, idx);
492                 xfs_bmbt_get_all(gotp, &irec);
493         }
494
495         if (irec.br_startoff >= imap->br_startoff + imap->br_blockcount)
496                 return 0;
497
498         imap->br_blockcount = irec.br_startoff - imap->br_startoff;
499         trace_xfs_reflink_trim_irec(ip, imap);
500
501         return 0;
502 }
503
504 /*
505  * Cancel all pending CoW reservations for some block range of an inode.
506  */
507 int
508 xfs_reflink_cancel_cow_blocks(
509         struct xfs_inode                *ip,
510         struct xfs_trans                **tpp,
511         xfs_fileoff_t                   offset_fsb,
512         xfs_fileoff_t                   end_fsb)
513 {
514         struct xfs_ifork                *ifp = XFS_IFORK_PTR(ip, XFS_COW_FORK);
515         struct xfs_bmbt_irec            got, prev, del;
516         xfs_extnum_t                    idx;
517         xfs_fsblock_t                   firstfsb;
518         struct xfs_defer_ops            dfops;
519         int                             error = 0, eof = 0;
520
521         if (!xfs_is_reflink_inode(ip))
522                 return 0;
523
524         xfs_bmap_search_extents(ip, offset_fsb, XFS_COW_FORK, &eof, &idx,
525                         &got, &prev);
526         if (eof)
527                 return 0;
528
529         while (got.br_startoff < end_fsb) {
530                 del = got;
531                 xfs_trim_extent(&del, offset_fsb, end_fsb - offset_fsb);
532                 trace_xfs_reflink_cancel_cow(ip, &del);
533
534                 if (isnullstartblock(del.br_startblock)) {
535                         error = xfs_bmap_del_extent_delay(ip, XFS_COW_FORK,
536                                         &idx, &got, &del);
537                         if (error)
538                                 break;
539                 } else {
540                         xfs_trans_ijoin(*tpp, ip, 0);
541                         xfs_defer_init(&dfops, &firstfsb);
542
543                         /* Free the CoW orphan record. */
544                         error = xfs_refcount_free_cow_extent(ip->i_mount,
545                                         &dfops, del.br_startblock,
546                                         del.br_blockcount);
547                         if (error)
548                                 break;
549
550                         xfs_bmap_add_free(ip->i_mount, &dfops,
551                                         del.br_startblock, del.br_blockcount,
552                                         NULL);
553
554                         /* Update quota accounting */
555                         xfs_trans_mod_dquot_byino(*tpp, ip, XFS_TRANS_DQ_BCOUNT,
556                                         -(long)del.br_blockcount);
557
558                         /* Roll the transaction */
559                         error = xfs_defer_finish(tpp, &dfops, ip);
560                         if (error) {
561                                 xfs_defer_cancel(&dfops);
562                                 break;
563                         }
564
565                         /* Remove the mapping from the CoW fork. */
566                         xfs_bmap_del_extent_cow(ip, &idx, &got, &del);
567                 }
568
569                 if (++idx >= ifp->if_bytes / sizeof(struct xfs_bmbt_rec))
570                         return 0;
571                 xfs_bmbt_get_all(xfs_iext_get_ext(ifp, idx), &got);
572         }
573
574         return error;
575 }
576
577 /*
578  * Cancel all pending CoW reservations for some byte range of an inode.
579  */
580 int
581 xfs_reflink_cancel_cow_range(
582         struct xfs_inode        *ip,
583         xfs_off_t               offset,
584         xfs_off_t               count)
585 {
586         struct xfs_trans        *tp;
587         xfs_fileoff_t           offset_fsb;
588         xfs_fileoff_t           end_fsb;
589         int                     error;
590
591         trace_xfs_reflink_cancel_cow_range(ip, offset, count);
592         ASSERT(xfs_is_reflink_inode(ip));
593
594         offset_fsb = XFS_B_TO_FSBT(ip->i_mount, offset);
595         if (count == NULLFILEOFF)
596                 end_fsb = NULLFILEOFF;
597         else
598                 end_fsb = XFS_B_TO_FSB(ip->i_mount, offset + count);
599
600         /* Start a rolling transaction to remove the mappings */
601         error = xfs_trans_alloc(ip->i_mount, &M_RES(ip->i_mount)->tr_write,
602                         0, 0, 0, &tp);
603         if (error)
604                 goto out;
605
606         xfs_ilock(ip, XFS_ILOCK_EXCL);
607         xfs_trans_ijoin(tp, ip, 0);
608
609         /* Scrape out the old CoW reservations */
610         error = xfs_reflink_cancel_cow_blocks(ip, &tp, offset_fsb, end_fsb);
611         if (error)
612                 goto out_cancel;
613
614         error = xfs_trans_commit(tp);
615
616         xfs_iunlock(ip, XFS_ILOCK_EXCL);
617         return error;
618
619 out_cancel:
620         xfs_trans_cancel(tp);
621         xfs_iunlock(ip, XFS_ILOCK_EXCL);
622 out:
623         trace_xfs_reflink_cancel_cow_range_error(ip, error, _RET_IP_);
624         return error;
625 }
626
627 /*
628  * Remap parts of a file's data fork after a successful CoW.
629  */
630 int
631 xfs_reflink_end_cow(
632         struct xfs_inode                *ip,
633         xfs_off_t                       offset,
634         xfs_off_t                       count)
635 {
636         struct xfs_ifork                *ifp = XFS_IFORK_PTR(ip, XFS_COW_FORK);
637         struct xfs_bmbt_irec            got, prev, del;
638         struct xfs_trans                *tp;
639         xfs_fileoff_t                   offset_fsb;
640         xfs_fileoff_t                   end_fsb;
641         xfs_fsblock_t                   firstfsb;
642         struct xfs_defer_ops            dfops;
643         int                             error, eof = 0;
644         unsigned int                    resblks;
645         xfs_filblks_t                   rlen;
646         xfs_extnum_t                    idx;
647
648         trace_xfs_reflink_end_cow(ip, offset, count);
649
650         /* No COW extents?  That's easy! */
651         if (ifp->if_bytes == 0)
652                 return 0;
653
654         offset_fsb = XFS_B_TO_FSBT(ip->i_mount, offset);
655         end_fsb = XFS_B_TO_FSB(ip->i_mount, offset + count);
656
657         /* Start a rolling transaction to switch the mappings */
658         resblks = XFS_EXTENTADD_SPACE_RES(ip->i_mount, XFS_DATA_FORK);
659         error = xfs_trans_alloc(ip->i_mount, &M_RES(ip->i_mount)->tr_write,
660                         resblks, 0, 0, &tp);
661         if (error)
662                 goto out;
663
664         xfs_ilock(ip, XFS_ILOCK_EXCL);
665         xfs_trans_ijoin(tp, ip, 0);
666
667         xfs_bmap_search_extents(ip, end_fsb - 1, XFS_COW_FORK, &eof, &idx,
668                         &got, &prev);
669
670         /* If there is a hole at end_fsb - 1 go to the previous extent */
671         if (eof || got.br_startoff > end_fsb) {
672                 ASSERT(idx > 0);
673                 xfs_bmbt_get_all(xfs_iext_get_ext(ifp, --idx), &got);
674         }
675
676         /* Walk backwards until we're out of the I/O range... */
677         while (got.br_startoff + got.br_blockcount > offset_fsb) {
678                 del = got;
679                 xfs_trim_extent(&del, offset_fsb, end_fsb - offset_fsb);
680
681                 /* Extent delete may have bumped idx forward */
682                 if (!del.br_blockcount) {
683                         idx--;
684                         goto next_extent;
685                 }
686
687                 ASSERT(!isnullstartblock(got.br_startblock));
688
689                 /* Unmap the old blocks in the data fork. */
690                 xfs_defer_init(&dfops, &firstfsb);
691                 rlen = del.br_blockcount;
692                 error = __xfs_bunmapi(tp, ip, del.br_startoff, &rlen, 0, 1,
693                                 &firstfsb, &dfops);
694                 if (error)
695                         goto out_defer;
696
697                 /* Trim the extent to whatever got unmapped. */
698                 if (rlen) {
699                         xfs_trim_extent(&del, del.br_startoff + rlen,
700                                 del.br_blockcount - rlen);
701                 }
702                 trace_xfs_reflink_cow_remap(ip, &del);
703
704                 /* Free the CoW orphan record. */
705                 error = xfs_refcount_free_cow_extent(tp->t_mountp, &dfops,
706                                 del.br_startblock, del.br_blockcount);
707                 if (error)
708                         goto out_defer;
709
710                 /* Map the new blocks into the data fork. */
711                 error = xfs_bmap_map_extent(tp->t_mountp, &dfops, ip, &del);
712                 if (error)
713                         goto out_defer;
714
715                 /* Remove the mapping from the CoW fork. */
716                 xfs_bmap_del_extent_cow(ip, &idx, &got, &del);
717
718                 error = xfs_defer_finish(&tp, &dfops, ip);
719                 if (error)
720                         goto out_defer;
721
722 next_extent:
723                 if (idx < 0)
724                         break;
725                 xfs_bmbt_get_all(xfs_iext_get_ext(ifp, idx), &got);
726         }
727
728         error = xfs_trans_commit(tp);
729         xfs_iunlock(ip, XFS_ILOCK_EXCL);
730         if (error)
731                 goto out;
732         return 0;
733
734 out_defer:
735         xfs_defer_cancel(&dfops);
736         xfs_trans_cancel(tp);
737         xfs_iunlock(ip, XFS_ILOCK_EXCL);
738 out:
739         trace_xfs_reflink_end_cow_error(ip, error, _RET_IP_);
740         return error;
741 }
742
743 /*
744  * Free leftover CoW reservations that didn't get cleaned out.
745  */
746 int
747 xfs_reflink_recover_cow(
748         struct xfs_mount        *mp)
749 {
750         xfs_agnumber_t          agno;
751         int                     error = 0;
752
753         if (!xfs_sb_version_hasreflink(&mp->m_sb))
754                 return 0;
755
756         for (agno = 0; agno < mp->m_sb.sb_agcount; agno++) {
757                 error = xfs_refcount_recover_cow_leftovers(mp, agno);
758                 if (error)
759                         break;
760         }
761
762         return error;
763 }
764
765 /*
766  * Reflinking (Block) Ranges of Two Files Together
767  *
768  * First, ensure that the reflink flag is set on both inodes.  The flag is an
769  * optimization to avoid unnecessary refcount btree lookups in the write path.
770  *
771  * Now we can iteratively remap the range of extents (and holes) in src to the
772  * corresponding ranges in dest.  Let drange and srange denote the ranges of
773  * logical blocks in dest and src touched by the reflink operation.
774  *
775  * While the length of drange is greater than zero,
776  *    - Read src's bmbt at the start of srange ("imap")
777  *    - If imap doesn't exist, make imap appear to start at the end of srange
778  *      with zero length.
779  *    - If imap starts before srange, advance imap to start at srange.
780  *    - If imap goes beyond srange, truncate imap to end at the end of srange.
781  *    - Punch (imap start - srange start + imap len) blocks from dest at
782  *      offset (drange start).
783  *    - If imap points to a real range of pblks,
784  *         > Increase the refcount of the imap's pblks
785  *         > Map imap's pblks into dest at the offset
786  *           (drange start + imap start - srange start)
787  *    - Advance drange and srange by (imap start - srange start + imap len)
788  *
789  * Finally, if the reflink made dest longer, update both the in-core and
790  * on-disk file sizes.
791  *
792  * ASCII Art Demonstration:
793  *
794  * Let's say we want to reflink this source file:
795  *
796  * ----SSSSSSS-SSSSS----SSSSSS (src file)
797  *   <-------------------->
798  *
799  * into this destination file:
800  *
801  * --DDDDDDDDDDDDDDDDDDD--DDD (dest file)
802  *        <-------------------->
803  * '-' means a hole, and 'S' and 'D' are written blocks in the src and dest.
804  * Observe that the range has different logical offsets in either file.
805  *
806  * Consider that the first extent in the source file doesn't line up with our
807  * reflink range.  Unmapping  and remapping are separate operations, so we can
808  * unmap more blocks from the destination file than we remap.
809  *
810  * ----SSSSSSS-SSSSS----SSSSSS
811  *   <------->
812  * --DDDDD---------DDDDD--DDD
813  *        <------->
814  *
815  * Now remap the source extent into the destination file:
816  *
817  * ----SSSSSSS-SSSSS----SSSSSS
818  *   <------->
819  * --DDDDD--SSSSSSSDDDDD--DDD
820  *        <------->
821  *
822  * Do likewise with the second hole and extent in our range.  Holes in the
823  * unmap range don't affect our operation.
824  *
825  * ----SSSSSSS-SSSSS----SSSSSS
826  *            <---->
827  * --DDDDD--SSSSSSS-SSSSS-DDD
828  *                 <---->
829  *
830  * Finally, unmap and remap part of the third extent.  This will increase the
831  * size of the destination file.
832  *
833  * ----SSSSSSS-SSSSS----SSSSSS
834  *                  <----->
835  * --DDDDD--SSSSSSS-SSSSS----SSS
836  *                       <----->
837  *
838  * Once we update the destination file's i_size, we're done.
839  */
840
841 /*
842  * Ensure the reflink bit is set in both inodes.
843  */
844 STATIC int
845 xfs_reflink_set_inode_flag(
846         struct xfs_inode        *src,
847         struct xfs_inode        *dest)
848 {
849         struct xfs_mount        *mp = src->i_mount;
850         int                     error;
851         struct xfs_trans        *tp;
852
853         if (xfs_is_reflink_inode(src) && xfs_is_reflink_inode(dest))
854                 return 0;
855
856         error = xfs_trans_alloc(mp, &M_RES(mp)->tr_ichange, 0, 0, 0, &tp);
857         if (error)
858                 goto out_error;
859
860         /* Lock both files against IO */
861         if (src->i_ino == dest->i_ino)
862                 xfs_ilock(src, XFS_ILOCK_EXCL);
863         else
864                 xfs_lock_two_inodes(src, dest, XFS_ILOCK_EXCL);
865
866         if (!xfs_is_reflink_inode(src)) {
867                 trace_xfs_reflink_set_inode_flag(src);
868                 xfs_trans_ijoin(tp, src, XFS_ILOCK_EXCL);
869                 src->i_d.di_flags2 |= XFS_DIFLAG2_REFLINK;
870                 xfs_trans_log_inode(tp, src, XFS_ILOG_CORE);
871                 xfs_ifork_init_cow(src);
872         } else
873                 xfs_iunlock(src, XFS_ILOCK_EXCL);
874
875         if (src->i_ino == dest->i_ino)
876                 goto commit_flags;
877
878         if (!xfs_is_reflink_inode(dest)) {
879                 trace_xfs_reflink_set_inode_flag(dest);
880                 xfs_trans_ijoin(tp, dest, XFS_ILOCK_EXCL);
881                 dest->i_d.di_flags2 |= XFS_DIFLAG2_REFLINK;
882                 xfs_trans_log_inode(tp, dest, XFS_ILOG_CORE);
883                 xfs_ifork_init_cow(dest);
884         } else
885                 xfs_iunlock(dest, XFS_ILOCK_EXCL);
886
887 commit_flags:
888         error = xfs_trans_commit(tp);
889         if (error)
890                 goto out_error;
891         return error;
892
893 out_error:
894         trace_xfs_reflink_set_inode_flag_error(dest, error, _RET_IP_);
895         return error;
896 }
897
898 /*
899  * Update destination inode size & cowextsize hint, if necessary.
900  */
901 STATIC int
902 xfs_reflink_update_dest(
903         struct xfs_inode        *dest,
904         xfs_off_t               newlen,
905         xfs_extlen_t            cowextsize)
906 {
907         struct xfs_mount        *mp = dest->i_mount;
908         struct xfs_trans        *tp;
909         int                     error;
910
911         if (newlen <= i_size_read(VFS_I(dest)) && cowextsize == 0)
912                 return 0;
913
914         error = xfs_trans_alloc(mp, &M_RES(mp)->tr_ichange, 0, 0, 0, &tp);
915         if (error)
916                 goto out_error;
917
918         xfs_ilock(dest, XFS_ILOCK_EXCL);
919         xfs_trans_ijoin(tp, dest, XFS_ILOCK_EXCL);
920
921         if (newlen > i_size_read(VFS_I(dest))) {
922                 trace_xfs_reflink_update_inode_size(dest, newlen);
923                 i_size_write(VFS_I(dest), newlen);
924                 dest->i_d.di_size = newlen;
925         }
926
927         if (cowextsize) {
928                 dest->i_d.di_cowextsize = cowextsize;
929                 dest->i_d.di_flags2 |= XFS_DIFLAG2_COWEXTSIZE;
930         }
931
932         xfs_trans_log_inode(tp, dest, XFS_ILOG_CORE);
933
934         error = xfs_trans_commit(tp);
935         if (error)
936                 goto out_error;
937         return error;
938
939 out_error:
940         trace_xfs_reflink_update_inode_size_error(dest, error, _RET_IP_);
941         return error;
942 }
943
944 /*
945  * Do we have enough reserve in this AG to handle a reflink?  The refcount
946  * btree already reserved all the space it needs, but the rmap btree can grow
947  * infinitely, so we won't allow more reflinks when the AG is down to the
948  * btree reserves.
949  */
950 static int
951 xfs_reflink_ag_has_free_space(
952         struct xfs_mount        *mp,
953         xfs_agnumber_t          agno)
954 {
955         struct xfs_perag        *pag;
956         int                     error = 0;
957
958         if (!xfs_sb_version_hasrmapbt(&mp->m_sb))
959                 return 0;
960
961         pag = xfs_perag_get(mp, agno);
962         if (xfs_ag_resv_critical(pag, XFS_AG_RESV_AGFL) ||
963             xfs_ag_resv_critical(pag, XFS_AG_RESV_METADATA))
964                 error = -ENOSPC;
965         xfs_perag_put(pag);
966         return error;
967 }
968
969 /*
970  * Unmap a range of blocks from a file, then map other blocks into the hole.
971  * The range to unmap is (destoff : destoff + srcioff + irec->br_blockcount).
972  * The extent irec is mapped into dest at irec->br_startoff.
973  */
974 STATIC int
975 xfs_reflink_remap_extent(
976         struct xfs_inode        *ip,
977         struct xfs_bmbt_irec    *irec,
978         xfs_fileoff_t           destoff,
979         xfs_off_t               new_isize)
980 {
981         struct xfs_mount        *mp = ip->i_mount;
982         struct xfs_trans        *tp;
983         xfs_fsblock_t           firstfsb;
984         unsigned int            resblks;
985         struct xfs_defer_ops    dfops;
986         struct xfs_bmbt_irec    uirec;
987         bool                    real_extent;
988         xfs_filblks_t           rlen;
989         xfs_filblks_t           unmap_len;
990         xfs_off_t               newlen;
991         int                     error;
992
993         unmap_len = irec->br_startoff + irec->br_blockcount - destoff;
994         trace_xfs_reflink_punch_range(ip, destoff, unmap_len);
995
996         /* Only remap normal extents. */
997         real_extent =  (irec->br_startblock != HOLESTARTBLOCK &&
998                         irec->br_startblock != DELAYSTARTBLOCK &&
999                         !ISUNWRITTEN(irec));
1000
1001         /* No reflinking if we're low on space */
1002         if (real_extent) {
1003                 error = xfs_reflink_ag_has_free_space(mp,
1004                                 XFS_FSB_TO_AGNO(mp, irec->br_startblock));
1005                 if (error)
1006                         goto out;
1007         }
1008
1009         /* Start a rolling transaction to switch the mappings */
1010         resblks = XFS_EXTENTADD_SPACE_RES(ip->i_mount, XFS_DATA_FORK);
1011         error = xfs_trans_alloc(mp, &M_RES(mp)->tr_write, resblks, 0, 0, &tp);
1012         if (error)
1013                 goto out;
1014
1015         xfs_ilock(ip, XFS_ILOCK_EXCL);
1016         xfs_trans_ijoin(tp, ip, 0);
1017
1018         /* If we're not just clearing space, then do we have enough quota? */
1019         if (real_extent) {
1020                 error = xfs_trans_reserve_quota_nblks(tp, ip,
1021                                 irec->br_blockcount, 0, XFS_QMOPT_RES_REGBLKS);
1022                 if (error)
1023                         goto out_cancel;
1024         }
1025
1026         trace_xfs_reflink_remap(ip, irec->br_startoff,
1027                                 irec->br_blockcount, irec->br_startblock);
1028
1029         /* Unmap the old blocks in the data fork. */
1030         rlen = unmap_len;
1031         while (rlen) {
1032                 xfs_defer_init(&dfops, &firstfsb);
1033                 error = __xfs_bunmapi(tp, ip, destoff, &rlen, 0, 1,
1034                                 &firstfsb, &dfops);
1035                 if (error)
1036                         goto out_defer;
1037
1038                 /*
1039                  * Trim the extent to whatever got unmapped.
1040                  * Remember, bunmapi works backwards.
1041                  */
1042                 uirec.br_startblock = irec->br_startblock + rlen;
1043                 uirec.br_startoff = irec->br_startoff + rlen;
1044                 uirec.br_blockcount = unmap_len - rlen;
1045                 unmap_len = rlen;
1046
1047                 /* If this isn't a real mapping, we're done. */
1048                 if (!real_extent || uirec.br_blockcount == 0)
1049                         goto next_extent;
1050
1051                 trace_xfs_reflink_remap(ip, uirec.br_startoff,
1052                                 uirec.br_blockcount, uirec.br_startblock);
1053
1054                 /* Update the refcount tree */
1055                 error = xfs_refcount_increase_extent(mp, &dfops, &uirec);
1056                 if (error)
1057                         goto out_defer;
1058
1059                 /* Map the new blocks into the data fork. */
1060                 error = xfs_bmap_map_extent(mp, &dfops, ip, &uirec);
1061                 if (error)
1062                         goto out_defer;
1063
1064                 /* Update quota accounting. */
1065                 xfs_trans_mod_dquot_byino(tp, ip, XFS_TRANS_DQ_BCOUNT,
1066                                 uirec.br_blockcount);
1067
1068                 /* Update dest isize if needed. */
1069                 newlen = XFS_FSB_TO_B(mp,
1070                                 uirec.br_startoff + uirec.br_blockcount);
1071                 newlen = min_t(xfs_off_t, newlen, new_isize);
1072                 if (newlen > i_size_read(VFS_I(ip))) {
1073                         trace_xfs_reflink_update_inode_size(ip, newlen);
1074                         i_size_write(VFS_I(ip), newlen);
1075                         ip->i_d.di_size = newlen;
1076                         xfs_trans_log_inode(tp, ip, XFS_ILOG_CORE);
1077                 }
1078
1079 next_extent:
1080                 /* Process all the deferred stuff. */
1081                 error = xfs_defer_finish(&tp, &dfops, ip);
1082                 if (error)
1083                         goto out_defer;
1084         }
1085
1086         error = xfs_trans_commit(tp);
1087         xfs_iunlock(ip, XFS_ILOCK_EXCL);
1088         if (error)
1089                 goto out;
1090         return 0;
1091
1092 out_defer:
1093         xfs_defer_cancel(&dfops);
1094 out_cancel:
1095         xfs_trans_cancel(tp);
1096         xfs_iunlock(ip, XFS_ILOCK_EXCL);
1097 out:
1098         trace_xfs_reflink_remap_extent_error(ip, error, _RET_IP_);
1099         return error;
1100 }
1101
1102 /*
1103  * Iteratively remap one file's extents (and holes) to another's.
1104  */
1105 STATIC int
1106 xfs_reflink_remap_blocks(
1107         struct xfs_inode        *src,
1108         xfs_fileoff_t           srcoff,
1109         struct xfs_inode        *dest,
1110         xfs_fileoff_t           destoff,
1111         xfs_filblks_t           len,
1112         xfs_off_t               new_isize)
1113 {
1114         struct xfs_bmbt_irec    imap;
1115         int                     nimaps;
1116         int                     error = 0;
1117         xfs_filblks_t           range_len;
1118
1119         /* drange = (destoff, destoff + len); srange = (srcoff, srcoff + len) */
1120         while (len) {
1121                 trace_xfs_reflink_remap_blocks_loop(src, srcoff, len,
1122                                 dest, destoff);
1123                 /* Read extent from the source file */
1124                 nimaps = 1;
1125                 xfs_ilock(src, XFS_ILOCK_EXCL);
1126                 error = xfs_bmapi_read(src, srcoff, len, &imap, &nimaps, 0);
1127                 xfs_iunlock(src, XFS_ILOCK_EXCL);
1128                 if (error)
1129                         goto err;
1130                 ASSERT(nimaps == 1);
1131
1132                 trace_xfs_reflink_remap_imap(src, srcoff, len, XFS_IO_OVERWRITE,
1133                                 &imap);
1134
1135                 /* Translate imap into the destination file. */
1136                 range_len = imap.br_startoff + imap.br_blockcount - srcoff;
1137                 imap.br_startoff += destoff - srcoff;
1138
1139                 /* Clear dest from destoff to the end of imap and map it in. */
1140                 error = xfs_reflink_remap_extent(dest, &imap, destoff,
1141                                 new_isize);
1142                 if (error)
1143                         goto err;
1144
1145                 if (fatal_signal_pending(current)) {
1146                         error = -EINTR;
1147                         goto err;
1148                 }
1149
1150                 /* Advance drange/srange */
1151                 srcoff += range_len;
1152                 destoff += range_len;
1153                 len -= range_len;
1154         }
1155
1156         return 0;
1157
1158 err:
1159         trace_xfs_reflink_remap_blocks_error(dest, error, _RET_IP_);
1160         return error;
1161 }
1162
1163 /*
1164  * Read a page's worth of file data into the page cache.  Return the page
1165  * locked.
1166  */
1167 static struct page *
1168 xfs_get_page(
1169         struct inode    *inode,
1170         xfs_off_t       offset)
1171 {
1172         struct address_space    *mapping;
1173         struct page             *page;
1174         pgoff_t                 n;
1175
1176         n = offset >> PAGE_SHIFT;
1177         mapping = inode->i_mapping;
1178         page = read_mapping_page(mapping, n, NULL);
1179         if (IS_ERR(page))
1180                 return page;
1181         if (!PageUptodate(page)) {
1182                 put_page(page);
1183                 return ERR_PTR(-EIO);
1184         }
1185         lock_page(page);
1186         return page;
1187 }
1188
1189 /*
1190  * Compare extents of two files to see if they are the same.
1191  */
1192 static int
1193 xfs_compare_extents(
1194         struct inode    *src,
1195         xfs_off_t       srcoff,
1196         struct inode    *dest,
1197         xfs_off_t       destoff,
1198         xfs_off_t       len,
1199         bool            *is_same)
1200 {
1201         xfs_off_t       src_poff;
1202         xfs_off_t       dest_poff;
1203         void            *src_addr;
1204         void            *dest_addr;
1205         struct page     *src_page;
1206         struct page     *dest_page;
1207         xfs_off_t       cmp_len;
1208         bool            same;
1209         int             error;
1210
1211         error = -EINVAL;
1212         same = true;
1213         while (len) {
1214                 src_poff = srcoff & (PAGE_SIZE - 1);
1215                 dest_poff = destoff & (PAGE_SIZE - 1);
1216                 cmp_len = min(PAGE_SIZE - src_poff,
1217                               PAGE_SIZE - dest_poff);
1218                 cmp_len = min(cmp_len, len);
1219                 ASSERT(cmp_len > 0);
1220
1221                 trace_xfs_reflink_compare_extents(XFS_I(src), srcoff, cmp_len,
1222                                 XFS_I(dest), destoff);
1223
1224                 src_page = xfs_get_page(src, srcoff);
1225                 if (IS_ERR(src_page)) {
1226                         error = PTR_ERR(src_page);
1227                         goto out_error;
1228                 }
1229                 dest_page = xfs_get_page(dest, destoff);
1230                 if (IS_ERR(dest_page)) {
1231                         error = PTR_ERR(dest_page);
1232                         unlock_page(src_page);
1233                         put_page(src_page);
1234                         goto out_error;
1235                 }
1236                 src_addr = kmap_atomic(src_page);
1237                 dest_addr = kmap_atomic(dest_page);
1238
1239                 flush_dcache_page(src_page);
1240                 flush_dcache_page(dest_page);
1241
1242                 if (memcmp(src_addr + src_poff, dest_addr + dest_poff, cmp_len))
1243                         same = false;
1244
1245                 kunmap_atomic(dest_addr);
1246                 kunmap_atomic(src_addr);
1247                 unlock_page(dest_page);
1248                 unlock_page(src_page);
1249                 put_page(dest_page);
1250                 put_page(src_page);
1251
1252                 if (!same)
1253                         break;
1254
1255                 srcoff += cmp_len;
1256                 destoff += cmp_len;
1257                 len -= cmp_len;
1258         }
1259
1260         *is_same = same;
1261         return 0;
1262
1263 out_error:
1264         trace_xfs_reflink_compare_extents_error(XFS_I(dest), error, _RET_IP_);
1265         return error;
1266 }
1267
1268 /*
1269  * Link a range of blocks from one file to another.
1270  */
1271 int
1272 xfs_reflink_remap_range(
1273         struct file             *file_in,
1274         loff_t                  pos_in,
1275         struct file             *file_out,
1276         loff_t                  pos_out,
1277         u64                     len,
1278         bool                    is_dedupe)
1279 {
1280         struct inode            *inode_in = file_inode(file_in);
1281         struct xfs_inode        *src = XFS_I(inode_in);
1282         struct inode            *inode_out = file_inode(file_out);
1283         struct xfs_inode        *dest = XFS_I(inode_out);
1284         struct xfs_mount        *mp = src->i_mount;
1285         loff_t                  bs = inode_out->i_sb->s_blocksize;
1286         bool                    same_inode = (inode_in == inode_out);
1287         xfs_fileoff_t           sfsbno, dfsbno;
1288         xfs_filblks_t           fsblen;
1289         xfs_extlen_t            cowextsize;
1290         loff_t                  isize;
1291         ssize_t                 ret;
1292         loff_t                  blen;
1293
1294         if (!xfs_sb_version_hasreflink(&mp->m_sb))
1295                 return -EOPNOTSUPP;
1296
1297         if (XFS_FORCED_SHUTDOWN(mp))
1298                 return -EIO;
1299
1300         /* Lock both files against IO */
1301         if (same_inode) {
1302                 xfs_ilock(src, XFS_IOLOCK_EXCL);
1303                 xfs_ilock(src, XFS_MMAPLOCK_EXCL);
1304         } else {
1305                 xfs_lock_two_inodes(src, dest, XFS_IOLOCK_EXCL);
1306                 xfs_lock_two_inodes(src, dest, XFS_MMAPLOCK_EXCL);
1307         }
1308
1309         /* Don't touch certain kinds of inodes */
1310         ret = -EPERM;
1311         if (IS_IMMUTABLE(inode_out))
1312                 goto out_unlock;
1313
1314         ret = -ETXTBSY;
1315         if (IS_SWAPFILE(inode_in) || IS_SWAPFILE(inode_out))
1316                 goto out_unlock;
1317
1318
1319         /* Don't reflink dirs, pipes, sockets... */
1320         ret = -EISDIR;
1321         if (S_ISDIR(inode_in->i_mode) || S_ISDIR(inode_out->i_mode))
1322                 goto out_unlock;
1323         ret = -EINVAL;
1324         if (S_ISFIFO(inode_in->i_mode) || S_ISFIFO(inode_out->i_mode))
1325                 goto out_unlock;
1326         if (!S_ISREG(inode_in->i_mode) || !S_ISREG(inode_out->i_mode))
1327                 goto out_unlock;
1328
1329         /* Don't reflink realtime inodes */
1330         if (XFS_IS_REALTIME_INODE(src) || XFS_IS_REALTIME_INODE(dest))
1331                 goto out_unlock;
1332
1333         /* Don't share DAX file data for now. */
1334         if (IS_DAX(inode_in) || IS_DAX(inode_out))
1335                 goto out_unlock;
1336
1337         /* Are we going all the way to the end? */
1338         isize = i_size_read(inode_in);
1339         if (isize == 0) {
1340                 ret = 0;
1341                 goto out_unlock;
1342         }
1343
1344         if (len == 0)
1345                 len = isize - pos_in;
1346
1347         /* Ensure offsets don't wrap and the input is inside i_size */
1348         if (pos_in + len < pos_in || pos_out + len < pos_out ||
1349             pos_in + len > isize)
1350                 goto out_unlock;
1351
1352         /* Don't allow dedupe past EOF in the dest file */
1353         if (is_dedupe) {
1354                 loff_t  disize;
1355
1356                 disize = i_size_read(inode_out);
1357                 if (pos_out >= disize || pos_out + len > disize)
1358                         goto out_unlock;
1359         }
1360
1361         /* If we're linking to EOF, continue to the block boundary. */
1362         if (pos_in + len == isize)
1363                 blen = ALIGN(isize, bs) - pos_in;
1364         else
1365                 blen = len;
1366
1367         /* Only reflink if we're aligned to block boundaries */
1368         if (!IS_ALIGNED(pos_in, bs) || !IS_ALIGNED(pos_in + blen, bs) ||
1369             !IS_ALIGNED(pos_out, bs) || !IS_ALIGNED(pos_out + blen, bs))
1370                 goto out_unlock;
1371
1372         /* Don't allow overlapped reflink within the same file */
1373         if (same_inode) {
1374                 if (pos_out + blen > pos_in && pos_out < pos_in + blen)
1375                         goto out_unlock;
1376         }
1377
1378         /* Wait for the completion of any pending IOs on both files */
1379         inode_dio_wait(inode_in);
1380         if (!same_inode)
1381                 inode_dio_wait(inode_out);
1382
1383         ret = filemap_write_and_wait_range(inode_in->i_mapping,
1384                         pos_in, pos_in + len - 1);
1385         if (ret)
1386                 goto out_unlock;
1387
1388         ret = filemap_write_and_wait_range(inode_out->i_mapping,
1389                         pos_out, pos_out + len - 1);
1390         if (ret)
1391                 goto out_unlock;
1392
1393         trace_xfs_reflink_remap_range(src, pos_in, len, dest, pos_out);
1394
1395         /*
1396          * Check that the extents are the same.
1397          */
1398         if (is_dedupe) {
1399                 bool            is_same = false;
1400
1401                 ret = xfs_compare_extents(inode_in, pos_in, inode_out, pos_out,
1402                                 len, &is_same);
1403                 if (ret)
1404                         goto out_unlock;
1405                 if (!is_same) {
1406                         ret = -EBADE;
1407                         goto out_unlock;
1408                 }
1409         }
1410
1411         ret = xfs_reflink_set_inode_flag(src, dest);
1412         if (ret)
1413                 goto out_unlock;
1414
1415         /*
1416          * Invalidate the page cache so that we can clear any CoW mappings
1417          * in the destination file.
1418          */
1419         truncate_inode_pages_range(&inode_out->i_data, pos_out,
1420                                    PAGE_ALIGN(pos_out + len) - 1);
1421
1422         dfsbno = XFS_B_TO_FSBT(mp, pos_out);
1423         sfsbno = XFS_B_TO_FSBT(mp, pos_in);
1424         fsblen = XFS_B_TO_FSB(mp, len);
1425         ret = xfs_reflink_remap_blocks(src, sfsbno, dest, dfsbno, fsblen,
1426                         pos_out + len);
1427         if (ret)
1428                 goto out_unlock;
1429
1430         /*
1431          * Carry the cowextsize hint from src to dest if we're sharing the
1432          * entire source file to the entire destination file, the source file
1433          * has a cowextsize hint, and the destination file does not.
1434          */
1435         cowextsize = 0;
1436         if (pos_in == 0 && len == i_size_read(inode_in) &&
1437             (src->i_d.di_flags2 & XFS_DIFLAG2_COWEXTSIZE) &&
1438             pos_out == 0 && len >= i_size_read(inode_out) &&
1439             !(dest->i_d.di_flags2 & XFS_DIFLAG2_COWEXTSIZE))
1440                 cowextsize = src->i_d.di_cowextsize;
1441
1442         ret = xfs_reflink_update_dest(dest, pos_out + len, cowextsize);
1443
1444 out_unlock:
1445         xfs_iunlock(src, XFS_MMAPLOCK_EXCL);
1446         xfs_iunlock(src, XFS_IOLOCK_EXCL);
1447         if (src->i_ino != dest->i_ino) {
1448                 xfs_iunlock(dest, XFS_MMAPLOCK_EXCL);
1449                 xfs_iunlock(dest, XFS_IOLOCK_EXCL);
1450         }
1451         if (ret)
1452                 trace_xfs_reflink_remap_range_error(dest, ret, _RET_IP_);
1453         return ret;
1454 }
1455
1456 /*
1457  * The user wants to preemptively CoW all shared blocks in this file,
1458  * which enables us to turn off the reflink flag.  Iterate all
1459  * extents which are not prealloc/delalloc to see which ranges are
1460  * mentioned in the refcount tree, then read those blocks into the
1461  * pagecache, dirty them, fsync them back out, and then we can update
1462  * the inode flag.  What happens if we run out of memory? :)
1463  */
1464 STATIC int
1465 xfs_reflink_dirty_extents(
1466         struct xfs_inode        *ip,
1467         xfs_fileoff_t           fbno,
1468         xfs_filblks_t           end,
1469         xfs_off_t               isize)
1470 {
1471         struct xfs_mount        *mp = ip->i_mount;
1472         xfs_agnumber_t          agno;
1473         xfs_agblock_t           agbno;
1474         xfs_extlen_t            aglen;
1475         xfs_agblock_t           rbno;
1476         xfs_extlen_t            rlen;
1477         xfs_off_t               fpos;
1478         xfs_off_t               flen;
1479         struct xfs_bmbt_irec    map[2];
1480         int                     nmaps;
1481         int                     error = 0;
1482
1483         while (end - fbno > 0) {
1484                 nmaps = 1;
1485                 /*
1486                  * Look for extents in the file.  Skip holes, delalloc, or
1487                  * unwritten extents; they can't be reflinked.
1488                  */
1489                 error = xfs_bmapi_read(ip, fbno, end - fbno, map, &nmaps, 0);
1490                 if (error)
1491                         goto out;
1492                 if (nmaps == 0)
1493                         break;
1494                 if (map[0].br_startblock == HOLESTARTBLOCK ||
1495                     map[0].br_startblock == DELAYSTARTBLOCK ||
1496                     ISUNWRITTEN(&map[0]))
1497                         goto next;
1498
1499                 map[1] = map[0];
1500                 while (map[1].br_blockcount) {
1501                         agno = XFS_FSB_TO_AGNO(mp, map[1].br_startblock);
1502                         agbno = XFS_FSB_TO_AGBNO(mp, map[1].br_startblock);
1503                         aglen = map[1].br_blockcount;
1504
1505                         error = xfs_reflink_find_shared(mp, agno, agbno, aglen,
1506                                         &rbno, &rlen, true);
1507                         if (error)
1508                                 goto out;
1509                         if (rbno == NULLAGBLOCK)
1510                                 break;
1511
1512                         /* Dirty the pages */
1513                         xfs_iunlock(ip, XFS_ILOCK_EXCL);
1514                         fpos = XFS_FSB_TO_B(mp, map[1].br_startoff +
1515                                         (rbno - agbno));
1516                         flen = XFS_FSB_TO_B(mp, rlen);
1517                         if (fpos + flen > isize)
1518                                 flen = isize - fpos;
1519                         error = iomap_file_dirty(VFS_I(ip), fpos, flen,
1520                                         &xfs_iomap_ops);
1521                         xfs_ilock(ip, XFS_ILOCK_EXCL);
1522                         if (error)
1523                                 goto out;
1524
1525                         map[1].br_blockcount -= (rbno - agbno + rlen);
1526                         map[1].br_startoff += (rbno - agbno + rlen);
1527                         map[1].br_startblock += (rbno - agbno + rlen);
1528                 }
1529
1530 next:
1531                 fbno = map[0].br_startoff + map[0].br_blockcount;
1532         }
1533 out:
1534         return error;
1535 }
1536
1537 /* Clear the inode reflink flag if there are no shared extents. */
1538 int
1539 xfs_reflink_clear_inode_flag(
1540         struct xfs_inode        *ip,
1541         struct xfs_trans        **tpp)
1542 {
1543         struct xfs_mount        *mp = ip->i_mount;
1544         xfs_fileoff_t           fbno;
1545         xfs_filblks_t           end;
1546         xfs_agnumber_t          agno;
1547         xfs_agblock_t           agbno;
1548         xfs_extlen_t            aglen;
1549         xfs_agblock_t           rbno;
1550         xfs_extlen_t            rlen;
1551         struct xfs_bmbt_irec    map;
1552         int                     nmaps;
1553         int                     error = 0;
1554
1555         ASSERT(xfs_is_reflink_inode(ip));
1556
1557         fbno = 0;
1558         end = XFS_B_TO_FSB(mp, i_size_read(VFS_I(ip)));
1559         while (end - fbno > 0) {
1560                 nmaps = 1;
1561                 /*
1562                  * Look for extents in the file.  Skip holes, delalloc, or
1563                  * unwritten extents; they can't be reflinked.
1564                  */
1565                 error = xfs_bmapi_read(ip, fbno, end - fbno, &map, &nmaps, 0);
1566                 if (error)
1567                         return error;
1568                 if (nmaps == 0)
1569                         break;
1570                 if (map.br_startblock == HOLESTARTBLOCK ||
1571                     map.br_startblock == DELAYSTARTBLOCK ||
1572                     ISUNWRITTEN(&map))
1573                         goto next;
1574
1575                 agno = XFS_FSB_TO_AGNO(mp, map.br_startblock);
1576                 agbno = XFS_FSB_TO_AGBNO(mp, map.br_startblock);
1577                 aglen = map.br_blockcount;
1578
1579                 error = xfs_reflink_find_shared(mp, agno, agbno, aglen,
1580                                 &rbno, &rlen, false);
1581                 if (error)
1582                         return error;
1583                 /* Is there still a shared block here? */
1584                 if (rbno != NULLAGBLOCK)
1585                         return 0;
1586 next:
1587                 fbno = map.br_startoff + map.br_blockcount;
1588         }
1589
1590         /*
1591          * We didn't find any shared blocks so turn off the reflink flag.
1592          * First, get rid of any leftover CoW mappings.
1593          */
1594         error = xfs_reflink_cancel_cow_blocks(ip, tpp, 0, NULLFILEOFF);
1595         if (error)
1596                 return error;
1597
1598         /* Clear the inode flag. */
1599         trace_xfs_reflink_unset_inode_flag(ip);
1600         ip->i_d.di_flags2 &= ~XFS_DIFLAG2_REFLINK;
1601         xfs_inode_clear_cowblocks_tag(ip);
1602         xfs_trans_ijoin(*tpp, ip, 0);
1603         xfs_trans_log_inode(*tpp, ip, XFS_ILOG_CORE);
1604
1605         return error;
1606 }
1607
1608 /*
1609  * Clear the inode reflink flag if there are no shared extents and the size
1610  * hasn't changed.
1611  */
1612 STATIC int
1613 xfs_reflink_try_clear_inode_flag(
1614         struct xfs_inode        *ip)
1615 {
1616         struct xfs_mount        *mp = ip->i_mount;
1617         struct xfs_trans        *tp;
1618         int                     error = 0;
1619
1620         /* Start a rolling transaction to remove the mappings */
1621         error = xfs_trans_alloc(mp, &M_RES(mp)->tr_write, 0, 0, 0, &tp);
1622         if (error)
1623                 return error;
1624
1625         xfs_ilock(ip, XFS_ILOCK_EXCL);
1626         xfs_trans_ijoin(tp, ip, 0);
1627
1628         error = xfs_reflink_clear_inode_flag(ip, &tp);
1629         if (error)
1630                 goto cancel;
1631
1632         error = xfs_trans_commit(tp);
1633         if (error)
1634                 goto out;
1635
1636         xfs_iunlock(ip, XFS_ILOCK_EXCL);
1637         return 0;
1638 cancel:
1639         xfs_trans_cancel(tp);
1640 out:
1641         xfs_iunlock(ip, XFS_ILOCK_EXCL);
1642         return error;
1643 }
1644
1645 /*
1646  * Pre-COW all shared blocks within a given byte range of a file and turn off
1647  * the reflink flag if we unshare all of the file's blocks.
1648  */
1649 int
1650 xfs_reflink_unshare(
1651         struct xfs_inode        *ip,
1652         xfs_off_t               offset,
1653         xfs_off_t               len)
1654 {
1655         struct xfs_mount        *mp = ip->i_mount;
1656         xfs_fileoff_t           fbno;
1657         xfs_filblks_t           end;
1658         xfs_off_t               isize;
1659         int                     error;
1660
1661         if (!xfs_is_reflink_inode(ip))
1662                 return 0;
1663
1664         trace_xfs_reflink_unshare(ip, offset, len);
1665
1666         inode_dio_wait(VFS_I(ip));
1667
1668         /* Try to CoW the selected ranges */
1669         xfs_ilock(ip, XFS_ILOCK_EXCL);
1670         fbno = XFS_B_TO_FSBT(mp, offset);
1671         isize = i_size_read(VFS_I(ip));
1672         end = XFS_B_TO_FSB(mp, offset + len);
1673         error = xfs_reflink_dirty_extents(ip, fbno, end, isize);
1674         if (error)
1675                 goto out_unlock;
1676         xfs_iunlock(ip, XFS_ILOCK_EXCL);
1677
1678         /* Wait for the IO to finish */
1679         error = filemap_write_and_wait(VFS_I(ip)->i_mapping);
1680         if (error)
1681                 goto out;
1682
1683         /* Turn off the reflink flag if possible. */
1684         error = xfs_reflink_try_clear_inode_flag(ip);
1685         if (error)
1686                 goto out;
1687
1688         return 0;
1689
1690 out_unlock:
1691         xfs_iunlock(ip, XFS_ILOCK_EXCL);
1692 out:
1693         trace_xfs_reflink_unshare_error(ip, error, _RET_IP_);
1694         return error;
1695 }
1696
1697 /*
1698  * Does this inode have any real CoW reservations?
1699  */
1700 bool
1701 xfs_reflink_has_real_cow_blocks(
1702         struct xfs_inode                *ip)
1703 {
1704         struct xfs_bmbt_irec            irec;
1705         struct xfs_ifork                *ifp;
1706         struct xfs_bmbt_rec_host        *gotp;
1707         xfs_extnum_t                    idx;
1708
1709         if (!xfs_is_reflink_inode(ip))
1710                 return false;
1711
1712         /* Go find the old extent in the CoW fork. */
1713         ifp = XFS_IFORK_PTR(ip, XFS_COW_FORK);
1714         gotp = xfs_iext_bno_to_ext(ifp, 0, &idx);
1715         while (gotp) {
1716                 xfs_bmbt_get_all(gotp, &irec);
1717
1718                 if (!isnullstartblock(irec.br_startblock))
1719                         return true;
1720
1721                 /* Roll on... */
1722                 idx++;
1723                 if (idx >= ifp->if_bytes / sizeof(xfs_bmbt_rec_t))
1724                         break;
1725                 gotp = xfs_iext_get_ext(ifp, idx);
1726         }
1727
1728         return false;
1729 }