Delete empty pages during GiST VACUUM.
authorHeikki Linnakangas <[email protected]>
Fri, 22 Mar 2019 11:21:20 +0000 (13:21 +0200)
committerHeikki Linnakangas <[email protected]>
Fri, 22 Mar 2019 11:21:45 +0000 (13:21 +0200)
To do this, we scan GiST two times. In the first pass we make note of
empty leaf pages and internal pages. At second pass we scan through
internal pages, looking for downlinks to the empty pages.

Deleting internal pages is still not supported, like in nbtree, the last
child of an internal page is never deleted. That means that if you have a
workload where new keys are always inserted to different area than where
old keys are removed, the index will still grow without bound. But the rate
of growth will be an order of magnitude slower than before.

Author: Andrey Borodin
Discussion: https://www.postgresql.org/message-id/B1E4DF12-6CD3-4706-BDBD-BF3283328F60@yandex-team.ru

src/backend/access/gist/README
src/backend/access/gist/gist.c
src/backend/access/gist/gistutil.c
src/backend/access/gist/gistvacuum.c
src/backend/access/gist/gistxlog.c
src/backend/access/rmgrdesc/gistdesc.c
src/include/access/gist.h
src/include/access/gist_private.h
src/include/access/gistxlog.h
src/test/regress/expected/gist.out
src/test/regress/sql/gist.sql

index 02228662b81248f26c72725997f159236416c499..84a4961d0c455cca815e891882b42121d0607f7a 100644 (file)
@@ -413,6 +413,54 @@ emptied yet; tuples never move upwards in the tree. The final emptying loops
 through buffers at a given level until all buffers at that level have been
 emptied, and then moves down to the next level.
 
+Bulk delete algorithm (VACUUM)
+------------------------------
+
+VACUUM works in two stages:
+
+In the first stage, we scan the whole index in physical order. To make sure
+that we don't miss any dead tuples because a concurrent page split moved them,
+we check the F_FOLLOW_RIGHT flags and NSN on each page, to detect if the
+page has been concurrently split. If a concurrent page split is detected, and
+one half of the page was moved to a position that we already scanned, we
+"jump backwards" to scan the page again. This is the same mechanism that
+B-tree VACUUM uses, but because we already have NSNs on pages, to detect page
+splits during searches, we don't need a "vacuum cycle ID" concept for that
+like B-tree does.
+
+While we scan all the pages, we also make note of any completely empty leaf
+pages. We will try to unlink them from the tree in the second stage. We also
+record the block numbers of all internal pages; they are needed in the second
+stage, to locate parents of the empty pages.
+
+In the second stage, we try to unlink any empty leaf pages from the tree, so
+that their space can be reused. In order to delete an empty page, its
+downlink must be removed from the parent. We scan all the internal pages,
+whose block numbers we memorized in the first stage, and look for downlinks
+to pages that we have memorized as being empty. Whenever we find one, we
+acquire a lock on the parent and child page, re-check that the child page is
+still empty. Then, we remove the downlink and mark the child as deleted, and
+release the locks.
+
+The insertion algorithm would get confused, if an internal page was completely
+empty. So we never delete the last child of an internal page, even if it's
+empty. Currently, we only support deleting leaf pages.
+
+This page deletion algorithm works on a best-effort basis. It might fail to
+find a downlink, if a concurrent page split moved it after the first stage.
+In that case, we won't be able to remove all empty pages. That's OK, it's
+not expected to happen very often, and hopefully the next VACUUM will clean
+it up.
+
+When we have deleted a page, it's possible that an in-progress search will
+still descend on the page, if it saw the downlink before we removed it. The
+search will see that it is deleted, and ignore it, but as long as that can
+happen, we cannot reuse the page. To "wait out" any in-progress searches, when
+a page is deleted, it's labeled with the current next-transaction counter
+value. The page is not recycled, until that XID is no longer visible to
+anyone. That's much more conservative than necessary, but let's keep it
+simple.
+
 
 Authors:
    Teodor Sigaev   <[email protected]>
index 2ce5425ef988ba8bcf3c8e976cf995fb44499c15..a746e911f37c3e1f31721884a05bc3c906b2ed2c 100644 (file)
@@ -704,6 +704,9 @@ gistdoinsert(Relation r, IndexTuple itup, Size freespace,
            GISTInsertStack *item;
            OffsetNumber downlinkoffnum;
 
+           /* currently, internal pages are never deleted */
+           Assert(!GistPageIsDeleted(stack->page));
+
            downlinkoffnum = gistchoose(state.r, stack->page, itup, giststate);
            iid = PageGetItemId(stack->page, downlinkoffnum);
            idxtuple = (IndexTuple) PageGetItem(stack->page, iid);
@@ -838,6 +841,18 @@ gistdoinsert(Relation r, IndexTuple itup, Size freespace,
                }
            }
 
+           /*
+            * The page might have been deleted after we scanned the parent
+            * and saw the downlink.
+            */
+           if (GistPageIsDeleted(stack->page))
+           {
+               UnlockReleaseBuffer(stack->buffer);
+               xlocked = false;
+               state.stack = stack = stack->parent;
+               continue;
+           }
+
            /* now state.stack->(page, buffer and blkno) points to leaf page */
 
            gistinserttuple(&state, stack, giststate, itup,
index f32e16eed58dc09c9dff65934e54f583960b6b61..2163cc482d8d69a93bab311a1bf1888017553cce 100644 (file)
@@ -23,6 +23,7 @@
 #include "storage/lmgr.h"
 #include "utils/float.h"
 #include "utils/syscache.h"
+#include "utils/snapmgr.h"
 #include "utils/lsyscache.h"
 
 
@@ -829,13 +830,31 @@ gistNewBuffer(Relation r)
        {
            Page        page = BufferGetPage(buffer);
 
+           /*
+            * If the page was never initialized, it's OK to use.
+            */
            if (PageIsNew(page))
-               return buffer;  /* OK to use, if never initialized */
+               return buffer;
 
            gistcheckpage(r, buffer);
 
-           if (GistPageIsDeleted(page))
-               return buffer;  /* OK to use */
+           /*
+            * Otherwise, recycle it if deleted, and too old to have any processes
+            * interested in it.
+            */
+           if (gistPageRecyclable(page))
+           {
+               /*
+                * If we are generating WAL for Hot Standby then create a
+                * WAL record that will allow us to conflict with queries
+                * running on standby, in case they have snapshots older
+                * than the page's deleteXid.
+                */
+               if (XLogStandbyInfoActive() && RelationNeedsWAL(r))
+                   gistXLogPageReuse(r, blkno, GistPageGetDeleteXid(page));
+
+               return buffer;
+           }
 
            LockBuffer(buffer, GIST_UNLOCK);
        }
@@ -859,6 +878,15 @@ gistNewBuffer(Relation r)
    return buffer;
 }
 
+/* Can this page be recycled yet? */
+bool
+gistPageRecyclable(Page page)
+{
+   return PageIsNew(page) ||
+       (GistPageIsDeleted(page) &&
+        TransactionIdPrecedes(GistPageGetDeleteXid(page), RecentGlobalXmin));
+}
+
 bytea *
 gistoptions(Datum reloptions, bool validate)
 {
index 3c1d75691e820c7de3a5333b9f4e4ff54e65f7f6..28d5ec9ce427423255d2cae6ce7ae824d417580c 100644 (file)
 
 #include "access/genam.h"
 #include "access/gist_private.h"
+#include "access/transam.h"
 #include "commands/vacuum.h"
+#include "lib/integerset.h"
 #include "miscadmin.h"
 #include "storage/indexfsm.h"
 #include "storage/lmgr.h"
+#include "utils/memutils.h"
 
-/* Working state needed by gistbulkdelete */
+/*
+ * State kept across vacuum stages.
+ */
 typedef struct
 {
+   IndexBulkDeleteResult stats;    /* must be first */
+
    IndexVacuumInfo *info;
-   IndexBulkDeleteResult *stats;
+
+   /*
+    * These are used to memorize all internal and empty leaf pages in the 1st
+    * vacuum stage.  They are used in the 2nd stage, to delete all the empty
+    * pages.
+    */
+   IntegerSet *internal_page_set;
+   IntegerSet *empty_leaf_set;
+   MemoryContext page_set_context;
+} GistBulkDeleteResult;
+
+/* Working state needed by gistbulkdelete */
+typedef struct
+{
+   GistBulkDeleteResult *stats;
    IndexBulkDeleteCallback callback;
    void       *callback_state;
    GistNSN     startNSN;
-   BlockNumber totFreePages;   /* true total # of free pages */
 } GistVacState;
 
-static void gistvacuumscan(IndexVacuumInfo *info, IndexBulkDeleteResult *stats,
+static void gistvacuumscan(IndexVacuumInfo *info, GistBulkDeleteResult *stats,
               IndexBulkDeleteCallback callback, void *callback_state);
 static void gistvacuumpage(GistVacState *vstate, BlockNumber blkno,
               BlockNumber orig_blkno);
+static void gistvacuum_delete_empty_pages(GistBulkDeleteResult *stats);
+static bool gistdeletepage(GistBulkDeleteResult *stats,
+              Buffer buffer, OffsetNumber downlink,
+              Buffer leafBuffer);
+
+/* allocate the 'stats' struct that's kept over vacuum stages */
+static GistBulkDeleteResult *
+create_GistBulkDeleteResult(void)
+{
+   GistBulkDeleteResult *gist_stats;
+
+   gist_stats = (GistBulkDeleteResult *) palloc0(sizeof(GistBulkDeleteResult));
+   gist_stats->page_set_context =
+       GenerationContextCreate(CurrentMemoryContext,
+                               "GiST VACUUM page set context",
+                               16 * 1024);
+
+   return gist_stats;
+}
 
 /*
  * VACUUM bulkdelete stage: remove index entries.
@@ -44,21 +83,25 @@ IndexBulkDeleteResult *
 gistbulkdelete(IndexVacuumInfo *info, IndexBulkDeleteResult *stats,
               IndexBulkDeleteCallback callback, void *callback_state)
 {
+   GistBulkDeleteResult *gist_stats = (GistBulkDeleteResult *) stats;
+
    /* allocate stats if first time through, else re-use existing struct */
-   if (stats == NULL)
-       stats = (IndexBulkDeleteResult *) palloc0(sizeof(IndexBulkDeleteResult));
+   if (gist_stats == NULL)
+       gist_stats = create_GistBulkDeleteResult();
 
-   gistvacuumscan(info, stats, callback, callback_state);
+   gistvacuumscan(info, gist_stats, callback, callback_state);
 
-   return stats;
+   return (IndexBulkDeleteResult *) gist_stats;
 }
 
 /*
- * VACUUM cleanup stage: update index statistics.
+ * VACUUM cleanup stage: delete empty pages, and update index statistics.
  */
 IndexBulkDeleteResult *
 gistvacuumcleanup(IndexVacuumInfo *info, IndexBulkDeleteResult *stats)
 {
+   GistBulkDeleteResult *gist_stats = (GistBulkDeleteResult *) stats;
+
    /* No-op in ANALYZE ONLY mode */
    if (info->analyze_only)
        return stats;
@@ -68,12 +111,24 @@ gistvacuumcleanup(IndexVacuumInfo *info, IndexBulkDeleteResult *stats)
     * stats from the latest gistbulkdelete call.  If it wasn't called, we
     * still need to do a pass over the index, to obtain index statistics.
     */
-   if (stats == NULL)
+   if (gist_stats == NULL)
    {
-       stats = (IndexBulkDeleteResult *) palloc0(sizeof(IndexBulkDeleteResult));
-       gistvacuumscan(info, stats, NULL, NULL);
+       gist_stats = create_GistBulkDeleteResult();
+       gistvacuumscan(info, gist_stats, NULL, NULL);
    }
 
+   /*
+    * If we saw any empty pages, try to unlink them from the tree so that
+    * they can be reused.
+    */
+   gistvacuum_delete_empty_pages(gist_stats);
+
+   /* we don't need the internal and empty page sets anymore */
+   MemoryContextDelete(gist_stats->page_set_context);
+   gist_stats->page_set_context = NULL;
+   gist_stats->internal_page_set = NULL;
+   gist_stats->empty_leaf_set = NULL;
+
    /*
     * It's quite possible for us to be fooled by concurrent page splits into
     * double-counting some index tuples, so disbelieve any total that exceeds
@@ -82,11 +137,11 @@ gistvacuumcleanup(IndexVacuumInfo *info, IndexBulkDeleteResult *stats)
     */
    if (!info->estimated_count)
    {
-       if (stats->num_index_tuples > info->num_heap_tuples)
-           stats->num_index_tuples = info->num_heap_tuples;
+       if (gist_stats->stats.num_index_tuples > info->num_heap_tuples)
+           gist_stats->stats.num_index_tuples = info->num_heap_tuples;
    }
 
-   return stats;
+   return (IndexBulkDeleteResult *) gist_stats;
 }
 
 /*
@@ -97,15 +152,16 @@ gistvacuumcleanup(IndexVacuumInfo *info, IndexBulkDeleteResult *stats)
  * btvacuumcleanup invoke this (the latter only if no btbulkdelete call
  * occurred).
  *
- * This also adds unused/delete pages to the free space map, although that
- * is currently not very useful.  There is currently no support for deleting
- * empty pages, so recycleable pages can only be found if an error occurs
- * while the index is being expanded, leaving an all-zeros page behind.
+ * This also makes note of any empty leaf pages, as well as all internal
+ * pages.  The second stage, gistvacuum_delete_empty_pages(), needs that
+ * information.  Any deleted pages are added directly to the free space map.
+ * (They should've been added there when they were originally deleted, already,
+ * but it's possible that the FSM was lost at a crash, for example.)
  *
  * The caller is responsible for initially allocating/zeroing a stats struct.
  */
 static void
-gistvacuumscan(IndexVacuumInfo *info, IndexBulkDeleteResult *stats,
+gistvacuumscan(IndexVacuumInfo *info, GistBulkDeleteResult *stats,
               IndexBulkDeleteCallback callback, void *callback_state)
 {
    Relation    rel = info->index;
@@ -118,12 +174,16 @@ gistvacuumscan(IndexVacuumInfo *info, IndexBulkDeleteResult *stats,
     * Reset counts that will be incremented during the scan; needed in case
     * of multiple scans during a single VACUUM command.
     */
-   stats->estimated_count = false;
-   stats->num_index_tuples = 0;
-   stats->pages_deleted = 0;
+   stats->stats.estimated_count = false;
+   stats->stats.num_index_tuples = 0;
+   stats->stats.pages_deleted = 0;
+   stats->stats.pages_free = 0;
+   MemoryContextReset(stats->page_set_context);
+   stats->internal_page_set = intset_create();
+   stats->empty_leaf_set = intset_create();
 
    /* Set up info to pass down to gistvacuumpage */
-   vstate.info = info;
+   stats->info = info;
    vstate.stats = stats;
    vstate.callback = callback;
    vstate.callback_state = callback_state;
@@ -131,7 +191,6 @@ gistvacuumscan(IndexVacuumInfo *info, IndexBulkDeleteResult *stats,
        vstate.startNSN = GetInsertRecPtr();
    else
        vstate.startNSN = gistGetFakeLSN(rel);
-   vstate.totFreePages = 0;
 
    /*
     * The outer loop iterates over all index pages, in physical order (we
@@ -188,12 +247,11 @@ gistvacuumscan(IndexVacuumInfo *info, IndexBulkDeleteResult *stats,
     * Note that if no recyclable pages exist, we don't bother vacuuming the
     * FSM at all.
     */
-   if (vstate.totFreePages > 0)
+   if (stats->stats.pages_free > 0)
        IndexFreeSpaceMapVacuum(rel);
 
    /* update statistics */
-   stats->num_pages = num_pages;
-   stats->pages_free = vstate.totFreePages;
+   stats->stats.num_pages = num_pages;
 }
 
 /*
@@ -210,8 +268,8 @@ gistvacuumscan(IndexVacuumInfo *info, IndexBulkDeleteResult *stats,
 static void
 gistvacuumpage(GistVacState *vstate, BlockNumber blkno, BlockNumber orig_blkno)
 {
-   IndexVacuumInfo *info = vstate->info;
-   IndexBulkDeleteResult *stats = vstate->stats;
+   GistBulkDeleteResult *stats = vstate->stats;
+   IndexVacuumInfo *info = stats->info;
    IndexBulkDeleteCallback callback = vstate->callback;
    void       *callback_state = vstate->callback_state;
    Relation    rel = info->index;
@@ -235,17 +293,23 @@ restart:
    LockBuffer(buffer, GIST_EXCLUSIVE);
    page = (Page) BufferGetPage(buffer);
 
-   if (PageIsNew(page) || GistPageIsDeleted(page))
+   if (gistPageRecyclable(page))
    {
        /* Okay to recycle this page */
        RecordFreeIndexPage(rel, blkno);
-       vstate->totFreePages++;
-       stats->pages_deleted++;
+       stats->stats.pages_free++;
+       stats->stats.pages_deleted++;
+   }
+   else if (GistPageIsDeleted(page))
+   {
+       /* Already deleted, but can't recycle yet */
+       stats->stats.pages_deleted++;
    }
    else if (GistPageIsLeaf(page))
    {
        OffsetNumber todelete[MaxOffsetNumber];
        int         ntodelete = 0;
+       int         nremain;
        GISTPageOpaque opaque = GistPageGetOpaque(page);
        OffsetNumber maxoff = PageGetMaxOffsetNumber(page);
 
@@ -314,12 +378,27 @@ restart:
 
            END_CRIT_SECTION();
 
-           stats->tuples_removed += ntodelete;
+           stats->stats.tuples_removed += ntodelete;
            /* must recompute maxoff */
            maxoff = PageGetMaxOffsetNumber(page);
        }
 
-       stats->num_index_tuples += maxoff - FirstOffsetNumber + 1;
+       nremain = maxoff - FirstOffsetNumber + 1;
+       if (nremain == 0)
+       {
+           /*
+            * The page is now completely empty.  Remember its block number,
+            * so that we will try to delete the page in the second stage.
+            *
+            * Skip this when recursing, because IntegerSet requires that the
+            * values are added in ascending order.  The next VACUUM will pick
+            * it up.
+            */
+           if (blkno == orig_blkno)
+               intset_add_member(stats->empty_leaf_set, blkno);
+       }
+       else
+           stats->stats.num_index_tuples += nremain;
    }
    else
    {
@@ -347,6 +426,14 @@ restart:
                         errdetail("This is caused by an incomplete page split at crash recovery before upgrading to PostgreSQL 9.1."),
                         errhint("Please REINDEX it.")));
        }
+
+       /*
+        * Remember the block number of this page, so that we can revisit it
+        * later in gistvacuum_delete_empty_pages(), when we search for
+        * parents of empty leaf pages.
+        */
+       if (blkno == orig_blkno)
+           intset_add_member(stats->internal_page_set, blkno);
    }
 
    UnlockReleaseBuffer(buffer);
@@ -364,3 +451,224 @@ restart:
        goto restart;
    }
 }
+
+/*
+ * Scan all internal pages, and try to delete their empty child pages.
+ */
+static void
+gistvacuum_delete_empty_pages(GistBulkDeleteResult *stats)
+{
+   IndexVacuumInfo *info = stats->info;
+   Relation    rel = info->index;
+   BlockNumber empty_pages_remaining;
+   uint64      blkno;
+
+   /*
+    * Rescan all inner pages to find those that have empty child pages.
+    */
+   empty_pages_remaining = intset_num_entries(stats->empty_leaf_set);
+   intset_begin_iterate(stats->internal_page_set);
+   while (empty_pages_remaining > 0 &&
+          intset_iterate_next(stats->internal_page_set, &blkno))
+   {
+       Buffer      buffer;
+       Page        page;
+       OffsetNumber off,
+                   maxoff;
+       OffsetNumber todelete[MaxOffsetNumber];
+       BlockNumber leafs_to_delete[MaxOffsetNumber];
+       int         ntodelete;
+       int         deleted;
+
+       buffer = ReadBufferExtended(rel, MAIN_FORKNUM, (BlockNumber) blkno,
+                                   RBM_NORMAL, info->strategy);
+
+       LockBuffer(buffer, GIST_SHARE);
+       page = (Page) BufferGetPage(buffer);
+
+       if (PageIsNew(page) || GistPageIsDeleted(page) || GistPageIsLeaf(page))
+       {
+           /*
+            * This page was an internal page earlier, but now it's something
+            * else. Shouldn't happen...
+            */
+           Assert(false);
+           UnlockReleaseBuffer(buffer);
+           continue;
+       }
+
+       /*
+        * Scan all the downlinks, and see if any of them point to empty leaf
+        * pages.
+        */
+       maxoff = PageGetMaxOffsetNumber(page);
+       ntodelete = 0;
+       for (off = FirstOffsetNumber;
+            off <= maxoff && ntodelete < maxoff - 1;
+            off = OffsetNumberNext(off))
+       {
+           ItemId      iid = PageGetItemId(page, off);
+           IndexTuple  idxtuple = (IndexTuple) PageGetItem(page, iid);
+           BlockNumber leafblk;
+
+           leafblk = ItemPointerGetBlockNumber(&(idxtuple->t_tid));
+           if (intset_is_member(stats->empty_leaf_set, leafblk))
+           {
+               leafs_to_delete[ntodelete] = leafblk;
+               todelete[ntodelete++] = off;
+           }
+       }
+
+       /*
+        * In order to avoid deadlock, child page must be locked before
+        * parent, so we must release the lock on the parent, lock the child,
+        * and then re-acquire the lock the parent.  (And we wouldn't want to
+        * do I/O, while holding a lock, anyway.)
+        *
+        * At the instant that we're not holding a lock on the parent, the
+        * downlink might get moved by a concurrent insert, so we must
+        * re-check that it still points to the same child page after we have
+        * acquired both locks.  Also, another backend might have inserted a
+        * tuple to the page, so that it is no longer empty.  gistdeletepage()
+        * re-checks all these conditions.
+        */
+       LockBuffer(buffer, GIST_UNLOCK);
+
+       deleted = 0;
+       for (int i = 0; i < ntodelete; i++)
+       {
+           Buffer      leafbuf;
+
+           /*
+            * Don't remove the last downlink from the parent.  That would
+            * confuse the insertion code.
+            */
+           if (PageGetMaxOffsetNumber(page) == FirstOffsetNumber)
+               break;
+
+           leafbuf = ReadBufferExtended(rel, MAIN_FORKNUM, leafs_to_delete[i],
+                                        RBM_NORMAL, info->strategy);
+           LockBuffer(leafbuf, GIST_EXCLUSIVE);
+           gistcheckpage(rel, leafbuf);
+
+           LockBuffer(buffer, GIST_EXCLUSIVE);
+           if (gistdeletepage(stats, buffer, todelete[i] - deleted, leafbuf))
+               deleted++;
+           LockBuffer(buffer, GIST_UNLOCK);
+
+           UnlockReleaseBuffer(leafbuf);
+       }
+
+       ReleaseBuffer(buffer);
+
+       /* update stats */
+       stats->stats.pages_removed += deleted;
+
+       /*
+        * We can stop the scan as soon as we have seen the downlinks, even if
+        * we were not able to remove them all.
+        */
+       empty_pages_remaining -= ntodelete;
+   }
+}
+
+/*
+ * gistdeletepage takes a leaf page, and its parent, and tries to delete the
+ * leaf.  Both pages must be locked.
+ *
+ * Even if the page was empty when we first saw it, a concurrent inserter might
+ * have added a tuple to it since.  Similarly, the downlink might have moved.
+ * We re-check all the conditions, to make sure the page is still deletable,
+ * before modifying anything.
+ *
+ * Returns true, if the page was deleted, and false if a concurrent update
+ * prevented it.
+ */
+static bool
+gistdeletepage(GistBulkDeleteResult *stats,
+              Buffer parentBuffer, OffsetNumber downlink,
+              Buffer leafBuffer)
+{
+   Page        parentPage = BufferGetPage(parentBuffer);
+   Page        leafPage = BufferGetPage(leafBuffer);
+   ItemId      iid;
+   IndexTuple  idxtuple;
+   XLogRecPtr  recptr;
+   TransactionId txid;
+
+   /*
+    * Check that the leaf is still empty and deletable.
+    */
+   if (!GistPageIsLeaf(leafPage))
+   {
+       /* a leaf page should never become a non-leaf page */
+       Assert(false);
+       return false;
+   }
+
+   if (GistFollowRight(leafPage))
+       return false;           /* don't mess with a concurrent page split */
+
+   if (PageGetMaxOffsetNumber(leafPage) != InvalidOffsetNumber)
+       return false;           /* not empty anymore */
+
+   /*
+    * Ok, the leaf is deletable.  Is the downlink in the parent page still
+    * valid?  It might have been moved by a concurrent insert.  We could try
+    * to re-find it by scanning the page again, possibly moving right if the
+    * was split.  But for now, let's keep it simple and just give up.  The
+    * next VACUUM will pick it up.
+    */
+   if (PageIsNew(parentPage) || GistPageIsDeleted(parentPage) ||
+       GistPageIsLeaf(parentPage))
+   {
+       /* shouldn't happen, internal pages are never deleted */
+       Assert(false);
+       return false;
+   }
+
+   if (PageGetMaxOffsetNumber(parentPage) < downlink
+       || PageGetMaxOffsetNumber(parentPage) <= FirstOffsetNumber)
+       return false;
+
+   iid = PageGetItemId(parentPage, downlink);
+   idxtuple = (IndexTuple) PageGetItem(parentPage, iid);
+   if (BufferGetBlockNumber(leafBuffer) !=
+       ItemPointerGetBlockNumber(&(idxtuple->t_tid)))
+       return false;
+
+   /*
+    * All good, proceed with the deletion.
+    *
+    * The page cannot be immediately recycled, because in-progress scans that
+    * saw the downlink might still visit it.  Mark the page with the current
+    * next-XID counter, so that we know when it can be recycled.  Once that
+    * XID becomes older than GlobalXmin, we know that all scans that are
+    * currently in progress must have ended.  (That's much more conservative
+    * than needed, but let's keep it safe and simple.)
+    */
+   txid = ReadNewTransactionId();
+
+   START_CRIT_SECTION();
+
+   /* mark the page as deleted */
+   MarkBufferDirty(leafBuffer);
+   GistPageSetDeleteXid(leafPage, txid);
+   GistPageSetDeleted(leafPage);
+   stats->stats.pages_deleted++;
+
+   /* remove the downlink from the parent */
+   MarkBufferDirty(parentBuffer);
+   PageIndexTupleDelete(parentPage, downlink);
+
+   if (RelationNeedsWAL(stats->info->index))
+       recptr = gistXLogPageDelete(leafBuffer, txid, parentBuffer, downlink);
+   else
+       recptr = gistGetFakeLSN(stats->info->index);
+   PageSetLSN(parentPage, recptr);
+   PageSetLSN(leafPage, recptr);
+
+   END_CRIT_SECTION();
+
+   return true;
+}
index 408bd5390afb887489b11149bfe40af7143e290a..cb80ab00cd7fa6b7aaf5715a8cb0af553d2ef32a 100644 (file)
@@ -23,6 +23,7 @@
 #include "miscadmin.h"
 #include "storage/procarray.h"
 #include "utils/memutils.h"
+#include "utils/rel.h"
 
 static MemoryContext opCtx;        /* working memory for operations */
 
@@ -508,6 +509,64 @@ gistRedoCreateIndex(XLogReaderState *record)
    UnlockReleaseBuffer(buffer);
 }
 
+/* redo page deletion */
+static void
+gistRedoPageDelete(XLogReaderState *record)
+{
+   XLogRecPtr  lsn = record->EndRecPtr;
+   gistxlogPageDelete *xldata = (gistxlogPageDelete *) XLogRecGetData(record);
+   Buffer      parentBuffer;
+   Buffer      leafBuffer;
+
+   if (XLogReadBufferForRedo(record, 0, &leafBuffer) == BLK_NEEDS_REDO)
+   {
+       Page        page = (Page) BufferGetPage(leafBuffer);
+
+       GistPageSetDeleteXid(page, xldata->deleteXid);
+       GistPageSetDeleted(page);
+
+       PageSetLSN(page, lsn);
+       MarkBufferDirty(leafBuffer);
+   }
+
+   if (XLogReadBufferForRedo(record, 1, &parentBuffer) == BLK_NEEDS_REDO)
+   {
+       Page        page = (Page) BufferGetPage(parentBuffer);
+
+       PageIndexTupleDelete(page, xldata->downlinkOffset);
+
+       PageSetLSN(page, lsn);
+       MarkBufferDirty(parentBuffer);
+   }
+
+   if (BufferIsValid(parentBuffer))
+       UnlockReleaseBuffer(parentBuffer);
+   if (BufferIsValid(leafBuffer))
+       UnlockReleaseBuffer(leafBuffer);
+}
+
+static void
+gistRedoPageReuse(XLogReaderState *record)
+{
+   gistxlogPageReuse *xlrec = (gistxlogPageReuse *) XLogRecGetData(record);
+
+   /*
+    * PAGE_REUSE records exist to provide a conflict point when we reuse
+    * pages in the index via the FSM.  That's all they do though.
+    *
+    * latestRemovedXid was the page's deleteXid.  The deleteXid <
+    * RecentGlobalXmin test in gistPageRecyclable() conceptually mirrors the
+    * pgxact->xmin > limitXmin test in GetConflictingVirtualXIDs().
+    * Consequently, one XID value achieves the same exclusion effect on
+    * master and standby.
+    */
+   if (InHotStandby)
+   {
+       ResolveRecoveryConflictWithSnapshot(xlrec->latestRemovedXid,
+                                           xlrec->node);
+   }
+}
+
 void
 gist_redo(XLogReaderState *record)
 {
@@ -529,12 +588,18 @@ gist_redo(XLogReaderState *record)
        case XLOG_GIST_DELETE:
            gistRedoDeleteRecord(record);
            break;
+       case XLOG_GIST_PAGE_REUSE:
+           gistRedoPageReuse(record);
+           break;
        case XLOG_GIST_PAGE_SPLIT:
            gistRedoPageSplitRecord(record);
            break;
        case XLOG_GIST_CREATE_INDEX:
            gistRedoCreateIndex(record);
            break;
+       case XLOG_GIST_PAGE_DELETE:
+           gistRedoPageDelete(record);
+           break;
        default:
            elog(PANIC, "gist_redo: unknown op code %u", info);
    }
@@ -653,6 +718,56 @@ gistXLogSplit(bool page_is_leaf,
    return recptr;
 }
 
+/*
+ * Write XLOG record describing a page deletion. This also includes removal of
+ * downlink from the parent page.
+ */
+XLogRecPtr
+gistXLogPageDelete(Buffer buffer, TransactionId xid,
+                  Buffer parentBuffer, OffsetNumber downlinkOffset)
+{
+   gistxlogPageDelete xlrec;
+   XLogRecPtr  recptr;
+
+   xlrec.deleteXid = xid;
+   xlrec.downlinkOffset = downlinkOffset;
+
+   XLogBeginInsert();
+   XLogRegisterData((char *) &xlrec, SizeOfGistxlogPageDelete);
+
+   XLogRegisterBuffer(0, buffer, REGBUF_STANDARD);
+   XLogRegisterBuffer(1, parentBuffer, REGBUF_STANDARD);
+
+   recptr = XLogInsert(RM_GIST_ID, XLOG_GIST_PAGE_DELETE);
+
+   return recptr;
+}
+
+/*
+ * Write XLOG record about reuse of a deleted page.
+ */
+void
+gistXLogPageReuse(Relation rel, BlockNumber blkno, TransactionId latestRemovedXid)
+{
+   gistxlogPageReuse xlrec_reuse;
+
+   /*
+    * Note that we don't register the buffer with the record, because this
+    * operation doesn't modify the page. This record only exists to provide a
+    * conflict point for Hot Standby.
+    */
+
+   /* XLOG stuff */
+   xlrec_reuse.node = rel->rd_node;
+   xlrec_reuse.block = blkno;
+   xlrec_reuse.latestRemovedXid = latestRemovedXid;
+
+   XLogBeginInsert();
+   XLogRegisterData((char *) &xlrec_reuse, SizeOfGistxlogPageReuse);
+
+   XLogInsert(RM_GIST_ID, XLOG_GIST_PAGE_REUSE);
+}
+
 /*
  * Write XLOG record describing a page update. The update can include any
  * number of deletions and/or insertions of tuples on a single index page.
index e468c9e15aad8a2fca1769b162bc425da45cc42a..3ff4f83d38768b038817fc0da5dd439c695ccdd7 100644 (file)
@@ -23,6 +23,15 @@ out_gistxlogPageUpdate(StringInfo buf, gistxlogPageUpdate *xlrec)
 {
 }
 
+static void
+out_gistxlogPageReuse(StringInfo buf, gistxlogPageReuse *xlrec)
+{
+   appendStringInfo(buf, "rel %u/%u/%u; blk %u; latestRemovedXid %u",
+                    xlrec->node.spcNode, xlrec->node.dbNode,
+                    xlrec->node.relNode, xlrec->block,
+                    xlrec->latestRemovedXid);
+}
+
 static void
 out_gistxlogDelete(StringInfo buf, gistxlogPageUpdate *xlrec)
 {
@@ -35,6 +44,13 @@ out_gistxlogPageSplit(StringInfo buf, gistxlogPageSplit *xlrec)
                     xlrec->npage);
 }
 
+static void
+out_gistxlogPageDelete(StringInfo buf, gistxlogPageDelete *xlrec)
+{
+   appendStringInfo(buf, "deleteXid %u; downlink %u",
+                    xlrec->deleteXid, xlrec->downlinkOffset);
+}
+
 void
 gist_desc(StringInfo buf, XLogReaderState *record)
 {
@@ -46,6 +62,9 @@ gist_desc(StringInfo buf, XLogReaderState *record)
        case XLOG_GIST_PAGE_UPDATE:
            out_gistxlogPageUpdate(buf, (gistxlogPageUpdate *) rec);
            break;
+       case XLOG_GIST_PAGE_REUSE:
+           out_gistxlogPageReuse(buf, (gistxlogPageReuse *) rec);
+           break;
        case XLOG_GIST_DELETE:
            out_gistxlogDelete(buf, (gistxlogPageUpdate *) rec);
            break;
@@ -54,6 +73,9 @@ gist_desc(StringInfo buf, XLogReaderState *record)
            break;
        case XLOG_GIST_CREATE_INDEX:
            break;
+       case XLOG_GIST_PAGE_DELETE:
+           out_gistxlogPageDelete(buf, (gistxlogPageDelete *) rec);
+           break;
    }
 }
 
@@ -70,12 +92,18 @@ gist_identify(uint8 info)
        case XLOG_GIST_DELETE:
            id = "DELETE";
            break;
+       case XLOG_GIST_PAGE_REUSE:
+           id = "PAGE_REUSE";
+           break;
        case XLOG_GIST_PAGE_SPLIT:
            id = "PAGE_SPLIT";
            break;
        case XLOG_GIST_CREATE_INDEX:
            id = "CREATE_INDEX";
            break;
+       case XLOG_GIST_PAGE_DELETE:
+           id = "PAGE_DELETE";
+           break;
    }
 
    return id;
index 3234f241560082b31590df1d611299096f99d6cf..ce8bfd83ea44bbd1f57c8ab215e99bfb8f73a055 100644 (file)
@@ -151,6 +151,10 @@ typedef struct GISTENTRY
 #define GistPageGetNSN(page) ( PageXLogRecPtrGet(GistPageGetOpaque(page)->nsn))
 #define GistPageSetNSN(page, val) ( PageXLogRecPtrSet(GistPageGetOpaque(page)->nsn, val))
 
+/* For deleted pages we store last xid which could see the page in scan */
+#define GistPageGetDeleteXid(page) ( ((PageHeader) (page))->pd_prune_xid )
+#define GistPageSetDeleteXid(page, val) ( ((PageHeader) (page))->pd_prune_xid = val)
+
 /*
  * Vector of GISTENTRY structs; user-defined methods union and picksplit
  * take it as one of their arguments
index 463d2bfc7b9240f04bcb51733dcffdd2c5470295..02dc285a78a084fb63f214d1ef95746e714ed396 100644 (file)
@@ -414,12 +414,20 @@ extern bool gistplacetopage(Relation rel, Size freespace, GISTSTATE *giststate,
 extern SplitedPageLayout *gistSplit(Relation r, Page page, IndexTuple *itup,
          int len, GISTSTATE *giststate);
 
+/* gistxlog.c */
+extern XLogRecPtr gistXLogPageDelete(Buffer buffer,
+                  TransactionId xid, Buffer parentBuffer,
+                  OffsetNumber downlinkOffset);
+
+extern void gistXLogPageReuse(Relation rel, BlockNumber blkno,
+                 TransactionId latestRemovedXid);
+
 extern XLogRecPtr gistXLogUpdate(Buffer buffer,
               OffsetNumber *todelete, int ntodelete,
               IndexTuple *itup, int ntup,
               Buffer leftchild);
 
-XLogRecPtr gistXLogDelete(Buffer buffer, OffsetNumber *todelete,
+extern XLogRecPtr gistXLogDelete(Buffer buffer, OffsetNumber *todelete,
               int ntodelete, RelFileNode hnode);
 
 extern XLogRecPtr gistXLogSplit(bool page_is_leaf,
@@ -451,6 +459,7 @@ extern bool gistfitpage(IndexTuple *itvec, int len);
 extern bool gistnospace(Page page, IndexTuple *itvec, int len, OffsetNumber todelete, Size freespace);
 extern void gistcheckpage(Relation rel, Buffer buf);
 extern Buffer gistNewBuffer(Relation r);
+extern bool gistPageRecyclable(Page page);
 extern void gistfillbuffer(Page page, IndexTuple *itup, int len,
               OffsetNumber off);
 extern IndexTuple *gistextractpage(Page page, int *len /* out */ );
index 5117aabf1afc25c360f15761a49b94356a593b8b..2f87b67a53a8983ced0aaf368a1ad0bccb9df07c 100644 (file)
 
 #define XLOG_GIST_PAGE_UPDATE      0x00
 #define XLOG_GIST_DELETE           0x10 /* delete leaf index tuples for a page */
- /* #define XLOG_GIST_NEW_ROOT          0x20 */    /* not used anymore */
+#define XLOG_GIST_PAGE_REUSE       0x20 /* old page is about to be reused from
+                                         * FSM */
 #define XLOG_GIST_PAGE_SPLIT       0x30
  /* #define XLOG_GIST_INSERT_COMPLETE   0x40 */    /* not used anymore */
 #define XLOG_GIST_CREATE_INDEX     0x50
- /* #define XLOG_GIST_PAGE_DELETE       0x60 */    /* not used anymore */
+#define XLOG_GIST_PAGE_DELETE      0x60
 
 /*
  * Backup Blk 0: updated page.
@@ -76,6 +77,31 @@ typedef struct gistxlogPageSplit
     */
 } gistxlogPageSplit;
 
+/*
+ * Backup Blk 0: page that was deleted.
+ * Backup Blk 1: parent page, containing the downlink to the deleted page.
+ */
+typedef struct gistxlogPageDelete
+{
+   TransactionId deleteXid;    /* last Xid which could see page in scan */
+   OffsetNumber downlinkOffset; /* Offset of downlink referencing this page */
+} gistxlogPageDelete;
+
+#define SizeOfGistxlogPageDelete   (offsetof(gistxlogPageDelete, downlinkOffset) + sizeof(OffsetNumber))
+
+
+/*
+ * This is what we need to know about page reuse, for hot standby.
+ */
+typedef struct gistxlogPageReuse
+{
+   RelFileNode node;
+   BlockNumber block;
+   TransactionId latestRemovedXid;
+} gistxlogPageReuse;
+
+#define SizeOfGistxlogPageReuse    (offsetof(gistxlogPageReuse, latestRemovedXid) + sizeof(TransactionId))
+
 extern void gist_redo(XLogReaderState *record);
 extern void gist_desc(StringInfo buf, XLogReaderState *record);
 extern const char *gist_identify(uint8 info);
index f5a2993aaf22ab03582a3ee1e95a5945e522415b..0a43449f003dd404af90daa75d3ecdb0dfce9754 100644 (file)
@@ -27,10 +27,8 @@ insert into gist_point_tbl (id, p)
 select g+100000, point(g*10+1, g*10+1) from generate_series(1, 10000) g;
 -- To test vacuum, delete some entries from all over the index.
 delete from gist_point_tbl where id % 2 = 1;
--- And also delete some concentration of values. (GiST doesn't currently
--- attempt to delete pages even when they become empty, but if it did, this
--- would exercise it)
-delete from gist_point_tbl where id < 10000;
+-- And also delete some concentration of values.
+delete from gist_point_tbl where id > 5000;
 vacuum analyze gist_point_tbl;
 -- rebuild the index with a different fillfactor
 alter index gist_pointidx SET (fillfactor = 40);
index bae722fe13ced82fbbe3406b9c625a054cdab708..657b19548472f7e8cad5d6e830d7e8c5869ba160 100644 (file)
@@ -28,10 +28,8 @@ select g+100000, point(g*10+1, g*10+1) from generate_series(1, 10000) g;
 -- To test vacuum, delete some entries from all over the index.
 delete from gist_point_tbl where id % 2 = 1;
 
--- And also delete some concentration of values. (GiST doesn't currently
--- attempt to delete pages even when they become empty, but if it did, this
--- would exercise it)
-delete from gist_point_tbl where id < 10000;
+-- And also delete some concentration of values.
+delete from gist_point_tbl where id > 5000;
 
 vacuum analyze gist_point_tbl;