Avoid resource leaks when a dblink connection fails.
authorTom Lane <tgl@sss.pgh.pa.us>
Thu, 29 May 2025 14:39:55 +0000 (10:39 -0400)
committerTom Lane <tgl@sss.pgh.pa.us>
Thu, 29 May 2025 14:39:55 +0000 (10:39 -0400)
commite7d3d4ed412e5212c081d52fa3a1a3c37c601970
tree655190c650082b449e6b0d079be4f2d1f1789bdf
parent3c03b8cd79790caef03a148227a9d08edd8f3b93
Avoid resource leaks when a dblink connection fails.

If we hit out-of-memory between creating the PGconn and inserting
it into dblink's hashtable, we'd lose track of the PGconn, which
is quite bad since it represents a live connection to a remote DB.
Fix by rearranging things so that we create the hashtable entry
first.

Also reduce the number of states we have to deal with by getting rid
of the separately-allocated remoteConn object, instead allocating it
in-line in the hashtable entries.  (That incidentally removes a
session-lifespan memory leak observed in the regression tests.)

There is an apparently-irreducible remaining OOM hazard, which
is that if the connection fails at the libpq level (ie it's
CONNECTION_BAD) then we have to pstrdup the PGconn's error message
before we can release it, and theoretically that could fail.  However,
in such cases we're only leaking memory not a live remote connection,
so I'm not convinced that it's worth sweating over.

This is a pretty low-probability failure mode of course, but losing
a live connection seems bad enough to justify back-patching.

Author: Tom Lane <tgl@sss.pgh.pa.us>
Reviewed-by: Matheus Alcantara <matheusssilv97@gmail.com>
Discussion: http://postgr.es/m/1346940.1748381911@sss.pgh.pa.us
Backpatch-through: 13
contrib/dblink/dblink.c