feat: ⚡ Add postgresWalMaxSlotKeepSize parameter #357
Merged
Add this suggestion to a batch that can be applied as a single commit.
This suggestion is invalid because no changes were made to the code.
Suggestions cannot be applied while the pull request is closed.
Suggestions cannot be applied while viewing a subset of changes.
Only one suggestion per line can be applied in a batch.
Add this suggestion to a batch that can be applied as a single commit.
Applying suggestions on deleted lines is not supported.
You must change the existing code in this line in order to create a valid suggestion.
Outdated suggestions cannot be applied.
This suggestion has been applied or marked resolved.
Suggestions cannot be applied from pending reviews.
Suggestions cannot be applied on multi-line comments.
Suggestions cannot be applied while the pull request is queued to merge.
Suggestion cannot be applied right now. Please check back later.
Issues liées
Issues numéro:
Quel est le comportement actuel ?
Les clusters CNPG sont déployés sans fixer de limite à l'espace disque occupé par les fichiers WAL lorsque la réplication est activée (comportement par défaut).
Il en résulte une saturation d'espace disque au bout d'un temps variable.
Quel est le nouveau comportement ?
Nous introduisons dans la dsc le paramètre "postgresWalMaxSlotKeepSize" pour chaque outil disposant d'un cluster CNPG.
Ce paramètre correspond à "max_slot_wal_keep_size" dans la configuration du cluster CNPG.
Lui fixer une valeur adéquate, inférieure à la taille du PVC, permet d'éviter le problème de saturation d'espace disque rencontré.
La documentation officielle sur le sujet est disponible ici :
https://cloudnative-pg.io/documentation/current/replication/#capping-the-wal-size-retained-for-replication-slots
Cette PR introduit-elle un breaking change ?
Non.
Autres informations
Changement effectué et vérifié dans un cluster de développement.
Fonctionnera d'autant mieux que nous aurons attribué un PVC dédié aux fichiers WAL via le paramètre "postgresWalPvcSize" de la dsc.