Message posté par : neskuik01
----------------------------------------
Bonjour,
J'ai une requête lourde (certains savent déjà laquelle ^^), ou j'additionne les
valeurs au fil de l'eau. Sur un très faible volume de données (30 écritures) celle ci
fonctionne, en revanche lorsque je passe sur un volume plus conséquent (11 000
enregistrements) j'ai systématiquement un échec d'écriture.
Je me suis rapproché du SI afin de voir les capacités allouées à la base et augmenter les
ressources.
J'ai fait :
* vacuum analyse & index sur les données
* passé de 2 go à 8 go la RAM,
* modifié les paramètres de cache et mémoire de travail de postgres.
et rebelotte message d'erreur. J'ai du coup rapatrier les données sur ma base
local (j'ai plus d'espace disque disponible), re-éxécuter la requête, et la ca
tourne beaucoup plus longtemps mais vient un moment ou l'intégralité de l'espace
disque est saturé et j'en arrive au même point.
Je suis entrain de faire un test en faisant sur un échantillon plus gros en ajoutant une
limite => "select * from (with recursive ...) as tab limit 10;" mais pareil
ca mouline dans le vide ..
La question que je me pose, est-ce-qu'augmenter encore plus la ram sur le serveur
serait utile ? y'aurait-il un bridage interne à la base qui fait que la requête ne
passe pas ?
----------------------------------------
Le message est situé
https://georezo.net/forum/viewtopic.php?pid=346492#p346492
Pour y répondre : geobd(a)ml.georezo.net ou reply de votre messagerie
Pour vous désabonner connectez-vous sur le forum puis Profil / Abonnement
--
Association GeoRezo - le portail géomatique
https://georezo.net