Message posté par : T. Rossini
----------------------------------------
Bonjour,
300 GO, je dirais que çà dépends de la distribution des coordonnées des points et
la technique employée pour stocker/compresser celles-ci, cela est peut être jouable.
Mais pour ma part la question du stockage est secondaire pour 15G de points,
ce qui me préoccuperait plus serait la recherche et le traitement de ces données.
Pour ce qui est de Postgres, il y a plusieurs approches possibles.
Ce sujet sur Gis.stackExchange a l'air intéressant :
https://gis.stackexchange.com/questions/57031/huge-point-cloud-laser-data-i…
Il y est question d'une approche de stockage en grille : au lieu de stocker un Point3D
par enregistrement,
on découpe l'espace occupé en une grille, chaque cellule est un enregistrement, et les
points contenu dans cette cellules
sont stockés dans un MultiPoint3D.
Pour optimiser la compression des données effectuée par Postgres, si vos données vous le
permette,
vous pouvez vous servir de st_quantizecoordinates afin d'obtenir une représentation
optimale des coordonnées
de vos géométries :
https://postgis.net/docs/ST_QuantizeCoordinates.html
Il y est aussi mentionné une extension à part appelée PointCloud, développée par P.
Ramsey, qui travaille aussi sur Postgis.
C'est une extension spécialement dédiée à la gestion de nuage de points, j'imagine
que les choses doivent être optimisées.
Il y a même une façon d’interfacer cette extension avec postgis. Je ne l'ai jamais
utilisé.
Un moyen d'avoir une idée rapidement serait d'écrire un petit script qui
générerait assez de points aléatoirement pour que
vous puissiez vous faire une idée.
----------------------------------------
Le message est situé
https://georezo.net/forum/viewtopic.php?pid=333913#p333913
Pour y répondre : geobd(a)ml.georezo.net ou reply de votre messagerie
Pour vous désabonner connectez-vous sur le forum puis Profil / Abonnement
--
Association GeoRezo - le portail géomatique
https://georezo.net