Message posté par : Ronan
----------------------------------------
Bonjour,
nous stockons des données bathymétriques en PGPOINTCLOUDS. Nous utilisons PDAL comme PIPE
pour envoyer des données d'une instance Postgres à une autre et réorganiser les patch.
Nous créons un fichier json via un ETL puis nous l'exécutons en gros. Voici la forme
de notre JSON, je ne sais pas si cela peut aider? :
L'inconvénient de ce pipe (via les options filters.chipper est qu'il est très
consommateur en RAM (les données sont stockées dans la RAM pour calcul des patch)
{
"type":"readers.pgpointcloud",
"connection":"host='hote' dbname='db_source'
user='user' password='mdp' port='5432'",
"table":"table_source",
"schema":"sonde_pc",
"column":"patch",
"spatialreference":"EPSG:4326"
},
{
"type":"filters.chipper",
"capacity":"400"
},
{
"type":"writers.pgpointcloud",
"connection":"host='nom_hote' dbname='gb_name'
user='user' password='mdp' port='5432'",
"compression":"dimensional",
"srid":"4326",
"schema": "nom_schema",
"table": "nom_table",
"column":"patch",
"pcid": "1",
"post_sql": "create index if not exists patch_geom_maj_idx on
schela.table gist((patch::geometry))",
"scale_x": 0.0000001,
"scale_y": 0.0000001,
"scale_z": 0.001
----------------------------------------
Le message est situé
https://georezo.net/forum/viewtopic.php?pid=365576#p365576
Pour y répondre : geobd(a)ml.georezo.net ou reply de votre messagerie
Pour vous désabonner connectez-vous sur le forum puis Profil / Abonnement
--
Association GeoRezo - le portail géomatique
https://georezo.net