Volumes importants - lenteur.

From: Alain Benard <alain(dot)benard(at)nancy(dot)inra(dot)fr>
To: pgsql-fr-generale(at)postgresql(dot)org
Subject: Volumes importants - lenteur.
Date: 2011-04-12 09:50:31
Message-ID: 4DA42067.4060008@nancy.inra.fr
Views: Raw Message | Whole Thread | Download mbox | Resend email
Thread:
Lists: pgsql-fr-generale

Bonjour,
je voudrai savoir s'il existe une limite de bonne pratique dans la
taille d'une table postgresql. Je travaille sur des données
géographiques avec Postgres / Postgis et stocke des points géographiques
auxquels sont associés par exemple une mesure de température. Jusqu'ici
ma plus grosse table représentait 27 millions de lignes avec des temps
d'accès restant raisonnables. Je viens d'intégrer de nouvelles données
pour un total d'environ 300 millions de lignes et là ça devient
catastrophique. La structure de la table :

X (integer) champ indexé btree
Y (integer) champ indexé btree
Mesure (smallint)
the_geom (geometry point) indexé gist

La clé primaire est constituée du couple x,y

Le constat :

des vaccum analyze qui n'en finissent pas.
un select count (*) qui dure qui dure qui dure ...

La conf :

Un serveur debian / etch / postgresql 8.3 avec 4 Go de ram.
Postgresql :

shared_buffers = 1024MB
work_mem = 18MB
maintenance_work_mem = 176MB (par ailleurs j'ai passé la
commande suivante 'alter user postgres set maintenance_work_mem
to '512MB'; ' - je ne sais d'ailleurs pas comment afficher si
c'est pris en compte)
max_fsm_pages = 1560000 (valeur fixée suite à la demande de
postgresql lors de vacuum)
wal_buffers = 8MB

j'espère que quelques âmes charitables spécialistes pourront me donner
des pistes. Merci par avance.
Alain.

Attachment Content-Type Size
alain_benard.vcf text/x-vcard 286 bytes

Responses

Browse pgsql-fr-generale by date

  From Date Subject
Next Message Thomas Reiss 2011-04-12 11:48:45 Re: Volumes importants - lenteur.
Previous Message Bernard Schoenacker 2011-04-11 16:34:04 Re: Solutions Linux 2011