From: | "Guillermo E(dot) Villanueva" <guillermovil(at)gmail(dot)com> |
---|---|
To: | Alvaro Herrera <alvherre(at)alvh(dot)no-ip(dot)org> |
Cc: | pgsql-es-ayuda <pgsql-es-ayuda(at)postgresql(dot)org> |
Subject: | Re: Baja performance en inserts masivos con bytea |
Date: | 2023-06-11 18:37:49 |
Message-ID: | CANm+PCBZyMJ2tkPnYjuOXtj4p0irAMGE1CwTHDybDn326w=XfA@mail.gmail.com |
Views: | Whole Thread | Raw Message | Download mbox | Resend email |
Thread: | |
Lists: | pgsql-es-ayuda |
Muchas gracias por tu respuesta Alvaro!! 😭 seguramente ò que me decís era
la solución!
Lo terminé haciendo como estaba nomas y demoró como 24hs la migración.
Normalmente los objetos son pdf o rtf de 2 o 3 hojas.
Saludos y que empiecen bien la semana
El sáb, 10 jun 2023 a las 20:14, Alvaro Herrera (<alvherre(at)alvh(dot)no-ip(dot)org>)
escribió:
> Guillermo E. Villanueva escribió:
>
> > Cómo los datos originales tenían una columna lo (large object) los tengo
> > que pasar a bytea, para eso utilizo la función:
> [...]
>
> > El problema es que *demora muchísimo!!!* para hacer la primera vuelta de
> > ciclo, es decir los primeros 10000 registros demoró poco mas de 1 hora y
> la
> > tabla tiene 2.5 millones de registros :-(
>
> ¿de qué tamaño es cada objeto? Es posible que sea problema de
> compresión. Prueba con
>
> ALTER TABLE tca_bytea ALTER COLUMN tca_texto SET STORAGE EXTERNAL;
> https://www.postgresql.org/docs/9.2/sql-altertable.html
>
> para evitar que intente comprimir los valores durante la inserción. Eso
> podría hacerlo mucho más rápido.
>
> --
> Álvaro Herrera PostgreSQL Developer —
> https://www.EnterpriseDB.com/
>
From | Date | Subject | |
---|---|---|---|
Next Message | Enrique Herrera Noya | 2023-06-30 18:26:04 | algún mirror rsync de postgresql |
Previous Message | Alvaro Herrera | 2023-06-10 23:14:15 | Re: Baja performance en inserts masivos con bytea |