From: | Alvaro Herrera <alvherre(at)alvh(dot)no-ip(dot)org> |
---|---|
To: | sebastian <sebastian(at)guachunguere(dot)cl> |
Cc: | Ayuda <pgsql-es-ayuda(at)postgresql(dot)org> |
Subject: | Re: Problema con Insert de una fila muy grande. |
Date: | 2011-09-23 03:18:04 |
Message-ID: | 1316747725-sup-9150@alvh.no-ip.org |
Views: | Raw Message | Whole Thread | Download mbox | Resend email |
Thread: | |
Lists: | pgsql-es-ayuda |
Excerpts from sebastian's message of jue sep 22 16:54:54 -0300 2011:
> Estimados.
>
> Espero que tenga un buen día, les escribo porque tengo un problema
> extraño, estoy insertando en una tabla de 5 columnas (bigint,
> timestamp, varchar, varchar, xml) una fila cuyo campo xml pesa entre
> 800MiB a 1.2GiB, sin embargo el INSERT de una única fila, se cae por
> memoria (he probado en un equipo con 4GiB de RAM, otro con 6GiB y un
> servidor con 8GiB, en todo se cae por memoria).
BTW creo que en general insertar una columna de ~1 GB en una BD
relacional puede ser "como musho". Quizás deberías considerar usar una
tecnología diferente. Si fueras a tener unos pocos de esos, podría ser
manejable, pero si piensas escalar a más allá que unas pocas docenas de
registros, los temas como hacer vacuum te van a complicar mucho.
¿Qué diablos tienes en ese XML? ¿Realmente almacenarlo como XML es lo
más sensato?
--
Álvaro Herrera <alvherre(at)alvh(dot)no-ip(dot)org>
From | Date | Subject | |
---|---|---|---|
Next Message | Roberto Andrade Fonseca | 2011-09-23 03:27:25 | Revista de PostgreSQL |
Previous Message | Alvaro Herrera | 2011-09-23 03:15:13 | Re: Problema con Insert de una fila muy grande. |