Hola Antonio, solo como comentario ... tengo una maquina con
windows 8 que nada mas iniciar el sistema ya tiene ocupados mas de
1 GB de la RAM (~ 1.3 GB), cuanto ocupa la tuya ? por ese lado
puede que estes perdiendo RAM ... mi maquina debian/linux que uso
con R,
Carlos, Javier y demas usuarios que respondieron la duda
Uso Windows, y la version de R que uso es
R version 3.4.1 (2017-06-30) -- "Single Candle"
Copyright (C) 2017 The R Foundation for Statistical Computing
Platform: x86_64-w64-mingw32/x64 (64-bit)
La memoria Ram del ordenador es de 4 GB y
En mi experiencia R es terriblemente ineficiente a la hora de liberar memoria,
incluso con el garbage collector que no sirve para mucho en ki experiencia (el
código creo que es gc() ). En uno de los ordenadores sufro de estos problemas,
y lo que hago es escribir el script y ejecutarlo a trozos,
Sí, estás un tanto al límite de la capacidad de tu ordenador.
Varias cosas que no has comentado:
- ¿Qué versión de R usas?
- ¿Usas una versión de 32bits ó 64bits?.
- ¿Windows?, supongo.
- En Windows puedes ver los recursos de tu máquina y confirmar que
cuando tienes el
Estimados
Pienso que falta memoria, aparte de las sugerencias ya aportadas, de pronto
se podrían colocar algunos rm(liberar_de_memoria), para no tener ocupado
espacio que no es requerido porque ese paso ya fue realizado.
Javier Rubén Marcuzzi
El 6 de diciembre de 2017, 13:58, Antonio Rodriguez
Gracias Carlos. Voy a probar y te digo.
El 6/12/2017 13:49, "Carlos Ortega" escribió:
> OK.
> Lee primero los datos, guarda el data.frame (.RData o en un .csv o lo que
> quieras).
> Sal de RStudio o incluso reinicia el ordenador para liberar el máximo de
> memoria.
>
OK.
Lee primero los datos, guarda el data.frame (.RData o en un .csv o lo que
quieras).
Sal de RStudio o incluso reinicia el ordenador para liberar el máximo de
memoria.
Y comienza una nueva sesión con RStudio cargando los datos con "fread()".
Por otro lado, este conjunto de datos ¿cómo es de
Hola Antonio, luego de instalar el paquete data.table tienes que
cagar la libreria antes de poder usar fread(), para esto tienes
que hacer:
library(data.table)
otro detalles es que si quieres usar data.table no debes usar
as.data.frame(), es decir, la linea en
Carlos
use library foreign, y read.dta. Consegui leer los datos. Pero demora
mucho. explore los datos con head y tail, y con summary. Conseguis los
resultados. Muy lento. Una cosa a. hacer es un histograma y ahi ya ponia
cannot allocate memory.
Pense que podria leer los datos de otra manera mas
Pero entonces, ¿has leído ya el fichero en RStudio? ¿lo has convertido de
Stata a csv o algún otro formato que con el que puedas trabajar en RStudio?.
¿O ahora el problema es que has convertido el fichero pero no puedes hacer
ningún tipo de análisis porque tu equipo no tiene suficientes
He llegado hacer un summary o algo asi. Despues de leerlo pero tarda mucho.
Y si hago un histograma de una variable edad, hay colapsa.
El 6/12/2017 13:05, "Antonio Rodriguez Andres" <
antoniorodriguezandre...@gmail.com> escribió:
> Freddy
>
> el archivo lo leo en segundos en Stata. puedo probar
Freddy
el archivo lo leo en segundos en Stata. puedo probar el paquete heaven.
Pero si recuerdo me dio problemas en RStudio
El 6/12/2017 13:03, "Freddy Omar López Quintero"
escribió:
> El mié, 06-12-2017 a las 12:55 +0100, Antonio Rodriguez Andres escribió:
>
> me sale
El mié, 06-12-2017 a las 12:55 +0100, Antonio Rodriguez Andres
escribió:
> me sale problema
> de memoria.
Pregunta posiblemente tonta: ¿tienes suficiente memoria para procesar
un archivo de tales dimensiones? Puede que ni aún cambiando la manera
de leer el archivo realmente lo puedas procesar.
>
Tengo una base de datos muy grande en formato Stata, (dta), he probado a
leerla con el paquete foreign, y el comando
read.dta, pero como tiene 28 variables y casi medio millon de individuos,
cuando pruebo a hacer graficas o algo, me sale problema
de memoria.
Entonces, una solucion es intentar
14 matches
Mail list logo