Hola, ¿qué tal? colbycol tiene un límite no explícito de 2GB, que era una barbaridad cuando se creó.
Obviamente, no vas a poder leer 16GB de fichero con un ordenador de 8GB. Pero es improbable que necesites toda esa información cargada a la vez. Es posible que puedas trocear ese fichero con herramientas externas y trabajarlo por partes. Un saludo, Carlos J. Gil Bellosta http://www.datanalytics.com El día 3 de junio de 2014, 19:37, laura tomé <tomelaur...@yahoo.es> escribió: > > > > Hola, > > Estoy todavía dando mis primeros pasos en R y una de las cosas que tengo que > hacer es trabajar con un csv de 16 GB. Consta de 10 columnas, 7 númericas > He probado varias cosas entre ellas los paquetes 'colbycol', data.table, ff > , etc, pero nada, mi ordenador de queda frito. Por cierto, tiene 8GB de RAM > y Windows 8 > > ¿Debo trocear previamente el csv,me recomendais algún paquete en especial, > etc para trabajar con un fichero tan pesado, otra solución?... > > Muchas gracias > [[alternative HTML version deleted]] > > > _______________________________________________ > R-help-es mailing list > R-help-es@r-project.org > https://stat.ethz.ch/mailman/listinfo/r-help-es > _______________________________________________ R-help-es mailing list R-help-es@r-project.org https://stat.ethz.ch/mailman/listinfo/r-help-es