Gracias, es un fichero de más de 1 GB. Son más de 5 millones de registros con 34 variables...
Parece que le cuesta con el chunk. La verdad que necesito trabajar con ese tipo de ficheros y python me gusta, pero creo que me voy a tener que cambiar de Software. Una pena. Gracias de nuevo Enviado desde mi iPhone > El 19 dic 2017, a las 16:32, Pavel Stephan Muñoz <minib...@gmail.com> > escribió: > > Hola. > > Y qué tamaño tiene el fichero? > Con Pandas podrías intentar leyéndolo parte por parte utilizando el parámetro > chunksize de la función read_table: > pd.read_table('tmp.sv', sep=';', chunksize=100) > A lo mejor y esto ayuda. Más info acá: > http://pandas-docs.github.io/pandas-docs-travis/io.html#iterating-through-files-chunk-by-chunk > > Saludos, > Pavel Muñoz > > > > El 19 de diciembre de 2017, 16:17, LA REPISA <larep...@gmail.com> escribió: >> Buenas tardes, >> >> Tengo un fichero plano cuyos campos están separados por ‘;’, cópo puedo >> importarlo a un dataframe de Python. Al intentar importarlo me devuelve >> “python no responde”, la máquina se queda sin recursos (es una máquina con >> 32 GB de memoria RAM) >> >> Mil gracias >> _______________________________________________ >> Python-es mailing list >> Python-es@python.org >> https://mail.python.org/mailman/listinfo/python-es > > > > -- > Pavel Stephan Muñoz > _______________________________________________ > Python-es mailing list > Python-es@python.org > https://mail.python.org/mailman/listinfo/python-es
_______________________________________________ Python-es mailing list Python-es@python.org https://mail.python.org/mailman/listinfo/python-es