En estos momentos me encuentro realizando copias de respaldo de mi disco duro, y es mucho el material que estoy respaldando, por lo que comence a utilizar bzip, pero resulta que si un archivo, digamos mihome.tar pesa más de 300MB este se genera con errores.
Ya he consultado la pagina de manual, por el momento estoy utilizando bzip2 -k archivo.tar, para no perder la información que estoy respandando. Si bien hay otras opciones como gzip (mucho más rápido, pero menos potente) me incomoda tener que fijarme en el tamaño de los archivos que estoy comprimiendo (será que tendré que utilizar split -b 100000000 archivo.tar para crear bloques de 96MB y evitar problemas?) Al respecto me gustaría saber que clase de herramientas *han utilizado* (ver el listado apt-cache search compression no es suficiente) para comprimir grandes volumenes de datos y cual me recomiendan. La capaciadad del computador cuenta? Tengo una Pentium III con 128 de RAM y estoy utilizando Debian Sarge. ______________________________________________ Renovamos el Correo Yahoo! Nuevos servicios, más seguridad http://correo.yahoo.es -- To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]