J'ai un petit problème à vous soumettre: J'utilise la fonction convert (ImageMagick) pour faire des conversions de fichier image (zoom dans des gros fichiers de 210MB). Le problème est le temps de lecture d'un gros fichier de 210MB. L'avantage actuel est qu'une fois le fichier lu il reste un certain temps en mémoire (gestion automatique de linux) et les convert suivants sur le même fichier sont beaucoup plus rapide.
Jusque là tout va bien. Mais si j'imagine travailler sur des fichiers images compressés (compressés afin de gagner de la place sur mon serveur), je dois passer par un pipe, et faire un truc du genre: tar -xzvOf filename_compressed | convert - ... ET là commence ma difficulté: vu que je passe par un pipe, les demandes suivantes de convert sur le même fichier ne sont pas plus rapide, linux doit refaire la décompression avant de faire un convert. Pour le moment je n'ai que la solution suivante: faire un décompres dans un répetoire bien défini (-> lecture et écriture sur disque de ce gros fichier) et puis relancer une seconde instruction qui fait ma convertion d'image. (dans ce cas je décompresse dans un répertoire temporaire qui sera vidé de temps en temps via un cron par exemple). Il me semble que l'idéal serait de faire un décompres vers un fichier en mémoire, puis de reprendre ce fichier pour un ou plusieurs convert. Mais comment faire? Quelqu'un a-t-il un idée ? Un tout grand merci d'avance, -- Vander Velde Alain Tel: 32(0)2 260.09.66 Fax: 32(0)2 270.15.67 NATIONAL BOTANIC GARDEN OF BELGIUM Domein van Bouchout B-1860 Meise Belgium **** visit the website **** BIODIVERSITY RESOURCES IN BELGIUM http://www.br.fgov.be/BIODIV/ _______________________________________________________ Linux Mailing List - http://www.unixtech.be Subscribe/Unsubscribe: http://www.unixtech.be/mailman/listinfo/linux Archives: http://www.mail-archive.com/[EMAIL PROTECTED] IRC: chat.unixtech.be:6667 - #unixtech