J'ai un petit problème à vous soumettre:

J'utilise la fonction convert (ImageMagick) pour faire des conversions
de fichier image (zoom dans des gros fichiers de 210MB).
Le problème est le temps de lecture d'un gros fichier de 210MB.
L'avantage actuel est qu'une fois le fichier lu il reste un certain
temps en mémoire (gestion automatique de linux) et les convert suivants
sur le même fichier sont beaucoup plus rapide.

Jusque là tout va bien.
Mais si j'imagine travailler sur des fichiers images compressés
(compressés afin de gagner de la place sur mon serveur), je dois passer
par un pipe, et faire un truc du genre:
tar -xzvOf filename_compressed |  convert - ...

ET là commence ma difficulté: vu que je passe par un pipe, les demandes
suivantes de convert sur le même fichier ne sont pas plus rapide,
linux doit refaire la décompression avant de faire un convert.
Pour le moment je n'ai que la solution suivante: faire un décompres dans
un répetoire bien défini (-> lecture et écriture sur disque de ce gros
fichier) et puis relancer une seconde instruction qui fait ma convertion
d'image. (dans ce cas je décompresse dans un répertoire temporaire qui
sera vidé de temps en temps via un cron par exemple).
Il me semble que l'idéal serait de faire un décompres vers un fichier en
mémoire, puis de reprendre ce fichier pour un ou plusieurs convert. Mais
comment faire?

Quelqu'un a-t-il un idée ?
Un tout grand merci d'avance,




--
Vander Velde Alain
Tel: 32(0)2 260.09.66
Fax: 32(0)2 270.15.67

NATIONAL BOTANIC GARDEN OF BELGIUM
Domein van Bouchout
B-1860 Meise
Belgium


**** visit the website ****
BIODIVERSITY RESOURCES IN BELGIUM
http://www.br.fgov.be/BIODIV/



_______________________________________________________
Linux Mailing List - http://www.unixtech.be
Subscribe/Unsubscribe: http://www.unixtech.be/mailman/listinfo/linux
Archives: http://www.mail-archive.com/[EMAIL PROTECTED]
IRC: chat.unixtech.be:6667 - #unixtech

Répondre à