En réponse à Eric BERTHOMIER <[EMAIL PROTECTED]>:

> 
> En FAT32, le nombre de fichier maximum dans un répertoire est de
> 65535.
> 
> Je me demandais si une telle limite existait sous linux. Je suppose 
> qu'en plus elle dépend du système de fichiers ...
> 
> Quelqu'un aurait il lu quelque chose à ce niveau ?

Ce genre de limitation est lié en effet au système de fichier. Sous Linux, 
généralement on utilise le format ext2 ou ext3 (parfois reiserfs mais je ne le 
connais pas). Ce systèmes sont complètement différents du format FAT, 
puisqu'ils sont basés sur des iNodes et non sur des tables de fichiers.

Je m'explique un poil (et non pas à) :
- FAT implique que tu as sur ton disque une Table d'allocation des Fichiers, 
c'est à dire une zone qui va te dire "tel zone correspond à tel fichier ou tel 
répertoire". Les blocs correspondant à cette zone étant limités en taille, cela 
implique que le nombre de fichier est limité, et de même que la taille des 
fichiers est aussi limitée (4 Go je crois, mais j'en suis pas sur du tout)
- Sous Ext2/3, à chaque fichier (au sens générique du terme) est affecté un 
iNode, c'est à dire un bloc. Ce bloc contient en particulier les adresses des 
blocs qui correspondent au contenu des fichiers. Ces mêmes blocs contiennent 
donc des données, mais aussi des redirections vers d'autres iNodes/blocs. La 
norme extfs précise le nombre de redirection qui peuvent exister, cela fixe la 
taille maximale des fichiers. Sous Nux, il me semble que l'on arrive aussi à 4 
Go (qui correspond en fait à 2^32, soit la taille maximale adressable par le 
processeur). Comme il n'y a pas de _différence_ au niveau nature de fichier 
entre un simple fichier et un répertoire, il est donc probable que le nombre 
maximal de fichiers que tu peux stocker dans un répertoire (directement à la 
racine, pas dans des sous-répertoires) doit avoisiner les 4 milliards ... Il 
faut toutefois ne pas perdre de vue que la taille associée au répertoire qui 
contiendrait ces 4 milliards de fichiers (celle qui est associée à un 
répertoire lors d'un "ls -l") n'est pas à négliger dans ce cas ... il existe 
peut-être des solutions propriétaires (HP ? Sun ?) qui permetraient une 
optimisation pour réduire le coût en terme de place de la création de très 
nombreux fichiers dans un seul répertoire.

Olivier

Répondre à