[Laurent Giroud] > Ca c'est bizarre. > L'UTF-8 est calqué quasiment identiquement sur > l'iso-8859-15 pour les 8 premiers bits.
Tu confonds la table des caractères et le codage utilisé. > > > La faiblesse est plutôt du côté des logiciels qui > > > ne gèrent pas correctement l'unicode, en effet, si > > > on utilise la libc GNU standard et qu'on utilise > > > gettext pour la localisation, il suffit d'utiliser > > > wprintf au lieu de printf, de ne plus utiliser les > > > "char" (en C) mais les "wchar" et de veiller à ne > > > pas tester les chaînes de caractères "en dur" mais > > > d'utiliser systématiquement des chaînes localisées. > > > > arrfff... il "suffit"... > > Ce n'est pas l'utilisation d'un "il suffit" qui permet > de dire que c'est irréaliste, c'est l'ampleur de la > tâche que ça représente. C'est bien beau de se documenter, encore faut-il passer à la pratique ;) Si tout ce qui t'intéresse est de fournir un bon support pour l'UTF-8, la solution la plus simple est de conserver des char et de changer les routines de calcul de longueur de chaînes, recherche d'expressions, etc. C'est ce que fait la majorité des programmeurs, avec éventuellement conversion du codage si l'utilisateur n'est pas en UTF-8. Ce que tu décris avec wchar est autre chose, mais les ayatollahs de l'UTF-8 sont contre car ça permet aux codages existants (8-bit ou multibyte) de continuer à être supportés, alors qu'il faudrait les éradiquer. Les 2 approches requièrent beaucoup plus de travail que tu ne sembles l'imaginer. -- Denis Accédez au courrier électronique de La Poste : www.laposte.net ; 3615 LAPOSTENET (0,34€/mn) ; tél : 08 92 68 13 50 (0,34€/mn)