[Laurent Giroud]
> Ca c'est bizarre.
> L'UTF-8 est calqué quasiment identiquement sur
> l'iso-8859-15 pour les 8 premiers bits.

Tu confonds la table des caractères et le codage utilisé.

> > > La faiblesse est plutôt du côté des logiciels qui
> > > ne gèrent pas correctement l'unicode, en effet, si
> > > on utilise la libc GNU standard et qu'on utilise
> > > gettext pour la localisation, il suffit d'utiliser
> > > wprintf au lieu de printf, de ne plus utiliser les
> > > "char" (en C) mais les "wchar" et de veiller à ne
> > > pas tester les chaînes de caractères "en dur" mais
> > > d'utiliser systématiquement des chaînes localisées.
> >
> > arrfff... il "suffit"...
>
> Ce n'est pas l'utilisation d'un "il suffit" qui permet
> de dire que c'est irréaliste, c'est l'ampleur de la
> tâche que ça représente.

C'est bien beau de se documenter, encore faut-il passer à
la pratique ;)

Si tout ce qui t'intéresse est de fournir un bon support
pour l'UTF-8, la solution la plus simple est de conserver
des char et de changer les routines de calcul de
longueur de chaînes, recherche d'expressions, etc. C'est
ce que fait la majorité des programmeurs, avec
éventuellement conversion du codage si l'utilisateur
n'est pas en UTF-8.

Ce que tu décris avec wchar est autre chose, mais les
ayatollahs de l'UTF-8 sont contre car ça permet aux
codages existants (8-bit ou multibyte) de continuer à
être supportés, alors qu'il faudrait les éradiquer.

Les 2 approches requièrent beaucoup plus de travail que
tu ne sembles l'imaginer.

--
Denis

Accédez au courrier électronique de La Poste : www.laposte.net ; 
3615 LAPOSTENET (0,34€/mn) ; tél : 08 92 68 13 50 (0,34€/mn)



Répondre à