Pardon me if my meager German caused me to misunderstand your question.

We have a French website in UTF-8, and in my experimentation it appeared
that UTF-8 (not binary) fields can be searched without using accents. For
example, doing a full-text search for "etudes" found "études". I do not know
how that would work for characters that have no Latin equivalent.


Regards,

Jerry Schwartz
Global Information Incorporated
195 Farmington Ave.
Farmington, CT 06032

860.674.8796 / FAX: 860.674.8341

-----Original Message-----
From: Charlie Schaubmair [mailto:[EMAIL PROTECTED]
Sent: Monday, September 11, 2006 5:58 AM
To: mysql@lists.mysql.com
Subject: Unicode

Aloa,

ich muß in einer Webanwendung jetzt auch noch Daten von verschiedenen
Ost-Ländern wie zB Bulgarien, Polen, Tschechien usw. integrieren.
Das hätte ich mir eigentlich alles recht einfach vorgestellt, aber leider
ist meine DB nach einer Umstellung von latin1 auf utf8 sehr langsam und die
Suche nach deutschen Umlauten funktioniert dann auch nicht mehr, außer man
stellt die Spalten auf uft8_bin um, aber dann müssen alle Suchausdrücke
case-sensitive sein, was mir auch nichts bringt.
UND mit sehr langsam meine ich jetzt einen Faktor x ca. 10!!!

Also nun meine Fragen:
Wie schaffe ich es mit MySQL, damit ich verschiedene Sprachen, bzw.
Zeichensätze, in einer Tabelle halten kann und diese dann auch noch richtig
und schnell durchsuchen kann?
Es geht um eine Tabelle mit 15 Spalten und 5 Spalten davon werden sehr oft
durchsucht und diese Spalten sind:
2x tinyint, 1x Varchar, 1x Text und 1x Longtext
Die Tabelle beinhaltet ca. 60.000 Datensätze.

Ist da MSSQL, oder eine andere DB etwa besser geeignet?
Sehr wichtig ist für mich die Performance!

thx+lg
Charlie





-- 
MySQL General Mailing List
For list archives: http://lists.mysql.com/mysql
To unsubscribe:    http://lists.mysql.com/[EMAIL PROTECTED]

Reply via email to