Hi Charlie,

The performance problem may be due to using UTF-8 instead of unicode. Try declaring your text column as:

my_text VARCHAR(...) UNICODE

I am guessing, but it may be that the search is slow because MySQL has to convert UTF-8 to UNICODE before doing the comparison.

BTW, don't use CHAR(...) UNICODE, unless the text field is short, because there is a bug with the removal of trailing spaces in the index, that makes the index file much larger than necessary.

- Paul

On Sep 11, 2006, at 11:58 AM, Charlie Schaubmair wrote:

Aloa,

ich muß in einer Webanwendung jetzt auch noch Daten von verschiedenen
Ost-Ländern wie zB Bulgarien, Polen, Tschechien usw. integrieren.
Das hätte ich mir eigentlich alles recht einfach vorgestellt, aber leider ist meine DB nach einer Umstellung von latin1 auf utf8 sehr langsam und die Suche nach deutschen Umlauten funktioniert dann auch nicht mehr, außer man stellt die Spalten auf uft8_bin um, aber dann müssen alle Suchausdrücke
case-sensitive sein, was mir auch nichts bringt.
UND mit sehr langsam meine ich jetzt einen Faktor x ca. 10!!!

Also nun meine Fragen:
Wie schaffe ich es mit MySQL, damit ich verschiedene Sprachen, bzw.
Zeichensätze, in einer Tabelle halten kann und diese dann auch noch richtig
und schnell durchsuchen kann?
Es geht um eine Tabelle mit 15 Spalten und 5 Spalten davon werden sehr oft
durchsucht und diese Spalten sind:
2x tinyint, 1x Varchar, 1x Text und 1x Longtext
Die Tabelle beinhaltet ca. 60.000 Datensätze.

Ist da MSSQL, oder eine andere DB etwa besser geeignet?
Sehr wichtig ist für mich die Performance!

thx+lg
Charlie



--
MySQL General Mailing List
For list archives: http://lists.mysql.com/mysql
To unsubscribe:    http://lists.mysql.com/[EMAIL PROTECTED]

Reply via email to