Pardon me if my meager German caused me to misunderstand your question. We have a French website in UTF-8, and in my experimentation it appeared that UTF-8 (not binary) fields can be searched without using accents. For example, doing a full-text search for "etudes" found "études". I do not know how that would work for characters that have no Latin equivalent.
Regards, Jerry Schwartz Global Information Incorporated 195 Farmington Ave. Farmington, CT 06032 860.674.8796 / FAX: 860.674.8341 -----Original Message----- From: Charlie Schaubmair [mailto:[EMAIL PROTECTED] Sent: Monday, September 11, 2006 5:58 AM To: mysql@lists.mysql.com Subject: Unicode Aloa, ich muß in einer Webanwendung jetzt auch noch Daten von verschiedenen Ost-Ländern wie zB Bulgarien, Polen, Tschechien usw. integrieren. Das hätte ich mir eigentlich alles recht einfach vorgestellt, aber leider ist meine DB nach einer Umstellung von latin1 auf utf8 sehr langsam und die Suche nach deutschen Umlauten funktioniert dann auch nicht mehr, außer man stellt die Spalten auf uft8_bin um, aber dann müssen alle Suchausdrücke case-sensitive sein, was mir auch nichts bringt. UND mit sehr langsam meine ich jetzt einen Faktor x ca. 10!!! Also nun meine Fragen: Wie schaffe ich es mit MySQL, damit ich verschiedene Sprachen, bzw. Zeichensätze, in einer Tabelle halten kann und diese dann auch noch richtig und schnell durchsuchen kann? Es geht um eine Tabelle mit 15 Spalten und 5 Spalten davon werden sehr oft durchsucht und diese Spalten sind: 2x tinyint, 1x Varchar, 1x Text und 1x Longtext Die Tabelle beinhaltet ca. 60.000 Datensätze. Ist da MSSQL, oder eine andere DB etwa besser geeignet? Sehr wichtig ist für mich die Performance! thx+lg Charlie -- MySQL General Mailing List For list archives: http://lists.mysql.com/mysql To unsubscribe: http://lists.mysql.com/[EMAIL PROTECTED]