Hola, entropólogos La verdad es que no estoy muy puesto en todos estos temas de entropía, pero sí se algo de transmisión de la información, al fin y al cabo ese es el corazón de la informática.
Un código inambiguo con palabras de longitud variable en el que una ristra de ceros y unos puede descomponerse en palabras según una sola interpretación tendría los siguientes requerimientos. - Para un número n de palabras tendremos n códigos según la siguiente secuencia: Para cada elemento x, de 1 a n Código = x-1 veces "1" + "0" siendo la longitud de cada elemento x. El último código de la serie se puede optimizar eliminando el cero final, ya que no hay posibilidad de error y cualquier secuencia binaria puede ser descompuesta inequívocamente en sus palabras componentes. Eso significa que el número de bits necesarios para enviar un mensaje, siendo la frecuencia de uso de cada palabra inversamente proporcional al cuadrado de su longitud (1/2, 1/4, 1/8, 1/16, etc), sería: 1/2+2/4+3/8+4/16+ ... + n/2^n + ... + (n-1)/2^(n-1) + (n-1)/2^(n-1) Hasta ahí llego yo. Ahora bien, las probabilidades de aparición de una palabra nunca se corresponderán con este caso hipotético, si ponemos todas las palabras de cualquier lenguaje por orden de frecuencia, estas frecuencias mostrarán un abanico de distribución mucho más cerrado que empieza mucho más abajo. La palabra más frecuente del español no sé cual será, puede que A o DE o EL, ni idea, pero su probabilidad no es de 1/2, quizás, todo lo más, sea de 1/20. Y suponiendo un vocabulario de mil palabras, las dos menos probables tendrían que tener una probabilidad de 1/2^999. Esa es una probabilidad tan baja que pasarían yoquesentos mil porrillones de veces la edad del universo para que se usara, y estoy dispuesto a hacer una apuesta capaz de producir una paradoja. En cualquier sistema de comunicación, la palabra menos frecuente saldrá en todos los informes estadísticos, con lo que a la larga será más frecuente que la que tiene una frecuencia inmediatamente inferior. Si sois capaces de mascar esta ultima frase os dareis cuenta de que implica una paradoja bestial. Pero me estoy saliendo de madre, a lo que quiero llegar es a que todo esto de la entropía en la comunicación puede ser una teoría interesante, pero la realidad de un lenguaje cualquiera no es tan matematizable. Las máquinas, desde luego, son tontas. No puedes decirles "Haz esto", sino que tienes que explicarle paso a paso cómo hacer cualquier cosa. Y el código inambiguo más económico de todos es el de una longitud fija por unidad de información. Nosotros tenemos la suerte de ser inteligentes (o eso me creo a veces) y somos capaces de tratar con códigos de longitud variable, pero intentar aplicar fórmulas tan precisas a un tema tan poco matematizable como el del lenguaje me parece bastante difícil. (Dijo la zorra a las uvas) -------------------------------------------------------------------- IdeoLengua - Lista de Lingüistica e Idiomas Artificiales Suscríbase en [EMAIL PROTECTED] Informacion en http://ideolengua.cjb.net Su uso de Yahoo! Grupos está sujeto a las http://e1.docs.yahoo.com/info/utos.html