Hola, entropólogos

La verdad es que no estoy muy puesto en todos estos temas de entropía, pero
sí se algo de transmisión de la información, al fin y al cabo ese es el
corazón de la informática.

Un código inambiguo con palabras de longitud variable en el que una ristra
de ceros y unos puede descomponerse en palabras según una sola
interpretación tendría los siguientes requerimientos.
- Para un número n de palabras tendremos n códigos según la siguiente
secuencia:
    Para cada elemento x, de 1 a n
        Código = x-1 veces "1" + "0"
    siendo la longitud de cada elemento x.
El último código de la serie se puede optimizar eliminando el cero final, ya
que no hay posibilidad de error y cualquier secuencia binaria puede ser
descompuesta inequívocamente en sus palabras componentes.
Eso significa que el número de bits necesarios para enviar un mensaje,
siendo la frecuencia de uso de cada palabra inversamente proporcional al
cuadrado de su longitud (1/2, 1/4, 1/8, 1/16, etc), sería:
1/2+2/4+3/8+4/16+ ... + n/2^n + ... + (n-1)/2^(n-1) + (n-1)/2^(n-1)
Hasta ahí llego yo.
Ahora bien, las probabilidades de aparición de una palabra nunca se
corresponderán con este caso hipotético, si ponemos todas las palabras de
cualquier lenguaje por orden de frecuencia, estas frecuencias mostrarán un
abanico de distribución mucho más cerrado que empieza mucho más abajo. La
palabra más frecuente del español no sé cual será, puede que A o DE o EL, ni
idea, pero su probabilidad no es de 1/2, quizás, todo lo más, sea de 1/20. Y
suponiendo un vocabulario de mil palabras, las dos menos probables tendrían
que tener una probabilidad de 1/2^999. Esa es una probabilidad tan baja que
pasarían yoquesentos mil porrillones de veces la edad del universo para que
se usara, y estoy dispuesto a hacer una apuesta capaz de producir una
paradoja.
En cualquier sistema de comunicación, la palabra menos frecuente saldrá en
todos los informes estadísticos, con lo que a la larga será más frecuente
que la que tiene una frecuencia inmediatamente inferior.
Si sois capaces de mascar esta ultima frase os dareis cuenta de que implica
una paradoja bestial.
Pero me estoy saliendo de madre, a lo que quiero llegar es a que todo esto
de la entropía en la comunicación puede ser una teoría interesante, pero la
realidad de un lenguaje cualquiera no es tan matematizable.

Las máquinas, desde luego, son tontas. No puedes decirles "Haz esto", sino
que tienes que explicarle paso a paso cómo hacer cualquier cosa. Y el código
inambiguo más económico de todos es el de una longitud fija por unidad de
información.
Nosotros tenemos la suerte de ser inteligentes (o eso me creo a veces) y
somos capaces de tratar con códigos de longitud variable, pero intentar
aplicar fórmulas tan precisas a un tema tan poco matematizable como el del
lenguaje me parece bastante difícil.

(Dijo la zorra a las uvas)



--------------------------------------------------------------------
IdeoLengua - Lista de Lingüistica e Idiomas Artificiales
Suscríbase en [EMAIL PROTECTED]
Informacion en http://ideolengua.cjb.net


 

Su uso de Yahoo! Grupos está sujeto a las http://e1.docs.yahoo.com/info/utos.html 


Responder a