Juan,
aunque no soy un experto no le quito el ojo de encima a las cuestiones de entropía, pues es esta precisamente la clave para entender por qué un computador no puede pensar por sí mismo (no sigue las leyes de Newton, para las que todo es reversible), su entropía o tiende a mantenerse o aumentar si disminuye es por influencia externa solo momentaneamente; algo distinto ocurre con los seres que se organizan a sí mismos (¿"autoorganizables"? no da el sentido reflexivo apropiado) en estos la entropía puede crecer o mantenerse, pero, la tendencia es a que disminuya en cuanto que la información tiende a aumentar (se hacen más complejos). [juan] La verdad es que no estoy muy puesto en todos estos temas de entropía, pero sí se algo de transmisión de la información, al fin y al cabo ese es el corazón de la informática. [mariano] ¡Pues de eso se trata, de las leyes de Shanon para la trasmisión de la información! "La segunda ley de Shanon" es sobre la entropía de la información. De lo que trato es de una tercera ley de la información referible a sistemas abiertos que se organizan a sí mismos y que conocemos en los seres vivos. [juan] Eso significa que el número de bits necesarios para enviar un mensaje, siendo la frecuencia de uso de cada palabra inversamente proporcional al cuadrado de su longitud (1/2, 1/4, 1/8, 1/16, etc), sería: 1/2+2/4+3/8+4/16+ ... + n/2^n + ... + (n-1)/2^(n-1) + (n-1)/2^(n-1) Hasta ahí llego yo. [mariano] No sé seguirte, pero, en fin, sigo leyendo. [juan] Ahora bien, las probabilidades de aparición de una palabra nunca se corresponderán con este caso hipotético, si ponemos todas las palabras de cualquier lenguaje por orden de frecuencia, estas frecuencias mostrarán un abanico de distribución mucho más cerrado que empieza mucho más abajo. La palabra más frecuente del español no sé cual será, puede que A o DE o EL, ni idea, pero su probabilidad no es de 1/2, quizás, todo lo más, sea de 1/20. Y suponiendo un vocabulario de mil palabras, las dos menos probables tendrían que tener una probabilidad de 1/2^999. Esa es una probabilidad tan baja que pasarían yoquesentos mil porrillones de veces la edad del universo para que se usara, y estoy dispuesto a hacer una apuesta capaz de producir una paradoja. En cualquier sistema de comunicación, la palabra menos frecuente saldrá en todos los informes estadísticos, con lo que a la larga será más frecuente que la que tiene una frecuencia inmediatamente inferior. Si sois capaces de mascar esta ultima frase os dareis cuenta de que implica una paradoja bestial. [mariano] He hecho una lista del corpus ORAL de la UAM (Universidad Autónoma de Madrid) que tiene unas 1 200 000 palabras. La palábra más frecuente que encuentro es "QUE" y representa el 5,3% (es decir 1 sobre 20) y va seguida de cerca por "DE" con el 4,33% (es decir 1 sobre 23), así que no son del todo equivocadas tus conjeturas. La palabra menos frecuente que me aparece es un error, >:-(, la primera no erronea es: "ZURZAN" no solo por su infrecuencia, también, por empezar por "Z" y su probabilidad es practicamente 1 sobre 0,000 000 8. Supongo que quieres decir que en todos los informes estadísticos se incluiría la palabra de menor frecuencia pero no la anterior y por eso... Pero, el lenguaje es adaptativo y la palabra de menor frecuencia es muy probable que vaya cambiando, por el contrario la de mayor frecuencia es probable que se mantenga, con lo que curiosamente en el lenguaje natural se da un giro lógico a la paradoja. [juan] Nosotros tenemos la suerte de ser inteligentes (o eso me creo a veces) y somos capaces de tratar con códigos de longitud variable, pero intentar aplicar fórmulas tan precisas a un tema tan poco matematizable como el del lenguaje me parece bastante difícil. [mariano] El problema se da si se aplican principios unidimensionales, se precisa pensar en dimensiones múltiples y fraccionarias. Yo creo que se lograrán aproximaciones muy interesantes mediante la geometría de fractales y su matemática o, si lo prefieres, con la teoría del caos en la cuál se estudia la recursión. ¿Cómo se podría predecir un cambio en el lenguaje? Prestando atención a la entropía del sistema porque señala su predicibilidad, y se logrará una aproximación en la predicción tanto mayor cuanto mas predecible sea el sistema, cuanto más se sepa del sistema y cuanto más corto sea el plazo o la distancia del estado del sistema que se quiere predecir. Ya hay usos de esto, pues, el valor de la entropía es una característica tan específica de cada idioma que se pueden distinguir las familias de lenguas en función de su medida. No soy capaz de decidir qué posibilidades puede tener esta clase de planteamiento, pero creo que es la clase de planteamientos que vienen. Un saludo cordial, mariano -------------------------------------------------------------------- IdeoLengua - Lista de Lingüistica e Idiomas Artificiales Suscríbase en [EMAIL PROTECTED] Informacion en http://ideolengua.cjb.net Su uso de Yahoo! Grupos está sujeto a las http://e1.docs.yahoo.com/info/utos.html