>> Por ejemplo estoy prácticamente convencido de que existe una "segunda ley >termodinámica de la lingüística" :-) que vendría a decir: "en un sistema la entropía >aumenta hasta un grado máximo compatible con la conectividad del subsistema >lingüístico (fonología o morfología o semántica)" .... Recuérdese que la "segunda >ley" ha sido aplicada a sistemas q tienen q ver poco que ver con la termodinámica o >la física. Recuerdo por ejemplo q Wagensberg explicaba en una conferencia lo >emocionante que fue ver como esta "segunda ley" explicaba perfectamente bien la >distribución de tamaños en una colonia de peces, y cuando se llegaba al equilibrio >entre peces grandes y peces pequeños.<< Hablando de entropía y seres vivos, R. Margalef ha aplicado el concepto a diversas áreas de la Bilogía ... (supongo de eso Mariano sabe bastante más que yo :-) El caso es que el propio Margalef tiene un trabajo que creo que es relevante para la lingüística. Margalef descubrió que en ciertos sistemas estructurados (a diferencia de lo que sucede en un sistema físico aislado) la entropía no crece sin cesar sino que llega a un equilibrio con algo llamado "conectividad" (q es una medida de la interrelación o depedencia de unos elementos de otros). En ese sentido una lengua en tanto que sistema estructurado podría estar sometido a restricciones de ese tipo. Antes de pasar a eso me gustaría hablar muy brevemente de ese trabajo de Margalef y Gutiérrez ::::: en ese trabajo se tomaron 78 circuitos electrónicos comerciales q servían para diversas cosas. Y se midieron dos cosas: (a) El número de elementos electrónicos de cada tipo (condensadores, diodos, resistencias, ....) (b) El número de conexiones de cada elemento con los otros. A partir de (a) se evaluó la entropía estadística como suma(p(i)·log p(i)), donde p(i) es el número de componentes del tipo i dividido entre el número de elementos totales del circuito. Con lo cual p(i) viene a ser la probabilidad de que dado un circuito un componente sea un componente del tipo (i). A partir de (b) se calculó el número medio de conexiones por elemento en cada circuito. Lo más curioso es que al representar el gráfico se obtenía que existía una clara relación entre ambos parámetros calculados: http://groups.yahoo.com/group/ideolengua/files/Entrop_01.gif (es una imagen de tan solo 8 kb) Lo más curioso del tema es que los diseñadores de estos circuitos evidentemente no eran conscientes de este hecho. Con lo cual este hecho es un "hecho natural" y no el resultado de una decisión deliberada. Con lo cual mi interpretación es que para obtener un circuito funcional existen ciertos condicionantes vagos en cuanto a la diversidad del número de componentes Esto me lleva a pensar que para obtener un SISTEMA ESTRUCTURADO Y FUNCIONAL (una lengua o un ser vivo) existen ciertos condicionantes o si se prefiere una especie de ley universal que relaciona la entropía (o cantidad de información necesaria para especificar el sistema o información implícitamente contenida en dicho sistema) y el grado de interrelación de los elementos. Este trabajo de Margalef y mi interpretación del mismo, me ayudaron a comprender un pequeño puzzle lingüístico: (a) Si analizamos la entropía fonológica del habla de los niños (tomando castellano e inglés como lenguas de estudio) descubrí que el habla de los adultos tiene una mayor entropía (información implícita). Piénsese que los niños tienden a reducir ciertos grupos consonánticos dificiles: tengo > teno, puerta > perta, grande > rande, spoon > boon (todos estos ejemplos son reales los he oído en niños) o a asimilar unas consonantes a otras dentro de la misma palabra: danone > nanone, dormir > momir, etc... eso es lo que hace que su entropía estadística sea menor, parte de la información se omite o es reconstruible a partir de otros elementos. En general el número de nombres para designar objetos o acciones verbales disponibles en una cultura estable es acumulativo, con lo cual su entropía en general aumenta con el tiempo. Aunque esto no es siempre así (por ejemplo las personas de ciudad tienden usar términos generales para animales y plantas, al contrario que la gente de ámbito rural). (b) Los cambios fonéticos observados en decenas de lenguas, tienden a reducir la entropía estadística (a nivel fonológico). En las pérdidas de consonantes de consonantes y en las asimilaciones esto es obvio ya que se reduce la diversidad de combinaciones admisibles y por tanto se está simplifcando la estructura fonológica. En los 'splits' de fonemas la cosa es más dudosa, por ejemplo aparentemente la palatalización en latín /k/ tardío ante vocal anterior /e, i/ viola esta ley ya que de /ka, ke, ki, ko, ku/ > /ka, ke, Te, ki, Ti, ko, ku/ (ya que aparece un nuevo fonema /T/ = <c> ante /e, i/, como en latín "cerrare" /keRare/ > cast. "cerrar" /TeRaR/), pero si vemos que incluso cuando una /k/ cambia a según reglas fijas (es decir, el tema es predecible en la mayoria de los casos viendo la vocal siguiente) no tenemos aumento de la información. Este factor de EROSIÓN de los cambios fonéticos, es lo que obliga a REMORFOLOGIZAR las lenguas, hecho que sucedió en lenguas romances después de la ruina de la declinación latina, o en egipcio demótico al arruinar los cambios fonéticos la conjugación del egipcio clásico, o en antiguo mandarín al reducir los cambios fonéticos palabras originalmente diferentes a homófonos fonéticamente idénticos! Con lo cual parece que existían factores (a) que tendían aumentar la entropía estadística a corto plazo, pero al parecer con el tiempo pero a medio plazo (al menos en el plano fonológico) la entropía estadística dismunía siempre? Solo después de considerar factores de "conectividad" podía explicar esta aparente contradicción pero solo en parte. Desde luego todavía estoy algo lejos de poder explicar en profundidad que entiendo por "conectividad" y dar una definición general y explicar como medirla (solo tengo idea de "factores conectivantes" en casos concretos). Pero creo que una teoría matemática más o menos precisa del cambio lingüístico debería ir por aquí. En otro mail cuando tenga algo más de tiempo miraré de dar unos cuantos ejemplos de mis pesquisas ....
David Sánchez [Se han eliminado los trozos de este mensaje que no contenían texto] -------------------------------------------------------------------- IdeoLengua - Lista de Lingüistica e Idiomas Artificiales Suscríbase en [EMAIL PROTECTED] Informacion en http://ideolengua.cjb.net Su uso de Yahoo! Grupos está sujeto a las http://e1.docs.yahoo.com/info/utos.html