>> Por ejemplo estoy prácticamente convencido de que existe una "segunda ley 
>termodinámica de la lingüística" :-) que vendría a decir: "en un sistema la entropía 
>aumenta hasta un grado máximo compatible con la conectividad del subsistema 
>lingüístico (fonología o morfología o semántica)" .... Recuérdese que la "segunda 
>ley" ha sido aplicada a sistemas q tienen q ver poco que ver con la termodinámica o 
>la física. Recuerdo por ejemplo q Wagensberg explicaba en una conferencia lo 
>emocionante que fue ver como esta "segunda ley" explicaba perfectamente bien la 
>distribución de tamaños en una colonia de peces, y cuando se llegaba al equilibrio 
>entre peces grandes y peces pequeños.<<
 
Hablando de entropía y seres vivos, R. Margalef ha aplicado el concepto a diversas 
áreas de la Bilogía ... (supongo de eso Mariano sabe bastante más que yo :-)
 
El caso es que el propio Margalef tiene un trabajo que creo que es relevante para la 
lingüística. Margalef descubrió que en ciertos sistemas estructurados (a diferencia de 
lo que sucede en un sistema físico aislado) la entropía no crece sin cesar sino que 
llega a un equilibrio con algo llamado "conectividad" (q es una medida de la 
interrelación o depedencia de unos elementos de otros). En ese sentido una lengua en 
tanto que sistema estructurado podría estar sometido a restricciones de ese tipo.
 
Antes de pasar a eso me gustaría hablar muy brevemente de ese trabajo de Margalef y 
Gutiérrez ::::: en ese trabajo se tomaron 78 circuitos electrónicos comerciales q 
servían para diversas cosas. Y se midieron dos cosas:
(a) El número de elementos electrónicos de cada tipo (condensadores, diodos, 
resistencias, ....)
(b) El número de conexiones de cada elemento con los otros.
 
A partir de (a) se evaluó la entropía estadística como suma(p(i)·log p(i)), donde p(i) 
es el número de componentes del tipo i dividido entre el número de elementos totales 
del circuito. Con lo cual p(i) viene a ser la probabilidad de que dado un circuito un 
componente sea un componente del tipo (i). A partir de (b) se calculó el número medio 
de conexiones por elemento en cada circuito. Lo más curioso es que al representar el 
gráfico se obtenía que existía una clara relación entre ambos parámetros calculados:
 
http://groups.yahoo.com/group/ideolengua/files/Entrop_01.gif
(es una imagen de tan solo 8 kb) 
 
Lo más curioso del tema es que los diseñadores de estos circuitos evidentemente no 
eran conscientes de este hecho. Con lo cual este hecho es un "hecho natural" y no el 
resultado de una decisión deliberada. Con lo cual mi interpretación es que para 
obtener un circuito funcional existen ciertos condicionantes vagos en cuanto a la 
diversidad del número de componentes 
 
Esto me lleva a pensar que para obtener un SISTEMA ESTRUCTURADO Y FUNCIONAL (una 
lengua o un ser vivo) existen ciertos condicionantes o si se prefiere una especie de 
ley universal que relaciona la entropía (o cantidad de información necesaria para 
especificar el sistema o información implícitamente contenida en dicho sistema) y el 
grado de interrelación de los elementos. Este trabajo de Margalef y mi interpretación 
del mismo, me ayudaron a comprender un pequeño puzzle lingüístico:
 
(a) Si analizamos la entropía fonológica del habla de los niños (tomando castellano e 
inglés como lenguas de estudio) descubrí que el habla de los adultos tiene una mayor 
entropía (información implícita). Piénsese que los niños tienden a reducir ciertos 
grupos consonánticos dificiles: tengo > teno, puerta > perta, grande > rande, spoon > 
boon (todos estos ejemplos son reales los he oído en niños) o a asimilar unas 
consonantes a otras dentro de la misma palabra: danone > nanone, dormir > momir, 
etc... eso es lo que hace que su entropía estadística sea menor, parte de la 
información se omite o es reconstruible a partir de otros elementos.
En general el número de nombres para designar objetos o acciones verbales disponibles 
en una cultura estable es acumulativo, con lo cual su entropía en general aumenta con 
el tiempo. Aunque esto no es siempre así (por ejemplo las personas de ciudad tienden 
usar términos generales para animales y plantas, al contrario que la gente de ámbito 
rural).
 
(b) Los cambios fonéticos observados en decenas de lenguas, tienden a reducir la 
entropía estadística (a nivel fonológico). En las pérdidas de consonantes de 
consonantes y en las asimilaciones esto es obvio ya que se reduce la diversidad de 
combinaciones admisibles y por tanto se está simplifcando la estructura fonológica. En 
los 'splits' de fonemas la cosa es más dudosa, por ejemplo aparentemente la 
palatalización en latín /k/ tardío ante vocal anterior /e, i/ viola esta ley ya que de 
/ka, ke, ki, ko, ku/ > /ka, ke, Te, ki, Ti, ko, ku/ (ya que aparece un nuevo fonema 
/T/ = <c> ante /e, i/, como en  latín "cerrare" /keRare/ > cast. "cerrar" /TeRaR/), 
pero si vemos que incluso cuando una /k/ cambia a según reglas fijas (es decir, el 
tema es predecible en la mayoria de los casos viendo la vocal siguiente) no tenemos 
aumento de la información.
Este factor de EROSIÓN de los cambios fonéticos, es lo que obliga a REMORFOLOGIZAR las 
lenguas, hecho que sucedió en lenguas romances después de la ruina de la declinación 
latina, o en egipcio demótico al arruinar los cambios fonéticos la conjugación del 
egipcio clásico, o en antiguo mandarín al reducir los cambios fonéticos palabras 
originalmente diferentes a homófonos fonéticamente idénticos!
 
Con lo cual parece que existían factores (a) que tendían aumentar la entropía 
estadística a corto plazo, pero al parecer con el tiempo pero a medio plazo (al menos 
en el plano fonológico) la entropía estadística dismunía siempre? Solo después de 
considerar factores de "conectividad" podía explicar esta aparente contradicción pero 
solo en parte.
 
Desde luego todavía estoy algo lejos de poder explicar en profundidad que entiendo por 
"conectividad" y dar una definición general y explicar como medirla (solo tengo idea 
de "factores conectivantes" en casos concretos). Pero creo que una teoría matemática 
más o menos precisa del cambio lingüístico debería ir por aquí. En otro mail cuando 
tenga algo más de tiempo miraré de dar unos cuantos ejemplos de mis pesquisas ....

David Sánchez


[Se han eliminado los trozos de este mensaje que no contenían texto]


--------------------------------------------------------------------
IdeoLengua - Lista de Lingüistica e Idiomas Artificiales
Suscríbase en [EMAIL PROTECTED]
Informacion en http://ideolengua.cjb.net


 

Su uso de Yahoo! Grupos está sujeto a las http://e1.docs.yahoo.com/info/utos.html 


Responder a