Re: [ideoL] Entropía y Cambio linguïstico

2002-03-21 Por tema mariano de vierna y carles-tolrà


David,

[David, escribía] Precisamente ahí es donde interviene la conectividad!
En los sistemas abiertos fuera del equilibrio (es decir q están sujetos
a variar con el tiempo) necesitamos restricciones adicionales para predecir
la evolución de la entropía. De ahí que para tratar el cambio lingüístico
el hecho de pensar q lo unico relevante era la cantidad de información
perdida o ganada, llevara a aparentes paradojas. Pero si tomamos en cuenta
la "conectividad" todo adquiere un poco más de sentido.
[mariano]
No entiendo bien cómo es que la conectividad sea una restricción que ayude a predecir
la evolución de la entropía en los sistemas abiertos... ¿conectividad entre el sistema 
parcial
que sería el sistema abierto y el sistema total? Había entendido que la conectividad es
una medida interna de un sistema no de una relación entre sistemas, ¿estoy equivocado?
Por otro lado ¿cómo se explicaría mediante la conectividad que un sistema abierto sea
capaz de buscar trabajo, es decir, buscar desequilibrios de energía o información
para mantener o incrementar su complejidad y aumentar o mantener su energía interna e
informacion (lo que mantiene o disminuye su entropía)? Por ejemplo, ¿por qué los 
idiomas
en una situación estable tienden a hacerse con el tiempo cada vez más numerosos y más
complejos?
Para no dejar "colgando" la idea deseo recordar la teoría de la evolución de Alfred 
Russell
Wallace y Charles Darwin, por ser la primera teoría científica sobre el cambio o 
evolución
de sistemas. En esta, se teoriza la existencia de un proceso de mutación (o variación) 
sobre
el que actúa un proceso de selección, dando lugar ambos a un proceso de adaptación
(que se percibe como una evolución o cambio de unas cosas a otras o de unas clases
de cosas a otras clases de cosas). Pero, y esto es lo que me interesa ahora (y donde 
interviene Alfred
Russell Wallace) para entender qué falta de entender, no se especifica a qué es la 
adaptación
o qué causa la selección, pues se dice que sobrevive el mejor adaptado, pero el mejor
adaptado es precisamente el que sobrevive...
El interés de la teoría de la evolución está en que, la evolución de las especies y de
los idiomas tienen suficientes rasgos comunes como para que se pueda pensar en
una teoría general del cambio (es una pena que Ferdinand de Saussure, con ciertos
méritos que no le faltan, sin embargo, machacara las ideas de los neogramáticos
o comparativistas acerca de la "vida" de las lenguas). Por ejemplo, Gerald Edelman
(neurocientífico) propone una teoría evolutiva de las redes y sinapsis neuronales
como parte de la explicación de la evolución o cambio del comportamiento individual
incluido el lenguaje el cuál nunca es el mismo, porque aunque como sistema estable
podamos decir que reside en la memoria cada acontecimiento en que el lenguaje
interviene es un test para ese sistema memorizado que de hecho lo actualiza y lo puede
modificar haciéndolo más complejo...

[david, escribía]
En un circuito electrónico es claro ;-) ... en una lengua digamos que es el grado
de interrelación de un elemento con los demás. Por ejemplo en castellano el número
(singular/plural) es independiente del género (masculino/femenino) con lo cual
la conectividad entre ambos es cero. Pero por ejemplo en latín número, género y
caso están interconectados (en general una marca como -us, o -ae extpresa
varias de esas 3 cosas al mismo tiempo, cosa q no sucede en castellano). Así en latín
la conectividad entre esos tres items es alta.
Como apoyo de la hipótesis Margalef-David puede verse que el menor grado
de conectividad en castellano conduce a un número de marcas de género-número
menor que el que existe en latín!!!
[mariano]
Muy interesante ese ejemplo. Gracias, es muy interesante ésta discusión, no obstante,
pienso que quizás se sale un tanto del tema de ideolengua.

Un saludo cordial,
mariano





IdeoLengua - Lista de Lingüistica e Idiomas Artificiales
Suscríbase en [EMAIL PROTECTED]
Informacion en http://ideolengua.cjb.net


 

Su uso de Yahoo! Grupos está sujeto a las http://e1.docs.yahoo.com/info/utos.html 





RE: [ideoL] Entropía y Cambio linguïstico

2002-03-18 Por tema David Sánchez

Mariano,

>>[Mariano] No sé yo si lo que, Margalef -o tú, también- llamas
"conectividad" sea precisamente un medida de la entropía en términos de la
información en un sistema.<<

[David] La "conectividad" (tanto la de Margalef, como la mía) es algo q no tiene nada 
q ver con la entropía. Precisamente es algo que en sistemas auto-organizados se opone 
a la entropía. Quiero decir que un sistema autoorganizado (una lengua o un ser vivo) 
la entropía está limitada por la conectividad y viceversa. De hecho una no puede 
crecer si reducirse la otra y viceversa, esto es muy interesante ya que no podemos 
comprender una lengua o un ecosistema en puros terminos de entropía necesitamos tener 
en cuenta la "conectividad" para poder hacer predicciones fidedignas sobre la 
estructura interna del sistema.

>>[Mariano] Pero, ¿qué ocurre si consideramos sistemas abiertos? ni la termodinámica
ni la teoría de la información dicen nada al respecto.<<

[David] Precisamente ahí es donde interviene la conectividad! En los sistemas abiertos 
fuera del equilibrio (es decir q están sujetos a variar con el tiempo) necesitamos 
restricciones adicionales para predecir la evolución de la entropía. De ahí que para 
tratar el cambio lingüístico el hecho de pensar q lo unico relevante era la cantidad 
de información perdida o ganada, llevara a aparentes paradojas. Pero si tomamos en 
cuenta la "conectividad" todo adquiere un poco más de sentido.

>>[Mariano] A ver si te sigo, ¿podríamos hablar de la cantidad de entropía como una 
>medida inversa de la redundancia? Es decir, que de acuerdo al gráfico, a *mayor* 
>entropía (o *menor* redundancia) del circuito menor número de conexiones por elemento
se precisa y viceversa, a menor entropía (o mayor redundancia) del circuito mayor
número de conexiones por elemento se precisa.<<

[David] Yo lo veo algo diferente a mayor entropía (mayor diversidad) más 
independientes pueden ser unos elementos de otros para que el circuito sea funcional. 
Pero a menor entropía (menor diversidad de componentes) el circuito tendrá menos 
posibilidades de ser funcional y para volver a ser funcional en contrapartida necesita 
mayores conexiones para crear una red más compleja y que produzca respuestas 
funcionales (se está haciendo servir la idea de que un circuito electrónico, una 
lengua o un ser vivo, es funcional si es capaz de exihibir respuestas de una cierta 
complejidad que lo hagan adaptable a los inputs o condiciones de entrada).

>>[mariano]Lo que entiendo es que la entropía de las palabras es una propiedad 
>relativa al sistema,y que en el caso de las reducciones de las palabras ya por los 
>niños, ya por el cambio lingüístico es preciso relativizar la idea de cantidad de 
>entropía de una palabra al sistema en que se encuentra, sea el idiolecto infantil 
>(hablando de las palabras de los niños)o sea el particular dialecto histórico 
>(hablando de las palabras en dos etapas del cambio lingüístico); (¿) quizás sea "la 
>conectividad" precisamente tal medida relativizada (?).<<

Sí es más o menos lo que quise decir, sí, la has cazado al vuelo!

>>[mariano]Me gustaría a mí también entender que sentido tiene la idea de
conectividad.<<

En un circuito electrónico es claro ;-) ... en una lengua digamos que es el grado de 
interrelación de un elemento con los demás. Por ejemplo en castellano el número 
(singular/plural) es independiente del género (masculino/femenino) con lo cual la 
conectividad entre ambos es cero. Pero por ejemplo en latín número, género y caso 
están interconectados (en general una marca como -us, o -ae extpresa varias de esas 3 
cosas al mismo tiempo, cosa q no sucede en castellano). Así en latín la conectividad 
entre esos tres items es alta.
Como apoyo de la hipótesis Margalef-David puede verse que el menor grado de 
conectividad en castellano conduce a un número de marcas de género-número menor que el 
que existe en latín!!!

Gracias por los enlaces dame algo de tiempo para leerlos!

David Sánchez


[Se han eliminado los trozos de este mensaje que no contenían texto]



IdeoLengua - Lista de Lingüistica e Idiomas Artificiales
Suscríbase en [EMAIL PROTECTED]
Informacion en http://ideolengua.cjb.net


 

Su uso de Yahoo! Grupos está sujeto a las http://e1.docs.yahoo.com/info/utos.html 





Re: [ideoL] Entropía y Cambio linguïstico

2002-03-18 Por tema mariano de vierna y carles-tolrà


David,

veo que eres bastante experto en esto de la entropía. Como me interesa
añado algunos comentarios.

[david, escribía]
Hablando de entropía y seres vivos, R. Margalef ha aplicado el concepto a diversas 
áreas de la Bilogía ... (supongo de eso Mariano
sabe bastante más que yo :-)
[mariano]
Creo que durante mis estudios de Biología tenía algún texto de Margalef...

[david, escribía]
El caso es que el propio Margalef tiene un trabajo que creo que es relevante para la 
lingüística. Margalef descubrió que en ciertos
sistemas estructurados (a diferencia de lo que sucede en un sistema físico aislado) la 
entropía no crece sin cesar sino que llega a
un equilibrio con algo llamado "conectividad" (q es una medida de la interrelación o 
depedencia de unos elementos de otros). En ese
sentido una lengua en tanto que sistema estructurado podría estar sometido a 
restricciones de ese tipo.
[mariano]
Bueno, como sabes la segunda ley de la termodinámica trata de 'sistemas
cerrados' (o asilados) y afirma -expresado con brevedad- que la entropía
en un sistema asilado o se mantiene o aumenta, pero no disminuye (otra
manera de expresarlo es decir que en un sistema aislado la distribución
de la energía o permanece estable o se hace más uniforme, pero no crece
el desequilibrio).
Pero, esta ley tiene una expresión paralela en la teoría de la información
 (teoría de la comunicación) que afirmaría que en un sistema en que un
emisor y un receptor se comunican la entropía de la información comunicada
o se mantiene o aumenta (o de otra manera que la información comunicada
o llega intacta o hay una pérdida de información debida al ruido, pero no
aumenta la información). No sé yo si lo que, Margalef -o tú, también- llamas
"conectividad" sea precisamente un medida de la entropía en términos de la
información en un sistema.
Pero, ¿qué ocurre si consideramos sistemas abiertos? ni la termodinámica
ni la teoría de la información dicen nada al respecto. Es decir, solo dicen
que en un sistema abierto la entropía podría disminuir, mantenerse o aumentar.
No obstante, desde antiguo se sabe, por un lado, que tal cosa como el "eternum
movile" (una máquina con inercia perfecta) es una utopía, porque debido
a la fricción su entropía aumenta irremediablemente, y por otro que los
seres vivos son capaces de disminuir su entropía. Y quien dice entropía
termodinámica, puede -curiosamente-, también decir entropía informacional.
En resumen, que tratándose de *sistemas abiertos* si los sistemas son mecánicos
la entropía *tiende* a mantenerse o aumentar, pero si se trata de sistemas vivos
la entropía *tiende* a disminuir.

[david, escribía]
Antes de pasar a eso me gustaría hablar muy brevemente de ese trabajo de Margalef y 
Gutiérrez : en ese trabajo se tomaron 78
circuitos electrónicos comerciales q servían para diversas cosas. Y se midieron dos 
cosas:
(a) El número de elementos electrónicos de cada tipo (condensadores, diodos, 
resistencias, )
(b) El número de conexiones de cada elemento con los otros.

A partir de (a) se evaluó la entropía estadística como suma(p(i)·log p(i)), donde p(i) 
es el número de componentes del tipo i
dividido entre el número de elementos totales del circuito. Con lo cual p(i) viene a 
ser la probabilidad de que dado un circuito un
componente sea un componente del tipo (i). A partir de (b) se calculó el número medio 
de conexiones por elemento en cada circuito.
Lo más curioso es que al representar el gráfico se obtenía que existía una clara 
relación entre ambos parámetros calculados:

http://groups.yahoo.com/group/ideolengua/files/Entrop_01.gif
(es una imagen de tan solo 8 kb)

Lo más curioso del tema es que los diseñadores de estos circuitos evidentemente no 
eran conscientes de este hecho. Con lo cual este
hecho es un "hecho natural" y no el resultado de una decisión deliberada. Con lo cual 
mi interpretación es que para obtener un
circuito funcional existen ciertos condicionantes vagos en cuanto a la diversidad del 
número de componentes
[mariano]
A ver si te sigo, ¿podríamos hablar de la cantidad de entropía como una medida
inversa de la redundancia? Es decir, que de acuerdo al gráfico, a *mayor* entropía (o
*menor* redundancia) del circuito menor número de conexiones por elemento
se precisa y viceversa, a menor entropía (o mayor redundancia) del circuito mayor
número de conexiones por elemento se precisa.

[david, escribía]
[.]
Con lo cual parece que existían factores (a) que tendían aumentar la entropía 
estadística a corto plazo, pero al parecer con el
tiempo pero a medio plazo (al menos en el plano fonológico) la entropía estadística 
dismunía siempre? Solo después de considerar
factores de "conectividad" podía explicar esta aparente contradicción pero solo en 
parte.
[mariano]
Lo que entiendo es que la entropía de las palabras es una propiedad relativa al 
sistema,
y que en el caso de las reducciones de las palabras ya por los niños, ya por el cambio
lingüí

[ideoL] Entropía y Cambio linguïstico

2002-03-15 Por tema David Sánchez

>> Por ejemplo estoy prácticamente convencido de que existe una "segunda ley 
>termodinámica de la lingüística" :-) que vendría a decir: "en un sistema la entropía 
>aumenta hasta un grado máximo compatible con la conectividad del subsistema 
>lingüístico (fonología o morfología o semántica)"  Recuérdese que la "segunda 
>ley" ha sido aplicada a sistemas q tienen q ver poco que ver con la termodinámica o 
>la física. Recuerdo por ejemplo q Wagensberg explicaba en una conferencia lo 
>emocionante que fue ver como esta "segunda ley" explicaba perfectamente bien la 
>distribución de tamaños en una colonia de peces, y cuando se llegaba al equilibrio 
>entre peces grandes y peces pequeños.<<
 
Hablando de entropía y seres vivos, R. Margalef ha aplicado el concepto a diversas 
áreas de la Bilogía ... (supongo de eso Mariano sabe bastante más que yo :-)
 
El caso es que el propio Margalef tiene un trabajo que creo que es relevante para la 
lingüística. Margalef descubrió que en ciertos sistemas estructurados (a diferencia de 
lo que sucede en un sistema físico aislado) la entropía no crece sin cesar sino que 
llega a un equilibrio con algo llamado "conectividad" (q es una medida de la 
interrelación o depedencia de unos elementos de otros). En ese sentido una lengua en 
tanto que sistema estructurado podría estar sometido a restricciones de ese tipo.
 
Antes de pasar a eso me gustaría hablar muy brevemente de ese trabajo de Margalef y 
Gutiérrez : en ese trabajo se tomaron 78 circuitos electrónicos comerciales q 
servían para diversas cosas. Y se midieron dos cosas:
(a) El número de elementos electrónicos de cada tipo (condensadores, diodos, 
resistencias, )
(b) El número de conexiones de cada elemento con los otros.
 
A partir de (a) se evaluó la entropía estadística como suma(p(i)·log p(i)), donde p(i) 
es el número de componentes del tipo i dividido entre el número de elementos totales 
del circuito. Con lo cual p(i) viene a ser la probabilidad de que dado un circuito un 
componente sea un componente del tipo (i). A partir de (b) se calculó el número medio 
de conexiones por elemento en cada circuito. Lo más curioso es que al representar el 
gráfico se obtenía que existía una clara relación entre ambos parámetros calculados:
 
http://groups.yahoo.com/group/ideolengua/files/Entrop_01.gif
(es una imagen de tan solo 8 kb) 
 
Lo más curioso del tema es que los diseñadores de estos circuitos evidentemente no 
eran conscientes de este hecho. Con lo cual este hecho es un "hecho natural" y no el 
resultado de una decisión deliberada. Con lo cual mi interpretación es que para 
obtener un circuito funcional existen ciertos condicionantes vagos en cuanto a la 
diversidad del número de componentes 
 
Esto me lleva a pensar que para obtener un SISTEMA ESTRUCTURADO Y FUNCIONAL (una 
lengua o un ser vivo) existen ciertos condicionantes o si se prefiere una especie de 
ley universal que relaciona la entropía (o cantidad de información necesaria para 
especificar el sistema o información implícitamente contenida en dicho sistema) y el 
grado de interrelación de los elementos. Este trabajo de Margalef y mi interpretación 
del mismo, me ayudaron a comprender un pequeño puzzle lingüístico:
 
(a) Si analizamos la entropía fonológica del habla de los niños (tomando castellano e 
inglés como lenguas de estudio) descubrí que el habla de los adultos tiene una mayor 
entropía (información implícita). Piénsese que los niños tienden a reducir ciertos 
grupos consonánticos dificiles: tengo > teno, puerta > perta, grande > rande, spoon > 
boon (todos estos ejemplos son reales los he oído en niños) o a asimilar unas 
consonantes a otras dentro de la misma palabra: danone > nanone, dormir > momir, 
etc... eso es lo que hace que su entropía estadística sea menor, parte de la 
información se omite o es reconstruible a partir de otros elementos.
En general el número de nombres para designar objetos o acciones verbales disponibles 
en una cultura estable es acumulativo, con lo cual su entropía en general aumenta con 
el tiempo. Aunque esto no es siempre así (por ejemplo las personas de ciudad tienden 
usar términos generales para animales y plantas, al contrario que la gente de ámbito 
rural).
 
(b) Los cambios fonéticos observados en decenas de lenguas, tienden a reducir la 
entropía estadística (a nivel fonológico). En las pérdidas de consonantes de 
consonantes y en las asimilaciones esto es obvio ya que se reduce la diversidad de 
combinaciones admisibles y por tanto se está simplifcando la estructura fonológica. En 
los 'splits' de fonemas la cosa es más dudosa, por ejemplo aparentemente la 
palatalización en latín /k/ tardío ante vocal anterior /e, i/ viola esta ley ya que de 
/ka, ke, ki, ko, ku/ > /ka, ke, Te, ki, Ti, ko, ku/ (ya que aparece un nuevo fonema 
/T/ =  ante /e, i/, como en  latín "cerrare" /keRare/ > cast. "cerrar" /TeRaR/), 
pero si vemos que incluso cuando una /k/ cambia a según reglas fijas (es decir, el 
tem