Re: [ideoL] Entropía y Cambio linguïstico
David, [David, escribía] Precisamente ahí es donde interviene la conectividad! En los sistemas abiertos fuera del equilibrio (es decir q están sujetos a variar con el tiempo) necesitamos restricciones adicionales para predecir la evolución de la entropía. De ahí que para tratar el cambio lingüístico el hecho de pensar q lo unico relevante era la cantidad de información perdida o ganada, llevara a aparentes paradojas. Pero si tomamos en cuenta la "conectividad" todo adquiere un poco más de sentido. [mariano] No entiendo bien cómo es que la conectividad sea una restricción que ayude a predecir la evolución de la entropía en los sistemas abiertos... ¿conectividad entre el sistema parcial que sería el sistema abierto y el sistema total? Había entendido que la conectividad es una medida interna de un sistema no de una relación entre sistemas, ¿estoy equivocado? Por otro lado ¿cómo se explicaría mediante la conectividad que un sistema abierto sea capaz de buscar trabajo, es decir, buscar desequilibrios de energía o información para mantener o incrementar su complejidad y aumentar o mantener su energía interna e informacion (lo que mantiene o disminuye su entropía)? Por ejemplo, ¿por qué los idiomas en una situación estable tienden a hacerse con el tiempo cada vez más numerosos y más complejos? Para no dejar "colgando" la idea deseo recordar la teoría de la evolución de Alfred Russell Wallace y Charles Darwin, por ser la primera teoría científica sobre el cambio o evolución de sistemas. En esta, se teoriza la existencia de un proceso de mutación (o variación) sobre el que actúa un proceso de selección, dando lugar ambos a un proceso de adaptación (que se percibe como una evolución o cambio de unas cosas a otras o de unas clases de cosas a otras clases de cosas). Pero, y esto es lo que me interesa ahora (y donde interviene Alfred Russell Wallace) para entender qué falta de entender, no se especifica a qué es la adaptación o qué causa la selección, pues se dice que sobrevive el mejor adaptado, pero el mejor adaptado es precisamente el que sobrevive... El interés de la teoría de la evolución está en que, la evolución de las especies y de los idiomas tienen suficientes rasgos comunes como para que se pueda pensar en una teoría general del cambio (es una pena que Ferdinand de Saussure, con ciertos méritos que no le faltan, sin embargo, machacara las ideas de los neogramáticos o comparativistas acerca de la "vida" de las lenguas). Por ejemplo, Gerald Edelman (neurocientífico) propone una teoría evolutiva de las redes y sinapsis neuronales como parte de la explicación de la evolución o cambio del comportamiento individual incluido el lenguaje el cuál nunca es el mismo, porque aunque como sistema estable podamos decir que reside en la memoria cada acontecimiento en que el lenguaje interviene es un test para ese sistema memorizado que de hecho lo actualiza y lo puede modificar haciéndolo más complejo... [david, escribía] En un circuito electrónico es claro ;-) ... en una lengua digamos que es el grado de interrelación de un elemento con los demás. Por ejemplo en castellano el número (singular/plural) es independiente del género (masculino/femenino) con lo cual la conectividad entre ambos es cero. Pero por ejemplo en latín número, género y caso están interconectados (en general una marca como -us, o -ae extpresa varias de esas 3 cosas al mismo tiempo, cosa q no sucede en castellano). Así en latín la conectividad entre esos tres items es alta. Como apoyo de la hipótesis Margalef-David puede verse que el menor grado de conectividad en castellano conduce a un número de marcas de género-número menor que el que existe en latín!!! [mariano] Muy interesante ese ejemplo. Gracias, es muy interesante ésta discusión, no obstante, pienso que quizás se sale un tanto del tema de ideolengua. Un saludo cordial, mariano IdeoLengua - Lista de Lingüistica e Idiomas Artificiales Suscríbase en [EMAIL PROTECTED] Informacion en http://ideolengua.cjb.net Su uso de Yahoo! Grupos está sujeto a las http://e1.docs.yahoo.com/info/utos.html
RE: [ideoL] Entropía y Cambio linguïstico
Mariano, >>[Mariano] No sé yo si lo que, Margalef -o tú, también- llamas "conectividad" sea precisamente un medida de la entropía en términos de la información en un sistema.<< [David] La "conectividad" (tanto la de Margalef, como la mía) es algo q no tiene nada q ver con la entropía. Precisamente es algo que en sistemas auto-organizados se opone a la entropía. Quiero decir que un sistema autoorganizado (una lengua o un ser vivo) la entropía está limitada por la conectividad y viceversa. De hecho una no puede crecer si reducirse la otra y viceversa, esto es muy interesante ya que no podemos comprender una lengua o un ecosistema en puros terminos de entropía necesitamos tener en cuenta la "conectividad" para poder hacer predicciones fidedignas sobre la estructura interna del sistema. >>[Mariano] Pero, ¿qué ocurre si consideramos sistemas abiertos? ni la termodinámica ni la teoría de la información dicen nada al respecto.<< [David] Precisamente ahí es donde interviene la conectividad! En los sistemas abiertos fuera del equilibrio (es decir q están sujetos a variar con el tiempo) necesitamos restricciones adicionales para predecir la evolución de la entropía. De ahí que para tratar el cambio lingüístico el hecho de pensar q lo unico relevante era la cantidad de información perdida o ganada, llevara a aparentes paradojas. Pero si tomamos en cuenta la "conectividad" todo adquiere un poco más de sentido. >>[Mariano] A ver si te sigo, ¿podríamos hablar de la cantidad de entropía como una >medida inversa de la redundancia? Es decir, que de acuerdo al gráfico, a *mayor* >entropía (o *menor* redundancia) del circuito menor número de conexiones por elemento se precisa y viceversa, a menor entropía (o mayor redundancia) del circuito mayor número de conexiones por elemento se precisa.<< [David] Yo lo veo algo diferente a mayor entropía (mayor diversidad) más independientes pueden ser unos elementos de otros para que el circuito sea funcional. Pero a menor entropía (menor diversidad de componentes) el circuito tendrá menos posibilidades de ser funcional y para volver a ser funcional en contrapartida necesita mayores conexiones para crear una red más compleja y que produzca respuestas funcionales (se está haciendo servir la idea de que un circuito electrónico, una lengua o un ser vivo, es funcional si es capaz de exihibir respuestas de una cierta complejidad que lo hagan adaptable a los inputs o condiciones de entrada). >>[mariano]Lo que entiendo es que la entropía de las palabras es una propiedad >relativa al sistema,y que en el caso de las reducciones de las palabras ya por los >niños, ya por el cambio lingüístico es preciso relativizar la idea de cantidad de >entropía de una palabra al sistema en que se encuentra, sea el idiolecto infantil >(hablando de las palabras de los niños)o sea el particular dialecto histórico >(hablando de las palabras en dos etapas del cambio lingüístico); (¿) quizás sea "la >conectividad" precisamente tal medida relativizada (?).<< Sí es más o menos lo que quise decir, sí, la has cazado al vuelo! >>[mariano]Me gustaría a mí también entender que sentido tiene la idea de conectividad.<< En un circuito electrónico es claro ;-) ... en una lengua digamos que es el grado de interrelación de un elemento con los demás. Por ejemplo en castellano el número (singular/plural) es independiente del género (masculino/femenino) con lo cual la conectividad entre ambos es cero. Pero por ejemplo en latín número, género y caso están interconectados (en general una marca como -us, o -ae extpresa varias de esas 3 cosas al mismo tiempo, cosa q no sucede en castellano). Así en latín la conectividad entre esos tres items es alta. Como apoyo de la hipótesis Margalef-David puede verse que el menor grado de conectividad en castellano conduce a un número de marcas de género-número menor que el que existe en latín!!! Gracias por los enlaces dame algo de tiempo para leerlos! David Sánchez [Se han eliminado los trozos de este mensaje que no contenían texto] IdeoLengua - Lista de Lingüistica e Idiomas Artificiales Suscríbase en [EMAIL PROTECTED] Informacion en http://ideolengua.cjb.net Su uso de Yahoo! Grupos está sujeto a las http://e1.docs.yahoo.com/info/utos.html
Re: [ideoL] Entropía y Cambio linguïstico
David, veo que eres bastante experto en esto de la entropía. Como me interesa añado algunos comentarios. [david, escribía] Hablando de entropía y seres vivos, R. Margalef ha aplicado el concepto a diversas áreas de la Bilogía ... (supongo de eso Mariano sabe bastante más que yo :-) [mariano] Creo que durante mis estudios de Biología tenía algún texto de Margalef... [david, escribía] El caso es que el propio Margalef tiene un trabajo que creo que es relevante para la lingüística. Margalef descubrió que en ciertos sistemas estructurados (a diferencia de lo que sucede en un sistema físico aislado) la entropía no crece sin cesar sino que llega a un equilibrio con algo llamado "conectividad" (q es una medida de la interrelación o depedencia de unos elementos de otros). En ese sentido una lengua en tanto que sistema estructurado podría estar sometido a restricciones de ese tipo. [mariano] Bueno, como sabes la segunda ley de la termodinámica trata de 'sistemas cerrados' (o asilados) y afirma -expresado con brevedad- que la entropía en un sistema asilado o se mantiene o aumenta, pero no disminuye (otra manera de expresarlo es decir que en un sistema aislado la distribución de la energía o permanece estable o se hace más uniforme, pero no crece el desequilibrio). Pero, esta ley tiene una expresión paralela en la teoría de la información (teoría de la comunicación) que afirmaría que en un sistema en que un emisor y un receptor se comunican la entropía de la información comunicada o se mantiene o aumenta (o de otra manera que la información comunicada o llega intacta o hay una pérdida de información debida al ruido, pero no aumenta la información). No sé yo si lo que, Margalef -o tú, también- llamas "conectividad" sea precisamente un medida de la entropía en términos de la información en un sistema. Pero, ¿qué ocurre si consideramos sistemas abiertos? ni la termodinámica ni la teoría de la información dicen nada al respecto. Es decir, solo dicen que en un sistema abierto la entropía podría disminuir, mantenerse o aumentar. No obstante, desde antiguo se sabe, por un lado, que tal cosa como el "eternum movile" (una máquina con inercia perfecta) es una utopía, porque debido a la fricción su entropía aumenta irremediablemente, y por otro que los seres vivos son capaces de disminuir su entropía. Y quien dice entropía termodinámica, puede -curiosamente-, también decir entropía informacional. En resumen, que tratándose de *sistemas abiertos* si los sistemas son mecánicos la entropía *tiende* a mantenerse o aumentar, pero si se trata de sistemas vivos la entropía *tiende* a disminuir. [david, escribía] Antes de pasar a eso me gustaría hablar muy brevemente de ese trabajo de Margalef y Gutiérrez : en ese trabajo se tomaron 78 circuitos electrónicos comerciales q servían para diversas cosas. Y se midieron dos cosas: (a) El número de elementos electrónicos de cada tipo (condensadores, diodos, resistencias, ) (b) El número de conexiones de cada elemento con los otros. A partir de (a) se evaluó la entropía estadística como suma(p(i)·log p(i)), donde p(i) es el número de componentes del tipo i dividido entre el número de elementos totales del circuito. Con lo cual p(i) viene a ser la probabilidad de que dado un circuito un componente sea un componente del tipo (i). A partir de (b) se calculó el número medio de conexiones por elemento en cada circuito. Lo más curioso es que al representar el gráfico se obtenía que existía una clara relación entre ambos parámetros calculados: http://groups.yahoo.com/group/ideolengua/files/Entrop_01.gif (es una imagen de tan solo 8 kb) Lo más curioso del tema es que los diseñadores de estos circuitos evidentemente no eran conscientes de este hecho. Con lo cual este hecho es un "hecho natural" y no el resultado de una decisión deliberada. Con lo cual mi interpretación es que para obtener un circuito funcional existen ciertos condicionantes vagos en cuanto a la diversidad del número de componentes [mariano] A ver si te sigo, ¿podríamos hablar de la cantidad de entropía como una medida inversa de la redundancia? Es decir, que de acuerdo al gráfico, a *mayor* entropía (o *menor* redundancia) del circuito menor número de conexiones por elemento se precisa y viceversa, a menor entropía (o mayor redundancia) del circuito mayor número de conexiones por elemento se precisa. [david, escribía] [.] Con lo cual parece que existían factores (a) que tendían aumentar la entropía estadística a corto plazo, pero al parecer con el tiempo pero a medio plazo (al menos en el plano fonológico) la entropía estadística dismunía siempre? Solo después de considerar factores de "conectividad" podía explicar esta aparente contradicción pero solo en parte. [mariano] Lo que entiendo es que la entropía de las palabras es una propiedad relativa al sistema, y que en el caso de las reducciones de las palabras ya por los niños, ya por el cambio lingüí
[ideoL] Entropía y Cambio linguïstico
>> Por ejemplo estoy prácticamente convencido de que existe una "segunda ley >termodinámica de la lingüística" :-) que vendría a decir: "en un sistema la entropía >aumenta hasta un grado máximo compatible con la conectividad del subsistema >lingüístico (fonología o morfología o semántica)" Recuérdese que la "segunda >ley" ha sido aplicada a sistemas q tienen q ver poco que ver con la termodinámica o >la física. Recuerdo por ejemplo q Wagensberg explicaba en una conferencia lo >emocionante que fue ver como esta "segunda ley" explicaba perfectamente bien la >distribución de tamaños en una colonia de peces, y cuando se llegaba al equilibrio >entre peces grandes y peces pequeños.<< Hablando de entropía y seres vivos, R. Margalef ha aplicado el concepto a diversas áreas de la Bilogía ... (supongo de eso Mariano sabe bastante más que yo :-) El caso es que el propio Margalef tiene un trabajo que creo que es relevante para la lingüística. Margalef descubrió que en ciertos sistemas estructurados (a diferencia de lo que sucede en un sistema físico aislado) la entropía no crece sin cesar sino que llega a un equilibrio con algo llamado "conectividad" (q es una medida de la interrelación o depedencia de unos elementos de otros). En ese sentido una lengua en tanto que sistema estructurado podría estar sometido a restricciones de ese tipo. Antes de pasar a eso me gustaría hablar muy brevemente de ese trabajo de Margalef y Gutiérrez : en ese trabajo se tomaron 78 circuitos electrónicos comerciales q servían para diversas cosas. Y se midieron dos cosas: (a) El número de elementos electrónicos de cada tipo (condensadores, diodos, resistencias, ) (b) El número de conexiones de cada elemento con los otros. A partir de (a) se evaluó la entropía estadística como suma(p(i)·log p(i)), donde p(i) es el número de componentes del tipo i dividido entre el número de elementos totales del circuito. Con lo cual p(i) viene a ser la probabilidad de que dado un circuito un componente sea un componente del tipo (i). A partir de (b) se calculó el número medio de conexiones por elemento en cada circuito. Lo más curioso es que al representar el gráfico se obtenía que existía una clara relación entre ambos parámetros calculados: http://groups.yahoo.com/group/ideolengua/files/Entrop_01.gif (es una imagen de tan solo 8 kb) Lo más curioso del tema es que los diseñadores de estos circuitos evidentemente no eran conscientes de este hecho. Con lo cual este hecho es un "hecho natural" y no el resultado de una decisión deliberada. Con lo cual mi interpretación es que para obtener un circuito funcional existen ciertos condicionantes vagos en cuanto a la diversidad del número de componentes Esto me lleva a pensar que para obtener un SISTEMA ESTRUCTURADO Y FUNCIONAL (una lengua o un ser vivo) existen ciertos condicionantes o si se prefiere una especie de ley universal que relaciona la entropía (o cantidad de información necesaria para especificar el sistema o información implícitamente contenida en dicho sistema) y el grado de interrelación de los elementos. Este trabajo de Margalef y mi interpretación del mismo, me ayudaron a comprender un pequeño puzzle lingüístico: (a) Si analizamos la entropía fonológica del habla de los niños (tomando castellano e inglés como lenguas de estudio) descubrí que el habla de los adultos tiene una mayor entropía (información implícita). Piénsese que los niños tienden a reducir ciertos grupos consonánticos dificiles: tengo > teno, puerta > perta, grande > rande, spoon > boon (todos estos ejemplos son reales los he oído en niños) o a asimilar unas consonantes a otras dentro de la misma palabra: danone > nanone, dormir > momir, etc... eso es lo que hace que su entropía estadística sea menor, parte de la información se omite o es reconstruible a partir de otros elementos. En general el número de nombres para designar objetos o acciones verbales disponibles en una cultura estable es acumulativo, con lo cual su entropía en general aumenta con el tiempo. Aunque esto no es siempre así (por ejemplo las personas de ciudad tienden usar términos generales para animales y plantas, al contrario que la gente de ámbito rural). (b) Los cambios fonéticos observados en decenas de lenguas, tienden a reducir la entropía estadística (a nivel fonológico). En las pérdidas de consonantes de consonantes y en las asimilaciones esto es obvio ya que se reduce la diversidad de combinaciones admisibles y por tanto se está simplifcando la estructura fonológica. En los 'splits' de fonemas la cosa es más dudosa, por ejemplo aparentemente la palatalización en latín /k/ tardío ante vocal anterior /e, i/ viola esta ley ya que de /ka, ke, ki, ko, ku/ > /ka, ke, Te, ki, Ti, ko, ku/ (ya que aparece un nuevo fonema /T/ = ante /e, i/, como en latín "cerrare" /keRare/ > cast. "cerrar" /TeRaR/), pero si vemos que incluso cuando una /k/ cambia a según reglas fijas (es decir, el tem