[david escribía] >> midiendo la cantidad de información asociada (entropía) de este sistema de >conceptos: -(p1·log p1 + p2·log p2 + p3·log p3 + p4·log p4) = 1,75.<<
[mariano escribía] >>Esto es interesante, me refiero al concepto de entropía. No llego a entender la >explicación que das, porque no sé cual es el termino de comparación.<< _________________________________________ [david respondiendo] 1) La entropía DEPENDE SOLO DE SISTEMA, NO DEPENDE DEL CÓDIGO ELEGIDO, esta entropía es una medida de la diversidad-complejidad del sistema y en términos de información si se quiere es "la cantidad de información por signo que se requiere para especificar el sistema, es decir, una secuencia cualquiera". Así con las porbabilidades: Prob(C1) = 1/2, Prob(C2) = 1/4, Prob(C3) = 1/8 y Prob(C4) = 1/8 cualquier secuencia aleatoria tipo (q respete las anteriores probabilidades): C1-C2-C2-C1-C3-C4-C1-C3-.... tendría una complejidad media dada por su entropía = 1,75. 2) Ahora entran los códigos en escena ... conocida la entropía del sistema enventamos una codificación, es decir a cada signo del conjunto {C1, C2, C3, C4} la cantidad de información de un código se mide por el número medio de bits, para el código mínimo que construía la INFORMACIÓN POR SIGNO = ENTROPIA. Evidentemente existe una infinidad de códigos, que pueden clasificarse según: a) INFORMACIÓN POR SIGNO > ENTROPÍA --------> Código redundante por el ejemplo el código de 2 bits por signo, como lo era C1--->00, C2---->01, C3---->10, C4----->11 b) INFORMACIÓN POR SIGNO = ENTROPÍA ---------> Código mínimo, puede existir o no en función del tipo de codificación que se escoja. Un código mínimo es: C1----> 0, C2---->10, C3---->110, C4---->111 c) INFORMACIÓN POR SIGNO < ENTROPÍA ------> Código ambiguo, como el código que construyó Juan: C1--> 0, C2--->1 C3---->01, C4 --->10 (ojo q este código es ambiguo pq una secuencia de 1 y 0 no puede ser descompuesta de una sola manera en secuencias de {C1, C2, C3, C4} mientras que los códigos en a) y b) si permiten la reconstrucción de la secuencia original en términos de {C1, C2, C3, C4}. -_______________________________________________________ >> Tal y como lo entiendo el codigo lineal de 2 bits implicaría una entropía de 2 = >(1/4·2 + 1/4·2 + 1/4·2 + 1/4·2) que es mayor que la del código no lineal con 1,75.<< Esto sería correcto para otro sistema con Prob(C1) = 1/4, Prob(C2) = 1/4, Prob(C3) = 1/4 y Prob(C4) = 1/4 y el efecto un código de 2 cifras como 00, 01, 10, 11 sería mínimo ya que ahora la entropía sería igual a -(1/4·log 1/4 + 1/4·log 1/4 + 1/4·log 1/4 + 1/4·log 1/4) = - ln 1/4 = ln 4 = 2 [no lo dije antes pero los logaritmos usualmente se toman en base dos, y entonces las unidades se llaman bits, si se usa otra base tenemos lo mismo pero medido en otras unidades de información]o El sistema que se proponía Prob(C1) = 1/2, Prob(C2) = 1/4, Prob(C3) = 1/8 y Prob(C4) = 1/8 es algo menos complejo que el del anterior párrafo ya que es más previsible: sabemos que es bastante más probable que C1 aparezca en una secuencia cualquiera que no C3 o C4, por ejemplo. De ahí que su entropía sea menor: -[1/2·log 1/2 + 1/4·log 1/4 + 1/8·log 1/8 + 1/8·log 1/8] = -[1/2·(-1) + 1/4·(-2) + 1/8·(-3) + 1/8·(-3)] = [ 1/2 + 2/4 + 6/8 ] = 1,75 (si tenemos en cuenta que estamos en base 2 estas operaciones resultan bastante triviales). ____________________________________ >>Es decir, que el código lineal es más predecible que el no lineal, por lo mismo es >menos informativo (por tanto, menos eficiente) pues si puedes predecir (completar) lo >que falta tras conocer parte del sistema no necesitas el resto.<< Esa es la idea, solo que es justo al revés el más impredecible es el que da más información ... cuando en un crucigrama te aparece en una casilla una Z o una W, tienes muchísmas más pistas que si te aparece una A o una C. Es decir, la aparición de una fenómeno poco probable da más información porque restringe mucho más las posibilidades. Es decir la aparición un hecho improbable da MAS INFORMACIÓN porque REDUCE Mucho más la INCERTIDUMBRE. ________________________ David Sánchez [Se han eliminado los trozos de este mensaje que no contenían texto] -------------------------------------------------------------------- IdeoLengua - Lista de Lingüistica e Idiomas Artificiales Suscríbase en [EMAIL PROTECTED] Informacion en http://ideolengua.cjb.net Su uso de Yahoo! Grupos está sujeto a las http://e1.docs.yahoo.com/info/utos.html