Inicio » Notas ThinkEPI 2007 » Información = Matemáticas

Información = Matemáticas

El pleno siglo XVIII Michael Faraday sentó las bases del electromagnetismo a partir de muchas horas de laboratorio. Desgraciadamente, este famoso científico carecía de conocimientos matemáticos suficientes como para formalizar sus observaciones de manera que pudiesen ser expresadas en términos matemáticos. Hizo falta esperar 100 años para que otro eminente científico, James Maxwell, formalizara las observaciones de Faraday en sus ya famosas ecuaciones del campo electromagnético. El desconocimiento matemático de Faraday le costó, como poco, la tediosa tarea de describir en lenguaje natural sus conclusiones, con la consiguiente ambigüedad que esto conlleva, además del gasto desmesurado de papel, y con el consiguiente retraso que, hasta cierto punto, esto supuso para su disciplina.

Me disculpara el lector este comienzo tan poco usual, pero teniendo en cuenta la pertinencia del ejemplo con el tema que aquí nos ocupa, junto con el hecho de que nos encontramos en el Año Mundial de la Física, he pensado que era una buena forma de comenzar esta mini-reflexión sobre la importancia de las Matemáticas en la Documentación. Y es que desde mi perspectiva, siempre parcial, de lo que es la Documentación hoy en día, creo que gran parte de los documentalistas se encuentran en una situación muy similar a la del afamado científico inglés al que hacíamos referencia en la introducción, lo cual no deja de ser curioso y hasta cierto punto paradójico, si seguimos un poco la pista al desarrollo de la Ciencia de la Información en los últimos 60 años.

[Leer más...] Información = Matemáticas

Cómo citar este artículo:
Pérez-Agüera, José-Ramón. “Información = Matemáticas“. Anuario ThinkEPI, 2007, v. 1, pp. 127-129.

2 respuestas a Información = Matemáticas

  1. LO QUE OTRAS DISCIPLINAS PUEDEN APORTAR A LA DOCUMENTACIÓN

    Por Jorge Serrano Cobos

    Aprovechando el mensaje de Jose Ramón y conectándolo con los de Teresa, Amalia, etc, sobre tags, folksonomies, sociología, Luhman, etc, si sirve de algo una opinión, por mí por favor, haced referencia en la lista a todos esos temas y más.

    Tengo un compañero de trabajo que es físico, y con él me he enterado de la la entropía de la información (ver http://club.telepolis.com/ohcop/bb7.html) o de la teoría cuántica de la información (http://www.tendencias21.net/index.php?action=article&id_article=67988). Todo es ponerse las pilas con el tema a ver qué nos aporta.

    La cuestión, creo yo, es aprender qué podemos aplicar de forma práctica de esas disciplinas en nuestro trabajo y luego, como dice Jose Ramón, qué podemos aportarles desde la Documentación (como han hecho Rosenfeld y Morville en el campo del diseño web, por ejemplo).

    Lo único que necesitaríamos (al menos un servidor) es que se tenga en cuenta que muchos lo miraremos desde la óptica y el sesgo de la lista, y que muchos no habremos hecho carreras específicas de cada temática (hacen falta unos cuantos clones, vaya) ni tenemos mucho tiempo. Pero el saber, al menos con el Gmail, no ocupa -tanto- lugar ;-)

    Un abrazo y buen veranito.

  2. ENTROPÍA, TEORÍA DE LA INFORMACIÓN, CAOS…

    Por Teresa Silio

    Hola Jorge y co-listeros

    Por alusiones, animo a Amalia a que mande su interesantísimo mensaje sobre teoría de la comunicación, Luhman y Habermas, y me refiero a lo que decía Jorge, la Teoría de sistemas de Von Bertalanffy, creada con el afán de tipificar las relaciones (comunes) que existen entre sistemas de distintas disciplinas. Esta teoría unifica sistemas formados por elementos y relaciones, que son equivalentes desde un punto de vista interdisciplinar. Ahí va una idea: la web tiene una
    estructura recursiva (se repite) y es autosimilar (Berners Lee) y el lenguaje humano también tiene esas cualidades, o sea, que ambos tienen las mismas estructuras a grandes y pequeños niveles. Esto puede ser considerado como un tipo de ordenación de la información.

    Y en cuanto a la entropía de la información, es lógica. La entropía (desorden) es una constante en todo el universo, es un principio físico (termodinámica), ¿por qué la entropía no debería formar parte de la información, si la información no es humana, es animal, es celular. Sin información no habría nada; la información y la comunicación permiten que dos entidades se relacionen, sean las que sean.¿Qué es un enlace? ¿Y un protocolo como HTTP? algo que COMUNICA.

    Cornella recoge como una de las leyes informacionales la Entropía de Shannon revisitada, por Ramon Bori (22/12/2004). Por si a alguien le interesa la TEORÍA DE LA INFORMACIÓN desde un punto de vista matemático, en
    http://www.dia.fi.upm.es/licenciatura/asignaturas96/teoria_de_la_informacion.htm se explica:

    La Teoría de la Información es una teoría matemática creada por Claude Shannon en el año 1948 y que forma la piedra angular sobre la que se ha desarrollado toda la teoría actual de la comunicación y la codificación. Esta teoría establece los límites de cuánto se puede comprimir la información y de cuál es la máxima velocidad a la que se puede transmitir información. La Teoría de la Información es, por tanto una teoría de límites alcanzables: máxima compresión de datos y
    máxima tasa de transmisión de información transmitida sin errores. Las aplicaciones de esta teoría son enormes y abarcan desde las ciencias de la computación (criptografía, aprendizaje), la ingeniería eléctrica (Teoría de la comunicación y teoría de la codificación), la estadística o la biología (secuencias de ADN, código genético). La última parte de la asignatura (Unidad Temática 6) estudia el hecho de que la información es algo que inevitablemente necesita un soporte
    físico sobre el que manifestarse. Así, se verá que la termodinámica sólo impone un coste energético mínimo a la operación de borrar información mientras que las restantes operaciones se pueden ejecutar de forma reversible.

    Siguiendo este estudio de la física de la información, la asignatura termina estudiando las diferencias entre la información clásica (bit clásico) y la información cuántica (bit cuántico). Los avances tecnológicos actuales y futuros harán que la informática trabaje con este nuevo tipo de información. La criptografía cuántica se muestra actualmente como una de las aplicaciones más prometedoras dentro de la Teoría de la Información cuántica.

    Si alguien ha llegado hasta aquí, ahí va este link donde se habla de Von Bertalnffy y Shannon y demás:
    http://pespmc1.vub.ac.be/CYBSWHAT.html.

    Y para acabar, la teoría del caos, la complejidad y los fractales: http://www.mathjmendl.org/chaos/.

    Saludos.