Revista Economía
Del 07 al 11 de Octubre se realizó en Madrid el festival VivAmérica, festival de ideas, en el cual entre muchas otras actividades se desarrollaron un ciclo de charlas denominado TEMAS ,y que trataron sobre Tecnología, Educación, Medios, Arte y Sociedad. Una de esas charlas, en el tema de Tecnología, fue la de "Seducciones de la Informática" ofrecida por Ricardo Galli, donde con el motivo de explicar que las redes sociales [on line] son una evolución esperada de las comunicaciones humanas, realiza una aproximación científica al mundo de la informática, viajando entre conceptos como la evolución del lenguaje, el papel de la física y la teoria de la información (ver video de la charla).
A continuación un resumen (adaptado) de la nota publicada por Ricardo Galli en su blog:
El ADN es el primer método de almacenamiento del conocimiento, luego está el Cerebro que nos permite almacenar más conocimiento de lo que se hereda en el ADN. El conocimiento es muy volátil, pero podemos cambiarlo rápida e intencionalmente. Podemos aplicar ese conocimiento para afectar y modificar el mundo. Con el paso del tiempo, el hombre descubre que a través de máquinas y herramientas se puede almacenar mayor conocimiento, y es así que van surgiendo nuevos medios de almacenar y distribuir ese conocimiento, como los Libros. La invención de la imprenta permite nuevas formas de depositar y acceder al conocimiento que hasta ese momento estaban confinados al cerebro. Hizo al conocimiento portable en el tiempo y en el espacio. Este tipo de conocimiento es muy persistente, pero de actualización lenta. Posteriormente aparece el Software: la última forma conocida para almacenar el conocimiento. Este software nos permite almacenar conocimiento en un nuevo formato digital. Multitud de personas están trabajando para obtener información de las fuentes más diversas, comprenderla, clasificarla y trasladarla a este medio, y entonces intentan validar todo ese conocimiento. Hay una razón para que se invierta tanto esfuerzo, este medio tiene las características que deseamos y que no tienen los otros medios: es intencional, persistente, de actualización sencilla y rápida, y sobre todo es activo.
El ser humano es único, hemos sido capaces de comunicarnos, de compartir información sobre nuestros deseos e intereses, de cultivar la empatía. Así pudimos establecer objetivos colectivos a corto plazo, en beneficio de otros a más largo plazo. Con el curso de la evolución (El origen de las especies de Charles Darwin) surgió un cerebro que fue capaz de mirar al mundo y preguntarse ¿Por qué estamos aquí?. Ya no teníamos que limitarnos a lo que la naturaleza nos diga. Pudimos pensar en metas de acuerdo a nosotros, y desarrollamos una herramienta para expresar estas metas: el lenguaje. El hablar nos permite compartir metas. Y la criatura capaz de comunicar sus metas empieza a pensar intencionalmente, a actuar intencionalmente, a crear intencionalmente. a través del lenguaje nuestras metas pueden tomar una vida más allá de cualquier individuo. Empezamos a desarrollar tecnología, la tecnología permite al ser humano realizar sus objetivos con gran eficacia. Y cuando los seres humanos persiguen una meta, ellos mismos fuerzan el paso de la evolución. Ésta es una forma completamente nueva de evolución, no evolución genética.
En 1948, Claude Shannon, publicó el artículo “Una teoría matemática de la información”, que dió origen a lo que hoy conocemos como “Teoría de la Información”. Ese modelo permitió avances radicales en la transmisión y codificación de datos, y es la base de todas las comunicaciones modernas: la radio, televisión, satélites, teléfonos, Internet. La idea central de la Teoría de la Información es la entropía. Entropía e información están relacionadas íntimamente, de hecho entropía es una medida de la información. En 1951, inspirado por la teoría de la información, Léon Brillouin trató de explicar que la entropía de Shannon y la entropía termodinámica estaban ínitimamente relacionadas, aunque la teoría de la información provee una perspectiva diferente.
La naturaleza intenta disipar la información tanto como intenta aumentar la entropía: las dos ideas son los mismo.En la década de 1930 Alan Turing demostró que una máquina que pudiese grabar símbolos en una cinta, borrarlos y mover esa cinta ,puede hacer lo mismo que cualquier ordenador concebible. Un ordenador, o el cerebro, no es más que una máquina de procesamiento de información y por lo tanto sujeta a la Teoría de la Información: manipular esos bits de información está ligado al consumo de energía y entropía. Así, los científicos se dedicaron a investigar cuánta energía y entropía se consume o produce cuando se manipulan bits, era el primer paso para entender cómo trabajan los ordenadores y el cerebro. Más adelante se dejó claro que no podría haber máquinas de movimiento perpetuo … demostrado con las ciencias y la teoría de la información.
Finalmente llegamos a pensar que se puede ver el Universo como un gran ordenador. La complejidad de nuestro universo se explica desde el punto de vista del azar. Como explicar Seth Lloyd en Programming the Universe, esta complejidad es fácilmente explicable desde el punto de vista de la teoría de la información si se considera al universo como un gran ordenador cuántico. Se puede explicar el origen de dicha complejidad a partir de eventos aleatorios producidos por las flutuaciones cuánticas (principio de incertidumbre de Heisenberg,- es imposible fijar a la vez la posición y el momento de una partícula, debido a su naturaleza de onda, una partícula no necesita estar en un sitio determinado).
Todo lo que forma el Universo son bits, y al final de lo que se trata es de qué hacemos con esos bits. Entonces, hemos sido capaces de usar esos bits de información para interelacionarnos y comunicarnos con nuevas herramientas, nuevas formas de comunicación llegando a lo que ahora tenemos en las comunidades online, pero solo es un paso más y seguramente en un futuro próximo seguiremos cambiando, descubriendo , inventando nuevas cosas.