El error informático

Publicado el 14 noviembre 2012 por Moinelo @moinelo
¿Se equivocan los ordenadores?, ¿por qué la informática tiene esa mala imagen?, ¿por qué se achacan con total naturalidad errores graves a «errores informáticos»? ¿por qué no se solucionan? ¿acaso los ordenadores toman decisiones por su cuenta, como en las películas? ¿que clase de ciencia es la informática?
Algunas personas (paradójicamente suelen ser las no especializadas en informática) opinan que esta área de la ingeniería no es una «ciencia exacta», y que por ello la programación de estos dispositivos esta sujeta a ambiguos vaivenes político-sociales. Si bien puede haber algo de cierto en esto, no es debido a la propia tecnología en concreto.
El Mark II (1947) fue un proyecto construido en la universidad de Harvard y financiado por la Marina de los Estados Unidos. En su diseño y construcción participaron algunos de los mejores ingenieros y científicos del momento, tras la Segunda Guerra Mundial.     Hasta ese momento estas máquinas eran fiables y totalmente precisas, y sobre todo, hacían lo que se les pedía. Por ello, se utilizaban para tareas que requerían de gran seguridad y precisión, como trayectorias balísticas y órbitas de vuelos estratosféricos. Pero un día, el Mark II dejó de responder como se esperaba. No es dificil imaginar la sorpresa que experimentarían los científicos que lo manejaban, al comprobar como un ordenador matemáticamente preciso hasta ese instante, se «equivocaba».
La causa del error no fue que el programa hizo algo distinto para lo que estaba concebido. El Mark II no realizaba muchas operaciones (comparado con los actuales), pero las que hacía obedecían a un determinismo completamente científico. Cada línea de código debería estar validada según la lógica matemática, y debia ajustarse a la arquitectura física del ordenador, compuesta de circuitos electromecánicos regidos por las leyes de la física.     La causa del error fue ni más ni menos que una polilla. Un «bicho», bug en inglés. Al introducirse una de ellas en la enorme circuitería del voluminoso Mark II, impidió el funcionamiento de uno de sus miles de aparatosos relés electromagnéticos, que en los albores de la ingeniería informática, formaban la mayor parte de su interior. Desde entonces, cada «sorpresa» que dan los programas informáticos se le denomina como bug. Por lo mismo, depurar un programa se traduce en inglés como debugger (quitar los bichos).
La informática ha evolucionado hacia algo muy distinto de un proyecto científico y tecnológico como empezó siendo, como tampoco la propia Internet se parece a lo que en su día se pensó. Los programadores ya no son exactamente matemáticos o físicos, son en algunos casos, simples aficionados autodidactas. Los equipos se fabrican en serie, en abarrotadas fábricas en China, y las motivaciones que mueven a todos ellos son muy distintas de las de aquellos profesores de universidad, científicos y militares. Y por supuesto, los errores informáticos no son causados por «bichos».   Para entender lo que le ha pasado a la informática propongo explicar otra rama de la ingeniería: la Arquitectura. La Wikipedia la define al mismo tiempo como «Arte o técnica». Qué duda cabe que tiene algo de ambas. Para diseñar un edificio, hay que tener en cuenta la resistencia estructural del mismo, lo que implica el cálculo matemático de resistencias, tensiones, presiones y todo un gran número de parámetros físicos. Para su funcionalidad, hay que tener un gran conocimiento del entorno social y de los usuarios. Para su estética, hay que tener una sensibilidad y gracia especial. En resumen, la Arquitectura se compone de varias capas, desde la basada en la propia realidad fisica, hasta el más puro arte conceptual.   Con la informática es muy similar, con la diferencia que la gente no se mete dentro de los ordenadores y no existe el riesgo de que al derrumbarse, queden sepultados dentro de ellos. Por ello, nadie en su sano juicio dejaría en manos de una PC clónica con W95, el cálculo de la trayectoria de un satélite orbital, o la gestión de un sistema de monitorización médica a enfermos terminales. Sin embargo, la informática se utiliza, y bastante, en estas áreas, lo que pasa es que los criterios de calidad y márgenes de error que se utilizan en estos sistemas, no tienen nada que ver en absoluto con los de «ir por casa». A pesar de la lógica aplastante de este argumento continúa existiendo una gran confusión con este asunto.
  Como se ha visto, la informática parte de leyes físicas, ecuaciones matemáticas y proposiciones lógicas, básicamente. Todas ellas ciencias exactas. Sin embargo, su evolución y mejora de procesamiento, la ha llevado a realizar programas más complejos y para funciones muy diversas. Los programadores han de tener cierto «toque» personal, que en algunos casos podría considerarse alguna forma de arte. Y esto es debido a que los ordenadores no tienen que tratar únicamente con fórmulas matemáticas, sino que han de dedicarse a cosas como la llamada «interfaz gráfica de usuario».   Los recientes sistemas operativos dedican una gran parte del tiempo en el procesamiento de gráficos y en organizar la información para que el usuario sin preparación pueda utilizar un computador, algo que en los primeros años no era necesario, ya que antes de la aparición del ordenador doméstico, sus usuarios asumían que debian conocer las herramientas y adaptarse a ellas, y no al revés (cuando aprendemos a conducir un coche nos adaptamos su funcionamiento, y no al contrario).   Con los nuevos entornos gráficos iniciados por Apple en 1983, los requerimientos de consistencia lógico-matemáticos no eran los mismos que con los computadores dedicados al cálculo matemático y cuya forma de comunicarse era mediante tarjetas perforadas. Ahora lo importante es que el usuario tenga un escritorio con iconos bonitos. A partir de este momento el computador se convirtió en un producto comercial, alejándose de su pasado y comercializandose aún sabiendo que su código estaba sin verificar acorde a criterios científicos (es muy caro hacer esto), o directamente estaba repleto de errores (los Windows 95~XP). Sabían que al usuario no le iba a importar, bien por lo cool que era su producto, o bien porque se lo habían pasado en un DVD «pirata».   La excepción a esta situación podría ser el sistema UNIX, un SO (sistema operativo) creado por dos científicos del MIT. Este SO funciona como un reloj, es preciso y siempre hace lo que ha de hacer y lo que se espera de el, salvo ciertas tolerancias presentes en todo proyecto de ingeniería. Basándose en el han surgido otros SO que han heredado parte de su eficacia, pero al que le han añadido la mencionada interfaz de usuario personalizada a criterio de los programadores (Linux, Mac OS X).
Por tanto, el error informático no es debido a un «defecto», o a una «imprecisión» o característica propia e inherente a la informática. Ni tampoco es ineludible. Por el contrario, los problemas típicos de la informática son debidos a la introducción de criterios alejados de su naturaleza, fundamentalmente los comerciales.
Por regla general, allá donde los criterios de programación pasan por filtros comerciales, hacen que la informática pierda su caracter de ciencia y no se le pueda exigir la precisión que se pueda esperar de una de ellas. Salvo que se refleje en el contrato comercial, claro.  

Enlaces