Desde la ley CERO hasta ASIMO parte I

Publicado el 16 octubre 2013 por Cosmoduende @cosmoduende

El tópico de la inteligencia artificial se ha tratado desde diversas perspectivas, ya sea como el ingenuo niño de madera de Carlo Collodi que quería ser de carne y hueso pues esto lo dotaría de “humanidad” o por relatos hebreos como “El golem de Praga”, brincando vertiginosamente a las letras de Asimov o asombrándonos en el campo practico de la robótica con la fantástica creación de la ingeniería Honda de aquel humanoide blanco que parece acercarnos cada paso que da a un futuro que solo habíamos sido soñado.

Hoy en día, que alcanzamos cada vez más deprisa al futuro, reflexionamos acerca de qué matices deberán ser considerados para el desarrollo de la tecnología, los campos principales en que debe ser aplicada en beneficio de todos y cuáles son las consecuencias positivas o negativas (tal vez hasta extincionistas) que podría traernos.

Sin duda el ramo del desarrollo de software para todo tipo de dispositivos, la robótica y la combinación de ambos, son de los más atractivos para los egresados de las ingenierías y que en su conjunto: aspecto físico y aspecto abstracto de la inteligencia artificial son los que en gran medida determinaran el futuro de la tecnología, es por ello que debemos definir ciertos parámetros para crear dicha tecnología de forma consciente.

Lamentablemente, parece que la ciencia acumula más rápido los conocimientos, que la humanidad la sabiduría.

El tema de la inteligencia artificial, engloba en sí mismo un reto no solo de construcción mecanico-electrónica, sino de autodeterminar su filosofía, pero el problema para realizar dicha tarea, comienza desde que accedemos al primer peldaño. No hemos podido definir con toda claridad lo que significa la inteligencia. Entendida como la capacidad de comprender, asimilar, elaborar información y utilizarla adecuadamente, la inteligencia, o mejor dicho, su concepto, todavía representa ciertas incomodidades entre los gremios de la psicología. De acuerdo a la definición más básica asentada unos renglones arriba, la ingeniería de software ha mostrado haber superado esos lineamientos, es eficaz al momento de capturar, manipular y almacenar información de todo tipo, desde cifras y estadísticas contables hasta la información personal contenida en las conocidas redes sociales de la web 2.0, procesar dicha información y regenerarla según las necesidades del usuario.

Podemos reconocer entonces que las maquinas creadas hasta ahora poseen inteligencia, al menos de una forma básica.

El siguiente conflicto radica entonces en cómo pueden ser estas mismas maquinas más sensitivas, al manipular la información, cómo comportarse de acuerdo a las preferencias de uno u otro usuario o aun más, como preveer lo que cierto usuario podría necesitar. Esta es una de las premisas para el desarrollo de la llamada web 3.0, una web semántica, manipulada ya no por humanos sino por agentes inteligentes de software que faciliten aun más el uso de internet y su adecuación al perfil de sus mismos usuarios. Pareciera que la evolución del pensamiento de maquina (los programas) que controlan el cuerpo (hardware) evoluciona en un sentido definido por la reducción de esa diferencia entre lo que hasta ahora conocemos como maquinas y los humanos, el uso de la razón. Dotar de independencia en la operatividad de los computadores hará nuestra vida mas cómoda y con mayor tiempo disponible para invertirlo en otros proyectos tecnológicos, este parece ser la dirección que sigue el desarrollo de software, programas que trabajen por sí mismos, que se autocorrijan y que creen, porque no, nuevos programas.