Revista Ciencia

Tan "Deep" que no sabes ni cómo se "Learning"

Publicado el 10 abril 2020 por Scarioshr Óscar Huertas @ScariosHR

El Deep Learning es uno de los métodos de aprendizaje de la Inteligencia artificial. Se basa en un proceso de aprendizaje que utiliza muchos criterios o capas de decisión para ofrecer una solución final. Por decirlo de alguna forma te da una solución que, si no es correcta, ajusta poco a poco hasta ofrecer una solución óptima en base a varios criterios a la vez.

Son algoritmos automáticos estructurados o jerárquicos que emulan la inteligencia humana para obtener un resultado. La ventaja de este tipo de sistemas es que no requiere de una programación sino que el sistema es capaz de aprender por sí mismo a través de un entrenamiento. Este proceso está compuesto de redes neuronales artificiales entrelazadas que van procesando la información.

Las distintas capas de decisión permiten al sistema reconocer las cosas en distintos niveles de abstracción.

Estos sistemas se emplean hoy en día en traductores inteligentes, lenguaje natural hablado y escrito, reconocimiento de voz, reconocimiento facial y visión computacional, entre otros.

Podríamos pensar que ya estaría. Tenemos un sistema que aprende, ¿no?. Sin embargo el Deep learning tiene varios problemas hoy en día, digamos, retos a superar.

Por un lado se requiere un número bastante ingente de datos para alimentar el aprendizaje de la máquina. No siempre se cuenta con estos datos y por tanto la fiabilidad del sistema cuando se cuenta con pocos datos tiende a no ser muy buena.

Son sistemas poco transferibles de un problema o contexto a otro. Digamos que hay que crear uno para cada conjunto de situaciones o contextos.

Sucede además que no sabemos cómo la máquina ha llegado a una solución, y en algunos contextos es importante saberlo. Por ejemplo con los valores en la bolsa no solo queremos ordenadores eficientes que calculen el valor de una participación sino que además nos interesa saber en base a qué se toma esa decisión. Podemos traducirlo en que no sabemos cómo piensa la máquina. El hecho de que no se trate de un aprendizaje supervisado puede llegar a ser peligrosos.

Los sistemas de aprendizaje profundo pueden hacer ganar millones de euros en inversiones, detectar enfermedades o cualquier otra cosa que la industria necesite, pero podría llegar el momento, si no ha llegado ya, en que las máquinas o programas lo hagan sin que los humanos seamos capaces de comprender el razonamiento para hacerlo. Si la decisión es acertada no nos preocupa demasiado pero, ¿Y si sale mal?.

En ocasiones puede pasar algo tan anecdótico como que la IA de Facebook censure por "pornográfica" una escultura paleolítica como es la Venus de Willendorf. Es un episodio lamentable ya que la pornografía no la crea la figura sino la intención con la que la IA y las personas miren esa figura. Obviamente una figura realizada hace 30.000 años no tenía la intención de ser pornográfica entonces, ni la tiene hoy en día.

Tan

Sin embargo estos episodios no llevan a plantear la siguiente cuestión. Podemos saber quién desarrolló el algoritmo, pero ni siquiera esa persona o empresa sabrá cómo funciona ni cuál ha sido el proceso para obtener la solución por tanto antes una decisión punible, ¿Quién tiene la culpa?.

Algunas compañías como Google han creado programas que de alguna forma intentan ir hacia atrás en el tiempo y desentrañar los procesos tomados durante un proceso de deep learning. Es el ejemplo de Deep Dream, una máquina de reconocimiento de imágenes capaz de dibujar el coche que ha reconocido como tal. Las imágenes obtenidas son horrendas y distan mucho de ser una fotografía, pero por lo menos demuestran que en parte esos procesos son deducibles y son procesos no del todo inexpugnables.

El problema sin embargo es que los retos de hoy en día como la conducción automática requiere de tantas capas de y tal cantidad de nodos y funciones diferentes que sería difícil llegar a averiguar qué cálculos se han hecho para tomar la decisión de atropellar a un peatón o matar al conductor con un brusco volantazo.

Según el filósofo Nick Bostrom "La inteligencia artificial no es solo un accesorio guay o una cosita ingeniosa: es el último invento que el ser humano va a tener que hacer y ante el escenario de una explosión de la inteligencia, los humanos somos como niños pequeños jugando con una bomba. Así es el desequilibrio entre el poder de nuestro juguete y la inmadurez de nuestra conducta".

Todas estas reflexiones nos llevan a recordar obras como la de "2001: Odisea en el espacio" en la que la IA de la nave, HAL9000, es capaz de tomar decisiones que an en contra de la seguridad e integridad de los ocupantes de la nave.

Tan


Volver a la Portada de Logo Paperblog