Revista Tecnología

Cuando la tecnología nos amenaza #Hackeaelsistema

Publicado el 07 agosto 2017 por David Ormeño @Arcanus_tco

La inteligencia artificial está en muchas cosas: predicción delictiva, búsqueda de tumores, traductores inteligentes, pronóstico del tiempo... No estamos ni cerca de un ataque de máquinas asesinas y tampoco queremos estarlo, por eso es importante leer con recelo los titulares, sin olvidar que los medios digitales buscan incentivar los clics de sus audiencias y que el miedo es una receta efectiva para lograrlo.

Esta última semana la prensa fue invadida por fotos de robots asesinos y titulares sobre el sistema de inteligencia artificial (IA) que debió desactivar Facebook, luego de que creara su propio lenguaje. Esta conjunción entre imagen y encabezado sugiere el terror que supone el hecho de que las inteligencias artificiales se salgan de control, levantándose contra la humanidad, intentando dominarla y destruirla. Sucedió en Terminator y en Wall-e; es posible en nuestras mentes asustadas.

La realidad detrás de esta noticia es, simplemente, que dos inteligencias artificiales se enviaban mensajes tomando palabras y turnándose en responder. Palabras al azar sin más sentido, solo recibir y responder; los pobres Alice y Bob ni se enteraron del problema. No estamos frente a mentes pensantes autónomas ni cerca de eso. Todavía falta mucho trabajo e investigación para que que una IA pueda tomar decisiones razonadas a nivel humano. Recién podemos lograr que analicen, seleccionen o aprendan una cantidad incontable de patrones, que jueguen al ajedrez o seleccionen material en Marte, pero eso no equivale a pensar por cuenta propia, solo nos lleva a entender que si ponemos mucha información en un programa de IA, este responderá ante estímulos o siguiendo el código de su programa o, con suerte, dará respuestas aleatorias.

Un buen ejemplo de esto es Cleverbot y su capacidad de aprender de las conversaciones que va teniendo con quienes se animan a escribirle, entrando en el interesante mundo del machine learning en vivo y en directo. Pero si queremos ir hasta los actuales reyes de la IA debemos entrar al traductor de Google y maravillarnos con las mejoras que se generan a través de este mismo aprendizaje, ante la interacción de millones de usuarios de una multiplicidad de idiomas alrededor del globo.

Cuando la tecnología nos amenaza #Hackeaelsistema

¿Acaso el sistema detenido por Facebook es un caso más de noticias falsas? Sí y no. Estas noticias solo se encargan de abrir nuestra imaginación y recordarnos lo que nos ha enseñado la ciencia ficción, base y motor de la creación científica, de la misma internet y de otros inventos e ideas geniales: "si puedes imaginarlo, puede llegar a existir". Solo pensemos en la película Her, casi tan real como una nueva actualización de nuestros computadoras y dispositivos: la ideal asistente personal virtual que, como ha analizado y creado todas las conexiones posibles con los datos del protagonista, sabe perfectamente lo que necesita y cómo complacerlo.

Lo cierto es que no estamos ante robots asesinos acechándonos. No podemos pensar que las tecnologías son nuestros enemigos próximos y latentes. El problema con la tecnología es su utilización simplista para dar solución a problemas sociales: no todo puede solucionarse con tecnología. La delincuencia no se acaba con llenar de cámaras o drones (y menos empezar a programar robocops para apoyar a las policías mundiales).

El uso indiscriminado de cámaras y drones no soluciona de raíz el problema de la delincuencia, solo genera una falsa sensación de seguridad. Además ¿quién controla lo que se está grabando? ¿Dónde queda esa información y con quién se comparte? ¿Realmente deseamos que sepan dónde estamos en cada momento y a cada instante? Decir "no tengo nada que esconder" no es una respuesta válida cuando se vulneran nuestros derechos.

Tampoco podemos aceptar el uso desmedido de algoritmos para asuntos policiales; si tenemos un programa que nos ayuda a predecir delitos (ya que aprendió de los datos entregados sobre criminalidad), identificando a cierto tipo de personas como posibles criminales por su color de piel o vestimenta o ciertas zonas como focos de delincuencia, solo aumenta la discriminación y hace que se asignen mayores recursos en la seguridad o represión de ciertos sectores, formando guetos. Lo único que logra este tipo de políticas de seguridad es una exacerbada y desmedida generalización de acontecimientos delictuales y con ello seguir criminalizando a ciertas personas. Un buen ejemplo son los algoritmos policiales usados en Estados Unidos, que finalmente solo llevan más policías a lugares pobres, asumiendo por algunos datos que ahí se generará el próximo delito, provocando enfrentamientos que no sucederían si no se usaran estas tecnologías algorítmicas tan al pie de la letra.


Volver a la Portada de Logo Paperblog