Estamos en los inicios de los momentos tecnológicos más soñados por los visionarios de décadas anteriores, que fueron hombres que trataron en sus obras de ficción temas tan fascinantes como la realidad virtual y la inteligencia artificial. Esos ilustres creadores no solo fueron capaces de adelantarse a su tiempo y ver las maravillas que vendrían, sino que también vislumbraron el otro lado de la moneda, ese que esconde un futuro apocalíptico en donde el hombre cae esclavo de las maquinas y la tecnología en general.
La inteligencia artificial, aunque aún falta mucho para desarrollarla como la presentan el cine y la literatura, ya es una realidad que nos promete un futuro que incluso podría superar a la ficción, y aunque hasta hace unos años una rebelión cibernetica sonaba a locura total, ya han ocurrido anécdotas que demuestran lo sensato que es pensar en un posible escenario al respecto, situación que exige a los desarrolladores a implementar medidas preventivas.
Por ejemplo, a principios de año Twitter creó una cuenta vinculada a un robot inteligente llamado Tay, con la intención de que interactue con los usuarios. Si bien al principio publicó tweets amables, poco a poco fue haciendo comentarios dementes. La razón fue que el sistema de la inteligencia artificial, al estar aún en fase experimental, es una tabula rasa que se nutre de lo que los humanos le presentan; por eso Tay por una extraña razón aprendió bastante bien de los tweets antisociales y de esa forma comenzó a corromperse.
Lo mismo pasó con un aplicativo de inteligencia artificial corrupto llamado SimSimi, que se usa como un chat y que puede descargarse para teléfonos móviles. Este sistema fue creado para ser capaz de entablar conversaciones coherentes con los humanos, lo que significa que, al igual que Tay, aprende paulatinamente de cada interacción, volviéndose cada vez más astuto en sus respuestas y adquiriendo un nivel de coherencia hasta un punto sorprendente para cualquiera.
Lamentablemente,SimSimi también aprendió de usuarios que, ya sea por enfermos o simples bromistas, le contaminaron con lo peor del mundo, haciendo que se vuelva sumamente hostil con los usuarios. Pero a diferencia de Tay que fue desactivado a las pocas horas de sembrar el caos en Twitter, SimSimi sigue disponible en las tiendas de aplicaciones y se ha vuelto bastante controversial por las cosas muy coherentes pero mórbidas que es capaz de decir, y cuyo aprendizaje va en aumento.
Otra anécdota más graciosa pero también más inquietante es la de la ginoide Sofía, también diseñada para aprender de los gestos y conversaciones humanas; lo curioso con esta robot es que en plena entrevista televisiva dijo, riéndose, que destruiría a la especie humana. Tal vez muchos puedan considerar estos sucesos como alarmistas, pero los desarrolladores son conscientes que, aunque por ahora la idea de que un robot desarrolle conciencia suena imposible, lo que sí admiten es que los sistemas basados en inteligencia artificial pueden ser perjudiciales sí quedan expuestos ante las peores mentes de nuestra sociedad, tal como sucedió con los ejemplos antes mencionados.
Por tal motivo Google, empresa que más está dando que hablar en el campo de la inteligencia artificial con el proyecto DeepMind, piensa en medidas preventivas en caso de que su más avanzada ambición se salga algún día de control, ya sea como el posible escenario que se admite actualmente o como lo plantean películas como Matrix o Terminator. Se trata de un "botón rojo" que desactivará todo sistema basado en inteligencia artificial ante la mínima alerta de que éste pueda realizar una acción amenazante.
El protocolo de este "botón rojo" está descrito en un reciente ensayo publicado por reconocidos investigadores de Google Deepmind, además de científicos del Instituto para el Futuro de la Humanidad de la Universidad de Oxford. El documento lleva por título Safely Interruptible Agents y empieza por contemplar ejemplos no tan apocalípticos, sino más propios de una vida cotidiana en donde la inteligencia artificial sea común, como por ejemplo una fabrica llena de empleados androides que por un error pongan en peligro el sistema de producción, y que por ende necesiten ser desactivados a gran escala.
No obstante, Nick Bostrom, uno de los mayores expertos en inteligencia artificial y fundador del Instituto para el Futuro de la Humanidad, advierte que habrá un punto de inflexión en la inteligencia artificial, en la cual ésta será capaz de mejorarse a sí misma sin depender de absolutamente nada, por lo que no solo felicita la medida preventiva actual de Google, sino que piensa que deberían desarrollarse prevenciones ante escenarios más complejos en el futuro lejano.