Revista Informática

Complejidad artificial vs. improvisación natural

Publicado el 22 abril 2018 por Sesiondiscontinua
Complejidad artificial vs. improvisación natural«El optimismo da por hecho que, antes o después, todo irá a mejor automáticamente. La esperanza no se hace tantas ilusiones» (Charles J. Chaput, Extranjeros en tierra extraña, 2017).
Empiezo copiando lo que escribí en febrero de 2007 al iniciar la serie Nuevo Positivismo Digital: un automóvil jamás podrá captar la idea de que es necesario no chocar con otros automóviles o con obstáculos cuando circule; y que por mucho o muy bien que haya sido conducido, tampoco llegará a aprender ni siquiera los trayectos más habituales de su propietario (Douglas Hofstadter: Gödel, Escher, Bach: un eterno y grácil bucle, 1979).
La Inteligencia Artificial (AI, por sus siglas en inglés) se considera hoy un logro definitivo fruto de la evolución tecnológica, la culminación de un anhelo que la ciencia ficción llevaba décadas imaginando y que ahora esta generación ha convertido por fin en realidad. Lo cierto es que la AI no es más que una nueva vuelta de tuerca en la sofisticación de las instrucciones que reciben las computadoras; la diferencia con lo que hacían otros programadores hace diez años es la inmensa complejidad y extensión que alcanza el código de determinadas aplicaciones, favorecidas por el crecimiento exponencial de la capacidad de proceso, el abaratamiento del hardware y la consolidación de las comunicaciones digitales. De pronto, los divulgadores científicos, las empresas y los gurús dan por completado un ciclo y declaran inaugurado otro radicalmente nuevo y mejor: donde antes había código ahora hay «inteligencia», una entidad abstracta que alguien ha puesto ahí, que aprende sola y reacciona ante determinados imprevistos. La tentación de considerar algo así como dotado de juicio y/o razón es demasiado fuerte.
Las líneas de código de toda la vida han dado un salto cualitativo y se han convertido en algoritmos, una especie de protoconciencia que toma decisiones, sintetiza información y hace predicciones. Toda innovación de moda tiene detrás un algoritmo, y cada vez más se adentran en ámbitos y sectores que parecían cotos exclusivos del ser humano: el blockchain, buscadores, asistentes, modelos de predicción... Los algoritmos necesitan mucha información para funcionar y tomar decisiones: buscan y almacenan toda la información posible de su entorno, la ordenan, la categorizan, la cruzan y la proyectan antes de ofrecer un resultado. Y en esa información va includo, por supuesto, nuestro comportamiento virtual y real: datos de navegación, compras, búsquedas, preferencias... Podría pensarse que finalmente las máquinas se van a hacer cargo de las tareas más fastidiosas y aburridas, que nos van a suministrar todo mascado, listo para consumir sin esfuerzo acríticamente. Sin embargo, la AI está velando sus armas en mercados donde el retorno de la inversión es incuestionable; lo que aún está por demostrar es si esas aplicaciones están a la altura de las inteligencias naturales que las programaron:
1.-Desde el siglo XIX la santísima trinidad del primer capitalismo era «Tierra, Trabajo y Capital»; y a pesar de que Marx nos hizo comprender que íbamos directos al abismo por culpa de la táctica suicida de la acumulación primitiva (la expropiación de los medios de subsistencia para reintroducirlos en el mercado, transformados en mercancía) el modelo acabó imponiéndose por méritos. Este proceso de privatización forzosa acabó hace más de un siglo con el modo de vida agrario y la economía primitiva de las colonias de ultramar, favoreciendo la acumulación de capital que financió la industrialización. No es que la acumulación primitiva sea una condición necesaria para la consolidación del capitalismo, pero sí suficiente para el que emergió en la Europa del XIX.

A comienzos del siglo XXI, estamos experimentando los primeros efectos de un segundo proceso de acumulación: esta vez es la industrialización del siglo XX la que ha financiado la Nueva Economía. Esta economía basada en el conocimiento está acabando con las iniciativas locales y las políticas folk. No lo digo yo, lo dicen Alex Williams y Nick Srnicek en el libro Inventar el futuro. Poscapitalismo y un mundo sin trabajo (2017). La Nueva Economía ha empezado por delegar en los algoritmos las decisiones de compraventa de valores bursátiles, y aunque parece que funcionan razonablemente bien, ya se han producido algunos episodios inquietantes: en febrero de 2018, en la Bolsa de Nueva York, se desató el pánico a partir de una serie de órdenes de venta automáticamente compulsivas que provocó un descenso del índice de 1.600 puntos. No era la primera vez: en mayo de 2010 sucedió algo muy parecido. Las causas exactas de estas reacciones en cadena siguen sin conocerse, pero todo apunta a que las minuciosas instrucciones dadas a los robots no son lo suficientemente complejas como para considerarse, no ya inteligentes, sino «humanas». «Esperemos que dejar en manos de algoritmos las órdenes de venta en los mercados no acabe como Skynet en 'Terminator'». No lo digo yo, lo dice Jorge Marirrodriga en su artículo Los robots que no tiran bombas pero juegan en la Bolsa (2018).

2.-La AI también se ha consolidado en plataformas de opinión virtual como Twitter, Instagram o Facebook: el objetivo es conseguir que el usuario/consumidor pase el máximo tiempo posible conectado a las redes a la caza de descargas de dopamina en forma de «Me gusta», cuantas más, mejor. Y si proceden de personas cercanas y/o conocidas, aún más. No lo digo yo, lo afirma Sean Parker, creador de Napster y uno de los inventores --junto con Mark Zuckerberg y Kevin Systrom-- de esta nueva droga de diseño, capaz de elevar nuestro nivel de narcisismo hasta convertirlo en una sustancia tóxica, incluso letal.

Estas mismas plataformas, además, suponen un medio ambiente tecnosocial idóneo para la proliferación de bots, auténticos ejércitos de perfiles falsos, creados de forma semiautomática, agazapados en la sombra, a la espera de ser activados por su propietario para favorecer estados de opinión interesados. Estos bots son la solución darwiniana a que ha dado lugar el desinterés por la seguridad en la creación de cuentas de las principales plataformas sociales. No se utilizan para dar a conocer iniciativas sin ánimo de lucro, fomentar la solidaridad o transmitir valores cívicos, sino para propagar toda clase de informaciones abrumadoramente falsas y tendenciosas, así como noticias completamente lunáticas que la gente toma por ciertas por el mero hecho de tener muchos «Me gusta». Esa misma gente, después, se extraña de que los medios tradicionales no se hagan eco de esas mismas informaciones y entran en modo conspiranoide total (se autoconvencen de que les están escamoteando la verdad). No estamos ante un descubrimiento primordial, sino ante una reacción humana que se estudia en primero de sicología en todas las universidades del planeta. No lo digo yo, lo dice Christopher Wylie, un brillante cerebro y, al parecer, uno de los seres humanos incompletos que estaba detrás de los algoritmos de Cambridge Analytica, la empresa que generó toda clase de interferencias informativas en campañas como el Brexit, las presidenciales de EE UU de 2017, el referéndum de independencia catalán o la guerra de Siria. Este uso de la AI no es el fruto de un experimento que acaba mal, se desmanda o produce resultados imprevistos, sino que detrás hay políticos y empresas que lo han financiado porque obtienen un beneficio directo: a los primeros porque anhelan por encima de todo una opinión pública permanentemente favorable que les reporte votos; a las segundas porque buscan mantener una reputación intachable para sus marcas que no afecte a los ingresos, y que eso no tenga nada que ver con sus decisiones y con su gestión económica. El resultado de esta manipulación es que nos estamos convirtiendo en unos narcisistas conspiranoides gracias a la dopamina, las redes sociales --las mismas que, al nacer, aseguraron que iban a cohesionarnos como grupo y a hacernos la vida más agradable-- y nuestra nefasta costumbre de informarnos exclusivamente a través de ellas.

3.-La AI toca fondo con los deepfake: algoritmos capaces de superponer rostros (de famosas sobre todo) en vídeos pornográficos (podría hacerse con cualquier tipo de vídeo, pero se prioriza el género que mejores ingresos colaterales podrá proporcionar). Han proliferado tantas aplicaciones gratuitas y al alcance de cualquiera que Twitter, Reddit y Pornhub han tenido que prohibirlos.

4.-Incluso cuando el objetivo es loable y aparentemente inocuo, la AI obtiene resultados inesperados y desmitificadores: un algoritmo antiplagios ha sido capaz de detectar posibles fuentes de inspiración en escritores intocables como Shakespeare. Es bueno que podamos desmitificar o contextualizar el trabajo de ciertos artistas, lo triste es tener que utilizar la AI para detectar plagios en ensayos, tesis, conferencias y toda clase de publicaciones universitarias.


No sería la primera vez que de políticas y proyectos sociales bienintencionados surgen efectos indeseables no previstos: en Suecia, décadas de socialdemocracia dieron lugar a un Estado que logró sustituir el papel protector de la familia y de los allegados, todo con el objetivo de erradicar la pobreza y hacerse cargo de los más vulnerables. ¿El resultado? Una de las tasas de suicido más elevadas del mundo y una plaga de soledad que costará generaciones revertir. No lo digo yo, lo explica Erik Gandini en el documental La teoría sueca del amor. El secreto de la felicidad (2015).
Queremos que los algoritmos hagan todo por nosotros: porque somos unos perezosos congénitos, porque nos aterra la incertidumbre y buscamos seguridades a cualquier precio, porque ofrecer ambas cosas al usuario/consumidor es garantía de beneficios económicos y porque se puede hacer con recursos amortizables y patentables. El problema es que, a medida que las instrucciones que volcamos en los programas se hacen más y más complejas ahondamos en el uso miserable más que probable que vamos a hacer de ellos: drones de rastreo (capaces de vigilar a una persona sin que se entere), sistemas que buscan y explotan vulnerabilidades en otros sistemas, generación de audio y vídeo de forma autónoma... Es el incremento exponencial de la complejidad de las instrucciones lo que nos lleva a confundir los resultados que proporcionan los algoritmos con un comportamiento inteligente, cuando lo cierto es que no pasa de ser altamente sofisticado. Y es que, como dice Ángel Luis Sucasas, «La inteligencia artificial no va a ser más inteligente que nosotros». A veces olvidamos que los ordenadores procesan información, que no saben (ni pueden) situarse fuera del código que los mantiene en funcionamiento ni reescribirse para corregir errores o adquirir nuevas capacidades. Décadas de progreso aparente para desembocar otra vez en la paradoja del vehículo (¿inteligente?) de Douglas Hofstadter...

Volver a la Portada de Logo Paperblog