Revista Comunicación

Límites éticos de la Inteligencia Artificial

Publicado el 16 noviembre 2021 por Ramón Ramón Ramón @ramonramon
Optimizar la logística, detectar el fraude, componer arte, realizar investigaciones, proporcionar traducciones: los sistemas automáticos inteligentes están transformando nuestras vidas para mejor. A medida que estos sistemas se vuelven más capaces, nuestro mundo se vuelve más eficiente y, en consecuencia, más rico. La Inteligencia Artificial está presente en nuestras vidas.

Gigantes de la tecnología como Alphabet, Amazon, Facebook, IBM y Microsoft -así como personas como Stephen Hawking y Elon Musk- creen que ahora es el momento adecuado para hablar del panorama casi ilimitado de la inteligencia artificial. En muchos sentidos, se trata de una nueva frontera tanto para la ética y la evaluación de riesgos como para la tecnología emergente. ¿Qué temas y conversaciones quitan el sueño a los expertos en IA?

Límites éticos de la Inteligencia Artificial

Pichai Sundararajan, más conocido como Sundar Pichai, consejero delegado de Google y Alphabet, destacó recientemente en declaraciones al Financial Times la necesidad de regular la inteligencia artificial (IA) para que se respeten los límites éticos.

Algunas tecnologías han estado causando debates éticos y políticos (tales como plásticos, los coches y la energía nuclear), al igual que notorios esfuerzos políticos para poder controlar la trayectoria que poseen, aunque usualmente esto ocurre después de que se hayan producido daños. Resulta de interés para la filosofía la forma en que estas nuevas tecnologías desafían los sistemas y normas conceptuales del momento.

Para cuando se comprende la tecnología, se le da forma a nuestras respuestas sociales (que incluyen el derecho y las regulaciones del mismo).

La prensa le ha dado una cobertura bastante considerable al tema de la ética y la robótica, al punto de que, aunque respalda las investigaciones que hay sobre el tema, por otra parte, trae a luz otro enfoque, puesto que la prensa habla como si estas cuestiones son únicamente debates de qué nos traerá la tecnología del futuro y como si supiéramos que es lo más ético y cómo llegar a ello. Recordad en este punto la cantidad de películas que abren el debate sobre la ética, la filosofía, la "humanidad" de los robots, lo terrible del control del planeta por las máquinas,....

Por ello es que la cobertura de la prensa se centra en unos aspectos específicos como: la seguridad, el riesgo y las predicciones de impactos (elecciones, mercados laborales, etc). El resultado de todo esto es una discusión de problemas sobre cómo obtener y lograr los resultados que se buscan.

Para que un problema pueda calificarse de problema para la ética de la IA sería necesario que no supiéramos fácilmente qué es lo correcto. En este sentido, perder el trabajo, robar o matar con IA no es un problema de ética, pero sí lo es saber si son permisibles en determinadas circunstancias. Este artículo se centra en los problemas genuinos de la ética en los que no sabemos fácilmente cuáles son las respuestas.

1. El desempleo. ¿Qué ocurre cuando se acaba el trabajo?

La jerarquía del trabajo se refiere sobre todo a la automatización. A medida que inventamos formas de automatizar los trabajos, podríamos crear espacio para que las personas asuman roles más complejos, pasando del trabajo físico que dominaba el mundo preindustrial al trabajo cognitivo que caracteriza el trabajo estratégico y administrativo en nuestra sociedad globalizada.

2. La humanidad. ¿Cómo afectan las máquinas a nuestro comportamiento e interacción? Los bots con inteligencia artificial son cada vez mejores a la hora de modelar la conversación y las relaciones humanas.

La IA se acerca más a nuestra piel que otras tecnologías, de ahí el campo de la "filosofía de la IA". Tal vez esto se deba a que el proyecto de la IA es crear máquinas que tengan una característica central de cómo nos vemos los humanos, es decir, como seres que sienten, piensan y son inteligentes. Los principales objetivos de un agente artificialmente inteligente probablemente sean la detección, la modelización, la planificación y la acción, pero las aplicaciones actuales de la IA también incluyen la percepción, el análisis de textos, el procesamiento del lenguaje natural (PLN), el razonamiento lógico, el juego, los sistemas de apoyo a la decisión, el análisis de datos, el análisis predictivo, así como los vehículos autónomos y otras formas de robótica.

2.2 Manipulación del comportamiento

Este hito es sólo el comienzo de una era en la que con frecuencia interactuaremos con las máquinas como si fueran humanos; ya sea en el servicio de atención al cliente o en las ventas.

Las cuestiones éticas de la IA en la vigilancia van más allá de la mera acumulación de datos y la dirección de la atención: Incluyen el uso de la información para manipular el comportamiento, tanto en línea como fuera de ella, de forma que se socava la elección racional autónoma.

Por supuesto, los esfuerzos por manipular el comportamiento son antiguos, pero pueden adquirir una nueva calidad cuando utilizan sistemas de IA. Dada la intensa interacción de los usuarios con los sistemas de datos y el profundo conocimiento sobre los individuos que esto proporciona, son vulnerables a los "empujones", la manipulación y el engaño. Con suficientes datos previos, l os algoritmos pueden utilizarse para dirigirse a individuos o pequeños grupos con el tipo de información que probablemente influya en estos individuos en particular. Un "empujón" cambia el entorno de forma que influye en el comportamiento de una manera predecible que es positiva para el individuo, pero fácil y barata de evitar (Thaler y Sunstein 2008). De aquí al paternalismo y la manipulación hay una pendiente resbaladiza.

Pichai afirma que ha llegado el momento de marcar los límites éticos para que el progreso no sea arbitrario, desordenado y perjudicial para los derechos de las personas.

Los diez principios para la "administración de las aplicaciones de IA" anunciados en el memorando son:

El mismo día que Pichai hablaba de la necesidad de regular la IA, la Casa Blanca publicaba un borrador de Memorándum para los jefes de departamentos y agencias ejecutivas sobre inteligencia artificial, como parte de una agenda establecida en febrero de 2019.

1. La confianza del público en la IA

2. Participación pública

3. Integridad científica e información de calidad

4. Evaluación y gestión del riesgo

5. Beneficios y costes

6. Flexibilidad

7. Equidad y no discriminación

8. Divulgación y transparencia

9. Protección y seguridad

10. Coordinación de las agencias

Sin lugar a dudas, la IA es uno de los temas estrellas en las relaciones humanas, en el día a día de las administraciones, las empresas, las instituciones y... ¿cómo no? la política.

En este día...


Volver a la Portada de Logo Paperblog