Atractivo porque la tecnología a que se refiere, la Inteligencia Artificial, es en sí misma transformadora, poderosa y, sobre todo, cautivadora y sugerente.
Atractivo porque la ética también, si se prescinde de estudios eruditos en exceso, está muy cerca de nuestro día a día, de aquello que nos preocupa e interesa. La combinación de ambas, pus, parece que no puede resultar otra cosa que enormemente magnética.
En parte así es aunque creo que sólo en parte.
Y sólo en parte porque, con todo y su innegable atractivo, tanto la inteligencia artificial como la ética son dos disciplinas no sencillas, con muchos conceptos y muchas ideas. La sensación de 'zapatos nuevos' puede desaparecer pronto cuando se intenta profundizar.
Aun así creo que sí, que el campo de la ética en inteligencia artificial resulta atractivo, muy atractivo.
La paradoja del atractivo
Pero en buena medida, ese atractivo, unido a la dificultad real que la disciplina implica, conlleva un riesgo, un grave riesgo.
El riesgo que aqueja a este campo de trabajo es el de la superficialidad. La superficialidad, el 'postureo' e incluso la demagogia.
Es muy fácil caer en tópicos simplistas, en exacerbar injustificadamente temores a la tecnología o proponer soluciones que no son tales sino puro 'buenismo' sin base y sin posibilidades de convertirse en nada realmente útil, práctico, accionable, con impacto real.
Cuando hace unos pocos años comencé a interesarme por la ética en inteligencia artificial, la verdad es que lo primero que me topé tenia mucho que ver con esto: muchos posts, artículos y webinars que hacían poco más que repetir y repetir, casi los mismos típicos y tópicos riesgos asociados a la inteligencia artificial y el vago deseo de una visión ética y humanista.
Y nada más.
Y así una y otra vez.
Y llegue a temer que no saliésemos de esa especie de círculo vicioso, de ese repetir machaconamente las mismas preocupaciones y deseos sin dar un paso adelante, sin un plan de acción, sin el más leve progreso.
Vías para operativizar la ética en Inteligencia artificial
Por suerte, hoy no tengo la misma visión.
Bueno, seamos claros, sigue existiendo mucho discurso prefabricado, superficial, vacío e incluso incorrecto.
Pero también hay trabajo del bueno, del que hace avanzar, del que puede proporcionar resultados reales, del que puede conseguir, de hecho, una mayor ética en el uso de la inteligencia artificial.
Aunque seguramente haya alguna vía adicional, creo que para llevar a la práctica la ética en inteligencia artificial existen dos vías principales: la vía legal y la vía que denomino técnico-metodológica.
La vía legal
La vía legal es, en cierto sentido, la más fácil de entender de las dos. Digo fácil en el sentido de entender por qué operativiza la ética, no que la legislación y el derecho sean realmente sencillos de entender para el profano.
En algún foro he dicho que con frecuencia la ley actúa como 'el brazo armado de la ética'. Si, de acuerdo, es una figura retórica y es una simplificación, pero creo que no está tan descaminada.
¿A qué me refiero?
La ética, a pesar de todas sus variantes, vertientes e interpretaciones, en el fondo tiene un poso común de unos valores o formas de entender la vida que llevan a determinar que unos comportamientos sean buenos y otros malos. Y que, por tanto, deseemos promover los comportamientos buenos y evitar los malos.
La ley, en cierto sentido, recoge esos valores, o al menos los consensuados, o al menos, en un siguiente paso de reducción, los que exhiben los grupos mayoritarios en un régimen democrático. En cualquier caso, recoge unos valores, deduce los comportamientos adecuados e inadecuados y promueve los comportamientos buenos y, sobre todo, prohíbe y castiga 'los malos'.
En esa labor, de alguna forma, la ley 'baja a tierra' a la ética, la convierte en algo tangible, en normas más o menos claras y en mecanismos para incentivar o desincentivar los comportamientos adecuados o inadecuados, buenos o malos.
Con la ley, y a pesar del margen a la interpretación que por desgracia exhibe, pasamos del debate abstracto que domina la ética como disciplina filosófica, a la concreción normativa que regula la actividad diaria y las relaciones entre personas y entre instituciones.
Es, en ese sentido, una forma de operativizar la ética, más o menos afortunada según el caso.
Y, en el caso de la Inteligencia Artificial, la Unión Europea lleva dando pasos firmes en materia de orientar de momento, y seguro que regular y legislar después, diversos aspectos relativos a la Inteligencia Artificial, su uso correcto o incorrecto, admitido o no. Lo más avanzado en esa línea, de momento, es el borrador de reglamento de la inteligencia artificial. Pero vendrá más, sin ninguna duda.
No voy a entrar en el debate de si ese reglamento es acertado o no. Hay opiniones. Pero lo que sí me parece claro es que si queremos que la ética en inteligencia artificial sea algo más que debates, artículos y webinars, una forma necesaria de operativizarla, tiene que ver con el establecimiento del marco regulador que garantice los comportamientos adecuados, al menos en lo relativo a aquellos valores que hayamos sido capaces de consensuar o en su defecto considerarlos mayoritarios.
Creo que es una necesidad pero tampoco se me oculta, que la ley tiene alguna limitación a la hora de implementar principios éticos en la tecnología.
La limitación que resulta acaso inevitable, es que tiene un cierto carácter reactivo. La tecnología va siempre por delante y los problemas éticos que puede plantear, caso de ser novedosos, también. Hay mecanismos legales para intentar con legislaciones existentes hacer frente a nuevos fenómenos, pero algo me dice que esa forma de actuar, aunque quizá correcta e inevitable a corto plazo, no es óptima.
Otra posible limitación del enfoque legal es que tiene tendencia, que no obligación, a ser de tipo limitativo, a poner barreras, a prohibir, a frenar. Muchas veces será inevitable e incluso correcto, pero para aquellos que amamos la tecnología y la innovación siempre nos quedará un 'regusto' de temor de ver qué van a prohibir o qué van a exigir.
Con todo y todo, insisto en el mensaje principal: una de las vías, y muy importante, para operativizar la ética de la inteligencia artificial es la legal-normativa.
Y en ese campo, no sé si al paso adecuado, no sé si al cien por cien en la dirección mejor, pero sin duda avanzamos.
La vía técnico-metodológica.
Pero hay otra vía que, quizá por ser ingeniero, me gusta mucho, mucho más.
Y por cierto, de la que se habla mucho, mucho menos.
Se trata de aplicar tecnología y metodología para resolver algunos de los retos éticos que se plantean en el campo de la inteligencia artificial, típicamente la privacidad, los sesgos y la explicabilidad.
Ya en un artículo publicado en este mismo blog y titulado '¿Y si el sesgo algorítmico se reduce a un problema de muestreo?' apuntaba a las situaciones en que el famoso sesgo se produce, no por maldad del desarrollador, no por maldad de su empresa y no, por supuesto, por una intención oculta del algoritmo. No, por tanto, por ningún problema de fondo ético o de valores, sino por un mero error metodológico, un error, en ese sentido, corregible y prevenible en el futuro.
Creo que, en muchos casos, o bien los errores, sobre todo sesgos, se producen por errores de metodología y procedimiento, o bien, como ocurre en los propios sesgos, en ciertos aspectos de la privacidad o en la explicabilidad, la propia tecnología e incluso la propia metodología, nos pueden proporcionar herramientas para minimizar o incluso evitar el problema.
Me ha gustado mucho en ese sentido, el enfoque que adoptan Mónica Villas y Javier Camacho en su libro 'Manual de ética aplicada en inteligencia artificial'. En el libro nos hablan también de la vía legal, en especial de las iniciativas dela Unión Europea, pero cuando tratan algunos de los principios, nos aportan, una detrás de otra, las metodologías, técnicas y algoritmos para evitar el problema ético o minimizarlo. Insisto: los algoritmos, tecnologías y metodologías para evitar el problema ético.
Así, hablando de privacidad y anonimización nos hablan de integridad contextual, transparencia estructurada, privacidad diferencial, encriptación homomórfica o aprendizaje federado.
A propósito de la equidad y la evitación de sesgos, nos presentan una amplia batería de métricas de equidad, diferentes formas de analizarlas y enfocar la equidad con base en estas métricas e incluso herramientas de mercado.
Y en lo relativo a explicabilidad, nos presentan, de nuevo modelos de explicabilidad y, de nuevo, herramientas de mercado.
Llamo la atención, para aquellos que piensen que los ingenieros, matemáticos y científicos de datos son incapaces de un pensamiento ético, que todo este tipo de herramientas y algoritmos son plenamente técnicos, obra de los mismos desarrolladores, ingenieros, matemáticos y científicos de datos a los que a veces parece que se les supone, creo que con mucha simpleza y muy injustamente, faltos de la más mínima inquietud ética. Ya pedí para ellos hace unos meses, y lo vuelvo a hacer ahora 'el debido respeto'.
Y esta vía técnico-metodológica, caso de tener éxito, es sin duda la mejor, es la que evita el problema de raíz, incluyendo, como reza la aspiración, la 'etica por diseño', aunque eso no sea óbice para seguir necesitando el marco normativo, porque no siempre la visión técnica-metodológica evitará todos los males, desde luego no lo hace hoy en día, y, además, dada la naturaleza humana, es imposible evitar el abuso, la negligencia y el uso malicioso por mucha tecnología y metodología que tengamos.
Conclusiones
Cuando somos serios, cuando queremos ir más allá del discurso vacío, efectista, demagógico y sensacionalista, o cuando queremos superar el debate por el debate, cuando de verdad, de verdad de la buena, queremos conseguir alcanzar un uso ético de la inteligencia artificial, como probablemente de cualquier tecnología, e incluso otros muchos campos no tecnológicos, existen vías, fundamentalmente la legal-normativa y la técnico-metodológica, para pasar de las palabras a los hechos, para conseguir resultados, para llevar a la practica y para operativizar, en definitiva, esa ética de la inteligencia artificial a la que se supone que aspiramos.