Revista Medio Ambiente

Ética e inteligencia artificial: ¿un mundo a dos velocidades?

Por Ne0bi0 @buenosviajeros

La inteligencia artificial (IA) ha pasado del laboratorio de investigación universitario a los equipos investigadores de las grandes empresas para convertirse en parte indispensable -y casi transparente- de nuestra vida diaria a una velocidad notable. No sólo sus éxitos, como las aplicaciones que analizan imágenes para detectar células potencialmente cancerosas o como soporte en el desarrollo de nuevos fármacos. También sus fracasos son noticia cotidiana. Hemos visto, casi en directo, el primer accidente fatal que involucró a un vehículo autónomo. El uso de tecnologías basadas en la IA para delegar la toma de decisiones humanas crea de manera inevitable nuevos riesgos de consecuencias tan imprevisibles como incontrolables.

Esto ha conducido a la Unión Europea a proponer su regulación. Nosotros sostenemos que intentar un sistema general de regulación de la IA es un primer paso que, entre otras cosas, da naturaleza jurídica al posible mal uso de estas tecnologías. También creemos que se deberían trabajar aquellos esquemas legales y regulatorios existentes que asignan responsabilidad al uso de la tecnología, y, por lo tanto, responsabilidad a las personas y a las compañías.

"Mientras se discute la normativa sobre IA, las grandes tecnológicas avanzan en propuestas que pueden hacerla obsoleta antes de que se apruebe"

La Unión Europea quiere abordar los riesgos generados por usos específicos de la IA mediante un conjunto de normas complementarias, proporcionadas y flexibles. Al tiempo, quiere liderar un consenso global entorno la estandarización de esta regulación por el bien común. Este enfoque busca aunar una legislación que salvaguarde los aspectos éticos, legales, socioeconómicos, culturales y los derechos humanos con el impulso a la investigación y a una capacidad industrial europea en el campo.

El elemento que va a permitir un funcionamiento adecuado de la regulación propuesta es la transparencia, la capacidad de explicar las decisiones de la IA, algo que no resulta fácil. La transparencia ex post a menudo se puede lograr mediante un análisis retrospectivo de las operaciones computacionales realizadas, y esto será suficiente, por ejemplo, si el objetivo principal es compensar a las víctimas de decisiones incorrectas. La transparencia ex ante presenta un reto mayor y puede -quizá, debe- limitar el uso de algunas tecnologías de aprendizaje automático, enclavadas en el llamado deep learning.

La Unión Europea propone clasificar los sistemas basados en IA en tres grandes categorías, en función del posible riesgo derivado de su uso. Define como 'tecnologías de riesgo medio' aquellos sistemas que interactúan con personas, son capaces de reconocer emociones y/o son usados para hacer identificación basada en medidas biométricas. El grupo de 'tecnologías de alto riesgo' son aquellos productos o componentes que pueden interferir con los derechos humanos y cuyo funcionamiento depende de decisiones tomadas por un modelo basado en la IA. Finalmente, están las prácticas que una máquina puede realizar y que han de ser prohibidas, aquellas que se refieren a la manipulación de los individuos, la explotación de personas o grupos vulnerables, las prácticas gubernamentales relacionadas con el llamado crédito social y, también, la identificación remota y persistente de individuos basada en medidas biométricas, salvo que sea autorizada por un juez o en situaciones de emergencia.

"Cabría preguntarse si no deberíamos ir más allá de la regulación, creando agencias no gubernamentales pero efectivas"

Paralelamente, mientras se discute la normativa, las grandes empresas tecnológicas avanzan en propuestas que pueden transformarla en obsoleta antes de que se apruebe. Tal es el caso de la IA en el edge -es decir, en el propio dispositivo- sin que los datos salgan a la nube. O propuestas como FLoC ( Federated Learning of Cohorts) destinadas a sustituir a las cookies por un sistema de clasificación que situaría a un usuario en diferentes grupos ya en el navegador, por lo que dejaríamos de ser perseguidos por anuncios ya que solo se sabría de nosotros que pertenecemos a un grupo de afinidad, una cohorte o grupo específico de usuarios. O mediante el enmascaramiento de datos a través del ruido en lo que se conoce como differential privacy. Aunque estas propuestas no tienen por objetivo sobrepasar la nueva regulación europea -ya que siguen existiendo aplicaciones de alto riesgo- sí cambian el terreno de juego que pasa de la nube con datos públicos al dispositivo sin compartición de datos.

La legislación propuesta por la Unión Europea se basa en la clasificación, en la evaluación ex ante de los procedimientos y ex post de resultados que no se ajusten a los deseados. Sin duda abundará en la documentación de los procedimientos y su control ex ante. Debemos, sin embargo, ser escépticos ante sus resultados, habida cuenta de experiencias previas como el Volkswagengate. La explicación ex post puede ser complicada.

Cabría preguntarse si no deberíamos tomar una página prestada del mundo de los hackers y del Open Source e ir más allá de la regulación, creando agencias no gubernamentales pero efectivas -un Apache o Numfocus para la vigilancia del código- de salvaguarda que, mediante competiciones de hackers y APIs abiertas, permitiesen una vigilancia activa y continuada de los sistemas y el hardware que los soporta. Son soluciones que han demostrado su eficacia, con gobernanzas claras y que permitirían, además, el nacimiento de código Open Source europeo -ya existe una primera plataforma llamada AI4EU- al servicio de la Administración y los ciudadanos, respetuosa con nuestros valores democráticos.

Esteve Almirall es profesor de Operaciones, Innovación y Data Sciences de Esade y Ulises Cortés es catedrático de Inteligencia Artificial en la UPC.

La entrada Ética e inteligencia artificial: ¿un mundo a dos velocidades? se publicó primero en Ethic.


Volver a la Portada de Logo Paperblog