Revista Jurídico

Inteligencia artificial: entre el oxímoron y la ley

Por Gerardo Pérez Sánchez @gerardo_perez_s

Inteligencia artificial: entre el oxímoron y la leyEl Parlamento Europeo aprobó el pasado 13 de marzo por 523 votos a favor, 46 en contra y 49 abstenciones la denominada “Ley de Inteligencia Artificial de la Unión Europea”. Bien es cierto que, de entrada, existe la polémica sobre si se puede afirmar con rigor que una máquina pueda tener la cualidad de la inteligencia. De la misma manera que la expresión “realidad virtual” supone una contradicción en sí misma (si es virtual, no es real), se defiende por parte de varios sectores humanistas y filosóficos que una máquina no puede ser inteligente, dado que, como artefacto programado, actúa mecánicamente conforme a su programación, sin que tenga capacidad de entender, aprender, pensar y crear, al menos no como tales verbos fueron concebidos, es decir, como habilidad del ser humano (o de otro ser vivo) autónomo e independiente. Pero, dejando a un lado el posible oxímoron de base que nace del asunto en cuestión, lo cierto es que la norma aprobada intenta dar respuesta normativa a un problema (o a una oportunidad) que no podemos ignorar.

En cualquier caso, la norma europea se enfrenta a la “inteligencia artificial” como un riesgo a controlar. Ya en 2017, el Consejo Europeo instó a «concienciarse de la urgencia de hacer frente a las nuevas tendencias, lo que comprende cuestiones como la inteligencia artificial […], garantizando al mismo tiempo un elevado nivel de protección de los datos, así como los derechos digitales y las normas éticas». En 2019 el Consejo de la Unión Europea destacó la importancia de garantizar el pleno respeto de los derechos de los ciudadanos europeos y pidió que se revisase la legislación pertinente en vigor, con vistas a garantizar su adaptación a las nuevas oportunidades y retos que plantea la IA. El reto es regular o controlar la opacidad, la complejidad, el sesgo, cierto grado de imprevisibilidad y los comportamientos parcialmente autónomos de ciertos sistemas de IA, para garantizar su compatibilidad con los derechos fundamentales y facilitar la aplicación de las normas jurídicas.

Buena parte de la norma se halla destinada a prohibir. Así, expresamente se prohíbe:

  1. a) La introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que se sirva de técnicas subliminales que trasciendan la conciencia de una persona, para alterar de manera sustancial su comportamiento de un modo que provoque, o sea probable que provoque, perjuicios físicos o psicológicos a esa persona o a otra.
  2. b) La introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que aproveche alguna de las vulnerabilidades de un grupo específico de personas debido a su edad o discapacidad física o mental, para alterar de manera sustancial el comportamiento de una persona que pertenezca a dicho grupo de un modo que provoque, o sea probable que provoque, perjuicios físicos o psicológicos a esa persona o a otra.
  3. c) La introducción en el mercado, la puesta en servicio o la utilización de sistemas de IA por parte de las autoridades públicas o en su representación con el fin de evaluar o clasificar la fiabilidad de personas físicas durante un período determinado de tiempo, atendiendo a su conducta social o a características personales o de su personalidad conocidas o predichas, de forma que la clasificación social resultante provoque una o varias de las situaciones siguientes:

i)un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos enteros en contextos sociales que no guarden relación con los contextos donde se generaron o recabaron los datos originalmente.

ii)un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos enteros que es injustificado o desproporcionado con respecto a su comportamiento social o la gravedad de este.

  1. d) El uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público, salvo que dicho uso sea estrictamente necesario para alcanzar uno o varios de los objetivos siguientes:

i)la búsqueda selectiva de posibles víctimas concretas de un delito, incluidos menores desaparecidos.

ii)la prevención de una amenaza específica, importante e inminente para la vida o la seguridad de las personas físicas o de un atentado terrorista.

iii)la detección, la localización, la identificación o el enjuiciamiento de la persona que ha cometido o se sospecha que ha cometido determinados delitos.

Pero, obviamente, el problema y los retos no son europeos sino mundiales. El 30 de octubre de 2023, el presidente de los Estados Unidos Joe Biden emitió la denominada “Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence”, donde se proclama que el Gobierno Federal tratará de promover principios y acciones responsables de seguridad y protección de la IA con otras naciones, para garantizar que la IA beneficie a todo el mundo en lugar de exacerbar las desigualdades, amenazar los derechos humanos y causar otros daños.

España, por su parte, dio luz verde recientemente el Real Decreto 729/2023, de 22 de agosto, por el que se aprueba el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial. Corresponde a esta Agencia llevar a cabo tareas de supervisión, asesoramiento, concienciación y formación dirigidas a entidades de derecho público y privado, para la adecuada implementación de toda la normativa nacional y europea en torno al adecuado uso y desarrollo de los sistemas de inteligencia artificial, más concretamente, de los algoritmos. Además, la Agencia desempeñará la función de inspección, comprobación, sanción y demás que le atribuya la normativa europea que le resulte de aplicación y, en especial, en materia de inteligencia artificial.

Parece evidente que nos encontramos ante un momento crucial en la historia de la Humanidad, uno de esos puntos de inflexión que determinará si las oportunidades que la nueva tecnología nos ofrece serán usadas en beneficio de la prosperidad común o se destinarán a nuevas formas de control, represión y discriminación. No es ciencia ficción. Se trata de nuestro presente y nuestro futuro.


Volver a la Portada de Logo Paperblog