No hablamos de normas industriales de calidad, estandarización o aspectos similares, evidentemente, sino que hablamos de normas de raíz fundamentalmente ética y que tienen que ver con el comportamiento de unos robots avanzados en su propia actividad y, sobre todo, en su relación con las personas.
Todavía estamos, al menos en mi opinión, en un estado muy incipiente y aún no muy aplicable de ese tipo de normativas o 'leyes' y, en realidad, las leyes que vamos comentar en el artículo no son leyes en absoluto (no en el sentido jurídico al menos) sino, más bien, principios de actuación o directrices éticas.
Me baso en este artículo en la pequeña recopilación realizada al respecto por Ángel Gómez de Ágreda en su libro 'Mundo Orwell: Manual de supervivencia para un mundo hiperconectado'. El autor se detiene, brevemente, en tres grupos de leyes.
Las archi-famosas leyes de Isaac Asimov
El primer grupo de leyes son, como casi no podía ser de otra manera, las archi-famosas leyes de la robótica de Isaac Asimov, unas leyes que definió por primera vez en el relato 'Círculo vicioso' publicado en 1942, pero que mencionó abundantemente en relatos posteriores. Estas leyes, por si el lector no las conoce todavía, establecen que:
- Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
- Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Asimov añadió posteriormente una cuarta ley, menos conocida, y que reza como sigue:
- Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.
Asimov establece estas leyes en un contexto literario y de ciencia-ficción y pensando en un mundo con una gran presencia de robots y, sobre todo, unos robots humanoides muy avanzados que rozan, si no caen de lleno, en lo que hoy llamaríamos super-inteligencia y que suponen haber cruzado, o estar a punto de cruzar, la frontera de la singularidad.
Siempre me ha llamado la atención que estas leyes que, como se puede comprender, son abstractas y futuristas, se propongan con tanta frecuencia como punto de partida de trabajos sobre ética o legislación en materia de robótica e inteligencia artificial.
Creo que eso demuestra dos cosas: por un lado el indudable genio y visión de Isaac Asimov y, por otro, lo 'verdes' que estamos actualmente aún en esa materia.
Las leyes adicionales de Marc Rotenberg
Ángel Gómez de Ágreda salta a continuación a la propuesta del abogado Marc Rotemberg, profesor de Derecho y Privacidad y presidente del EPIC (Electronic Privacy Information Center) Rotemberg añade a la formulación de Asimov, dos nuevas leyes, a saber:
- Los robots siempre deben revelar su naturaleza e identidad a los humanos cuando se les solicite
- Los robots siempre deben ser capaces de explicar sus procesos de toma de decisiones a los humanos cuando así se les pida
Estas dos leyes nos conectan a una realidad más cercana, aunque no del todo resuelta.
En la primera, se obliga a los robots a identificarse como tales (cosa que ya está comenzando a exigirse en el caso de agentes conversacionales software). Actualmente, en la mayoría de las interacciones entre un humano y una máquina no hay ninguna duda de que la máquina es tal, pero ya hay casos, como esas interacciones vía voz a través de un canal de tipo telefónico o chat en que puede llegar a darse la confusión. Si llegásemos a disponer de androides muy avanzados, cosa que no sucede hoy día, podría darse también esa confusión en otro tipo de robots. De ahí esa necesidad de que la máquina se identifique como tal y no pretenda ser un humano.
La segunda ley nos conecta con el problema de la explicabilidad de la inteligencia artificial, algo que se pide en muchos códigos éticos y normativos pero que, por desgracia, supone un reto técnico muy importante y que no se encuentra resuelto de manera general. En realidad creo que estamos lejos de resolverlo de manera general y al nivel que exigiría el cumplimiento de esta segunda ley adicional propuesta por Rotemberg u otras propuestas más actuales.
La propuesta de Satya Nadella
El último conjunto de leyes recogido por Ángel en su libro, son las propuestas de Satya Nadella, a la sazón máximo directivo de Microsoft, y que son algo menos específicas de la robótica para convertirse en más generales y caer más en el ámbito de la inteligencia artificial. Las leyes propuestas por Nadella son estas seis:
- Mero apoyo: La inteligencia artificial tiene que ayudar a los humanos a realizar sus tareas sin interferir con la autonomía humana.
- Transparencia: las máquinas no sólo deben ser trasparentes sino también inteligibles
- Dignidad: Los valores y principios humanos tienen que seguir en manos de éstos, nunca deben ser dictados por las máquinas o en función de ellas.
- Privacidad: Es necesario preservar tanto los datos de las personas como los de los grupos de usuarios para establecer una relación de confianza en el uso de las máquinas
- Responsabilidad: El diseñador es responsable de los actos de las máquinas, y las personas deben tener la capacidad para revertir cualquier acto de ellas.
- Objetividad: las máquinas, la inteligencia artificial, deben estar libres de sesgos y prejuicios.
Los seis conceptos aquí recogidos se encuentran todos ellos muy presentes en los trabajos actuales sobre ética de la inteligencia artificial teniendo algunos ya bastante desarrollo normativo, como es el caso de la privacidad y siendo otros aún más filosóficos como la dignidad e, incluso, la autonomía.
Una pequeña valoración
Las leyes recogidas en este compendio son, en general, aun bastante filosóficas y en algún caso meramente aspiracionales. Además, en algunos casos, por supuesto en el de Asimov, hablan de unas máquinas y unas capacidades que no son una realidad hoy en día.
Sin embargo lo positivo de estas leyes es que ilustran, por un lado, una inquietud perfectamente comprensible y que necesitamos abordar, y, por otro, una cierta dirección de actuación, bien que pueda ser aún de alto nivel.
Cierto es que precisan en general mucha concreción desde un punto sobre todo normativo y, en otros casos, como por ejemplo en el caso de la explicabilidad, necesitan asimismo de desarrollo tecnológico.
En el ámbito normativo, y con posterioridad al libro en que he basado este artículo, se han puesto en marcha muchas iniciativas a nivel internacional que van concretando, sobre todo en el plano normativo/jurídico algunas de estas ideas, siendo especialmente relevante el trabajo en marcha en la Unión Europea que probablemente valga la pena comentar en otro artículo, así que parece que podemos esperar interesantes avances en breve.
Desde la asociación OdiseIA (Obervatorio del Impacto Social y Ético de la Inteligencia Artificial) a que pertenezco y en la que dirijo el área de relación robots-personas ya trabajamos en el seguimiento de este tipo de iniciativas y la compilación de unas leyes de la robótica más actuales y concretas.
Ya hablaremos de ello más adelante.