Se trata de un problema aún sin resolver completamente y que se puede ir haciendo más complejo a medida que las máquinas cobran mayor inteligencia y, sobre todo, mayor autonomía.
El debate está abierto y, quizá, el Mago de Oz ofrezca una metáfora sobre su solución.
Veamos.
El mago de Oz: la película
'El mago de Oz' es la bien conocida y ya muy antigua película, que por cierto no he visto, lanzada en 1939 y basada en el libro 'El maravilloso mago de Oz' de Frank L. Baum. No creo que importe mucho a estas alturas hacer un pequeño 'spoiler' recordando que en esa película, donde la protagonista Dorothy es llevada por un tornado al mágico mundo de Oz, uno de los habitantes de ese mundo de ensueño es un mago que, al final, resulta ser ficticio, en realidad un humano que realiza trucos de ilusionismo.
Y eso da lugar a la popular metáfora en algunos ámbitos del 'mago de Oz'.
El Mago de OZ como Producto Mínimo Viable
El término Mago de Oz se ha hecho, en efecto, más o menos popular para significar, de alguna manera, situaciones en que una realidad más o menos autónoma, automática, o mágica, es manejada por detrás por humanos de una manera mucho más manual y menos mágica de lo que parece.
Así, en el mundo de la innovación y el emprendimiento, y específicamente en el caso de una metodología como Lean Startup, el 'Mago de Oz' es una forma de producto mínimo viable (un producto incompleto en sus capacidades o características pero suficiente par ponerlo en manos de clientes obteniendo de esta manera 'feedback' sobre el mismo), quizá no el más mínimo todo hay que decirlo, en que un 'front-office' que aparenta un producto o servicio terminado y más o menos automatizado o al menos optimizado, es en realidad, en 'back-office' manejado de una forma bastante manual y artesanal.
Esta forma de operar permite ofrecer una apariencia de producto o servicio terminado, sin la necesidad de invertir en todo el desarrollo e implantación del back-office.
Eso si, no parece que permita una operación a gran escala.
La responsabilidad sobre sistemas inteligentes autónomos
Cuando se habla de agentes inteligentes autónomos, como puedan ser robots avanzados o vehículos autónomos, una cuestión que aúna lo ético con lo legal es quién es responsable de un eventual mal funcionamiento, de un fallo, de un daño a terceros.
Desde un punto de vista ético, en su vertiente más filosófica, eso nos lleva a una reflexión sobre la agencia moral, sobre si un ente artificial puede ser considerado como un agente moral, es decir, puede hacerse responsable de sus acciones y puede discernir de alguna manera el bien del mal.
Desde un punto de vista más práctico, que nos acerca a lo legal, esto nos lleva más bien a quién puede ser culpable (y eventualmente condenado) por un daño realizado por estos agentes artificiales y quién debería, eventualmente, pagar indemnizaciones.
No hay una doctrina clara al respecto, y las especulaciones sobre una eventual 'personalidad electrónica', podrían llevar a alguna forma de 'culpabilidad' del agente artificial.
Sin embargo, pensando de manera práctica y en un terreno sobre todo legal, no parece que tenga demasiado sentido castigar a un robot. ¿Le importaría mucho a un robot estar encarcelado? ¿Pagar una multa? ¿Y, como, por cierto, pagaría la multa ese robot? ¿No la pagaría, más bien, su dueño, o fabricante, por ejemplo?
El Mago de Oz de la responsabilidad
Las consideraciones anteriores parecen apuntar en el sentido de que, al menos por el momento, y desde un punto de vista práctico, la responsabilidad ha de estar en las personas, aunque pueda existir debate legal sobre qué personas en concreto (dueños, fabricantes, diseñadores...).
Sin embargo, y volviendo al terreno más filosófico, hay quien piensa que el atribuir la responsabilidad a personas, en lugar de al robot o ente artificial, no se trata solo un tema práctico, sino un principio firme y de naturaleza ética, no legal.
En el libro 'Person, Thing, Robot: A Moral and Legal Ontology for the 21st Century and Beyond' de David Gunkel éste nos hacer ver alguna posición en ese sentido que afirma que siempre habrá, al final, un humano como responsable y, en ese sentido, nos dice:
According to this way of thinking, all artifacts, no matter how sophisticated or interactive they appear to be, are actually a Wizard of Oz technology.
lo cual resulta una bonita metáfora en que, también a efectos de responsabilidad y no solo de innovación, podemos estar hablando de un mago de Oz, un mago de Oz de la responsabilidad en que, a pesar de la apariencia de agencia moral y por tanto responsabilidad que pueda ofrecer el ente artificial, desde un punto de vista moral está 'operado' por detrás por humanos y es responsabilidad, por tanto, de los humanos.
Y al contrario de lo que sucedía en innovación, en este caso no se trata de una estrategia temporal, sino de algo profundo y esencial.
Conclusiones
Al menos a corto plazo, y al menos desde un punto de vista práctico, parece que la responsabilidad sobre lo que hacen las máquinas, recae en último término sobre humanos, aunque pueda aún estar poco claro en algunos casos sobre qué humano concretamente.
Pero hay corrientes de pensamiento que entienden que no se trata sólo de una opción práctica y de corto plazo sino que, desde un punto de vista ético y esencial, las responsabilidad debe ser siempre en último término humana y que, en ese sentido, en el de la responsabilidad, la tecnología inteligente y autónoma es solo un caso más de Mago de Oz.