-Asimov-
Las tres leyes de la robótica que Isaac Asimov desarrollo en el relato Circulo Vicioso [Runaround, 1942] son útiles en una gran variedad de campos de estudios. Son útiles para estudiar la psique del ser humano, lo que Asimov denominaba el complejo de Frankenstein. Son útiles como “guía” de programación de pequeñas máquinas autónomas. Son imprescindibles si queremos trazar una línea en la historia entre un punto A y un punto B en la evolución del “robot” desde su concepto en 1921 y su posterior evolución hasta nuestros días.Y con el tiempo la misma concepción y conjeturas con estas leyes pueden archivarse casi como un vestigio evolutivo, un rabo de mono.
–Su punto fuerte es al tiempo su debilidad, y esta radica en su simpleza:
- Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
Y por supuesto ¿que sería un robot sin una actualización?
0. Un robot no puede realizar ninguna acción, ni por inacción permitir que nadie la realice, que resulte perjudicial para la humanidad, aun cuando ello entre en conflicto con las otras leyes. [Esto conduce a su vez a que la L1 no debe entrar en conflicto con la L0].
Su defecto está en su propia concepción, en la analogía de que esas tres leyes interfieran en el sujeto como una correa invisible a la que atásemos un esclavo. ¿Va usted a ponerse humanista? Nada mas lejos de mi intención, sigamos el siguiente razonamiento: El objetivo primario es la obtención de un autómata autosuficiente capaz de compartir la realidad tal y como nosotros la percibimos y de actuar en consecuencia bajo nuestros conceptos de ética social. Que realice el trabajo más peligroso sin miedo y que se encargue de nuestra seguridad aun a riesgo a su propia existencia. En definitiva queremos un esclavo color metal –para autoconvencernos de que no somos racistas–, tonto, de veinticinco años, metro ochenta y que hable idiomas. Y lo mejor de todo, que podamos llegar a considerarlo un amigo, pero en propiedad y que se deje matar por nosotros de vez en cuando.
¿Que queremos?: Un robot que alcance la conciencia humana y que se comporte como si no la tuviera. Dos conceptos que parten de concepciones antagónicas. Cualquier robot en que programes las tres leyes de la robótica se convertirá irremediablemente en una máquina no autoconsciente. Y la autoconciencia no viene determinada por el libre albedrío, el instinto de supervivencia o la necesidad biológica del deseo. Precisa de un conjunto que actúe como un todo de razonamiento independiente. Algo que no toma sus propias decisiones, no piensa, por lo que no puede determinar los parámetros adecuados para adaptarse y cumplir las leyes. Por contra algo que piensa no puede verse limitado en modo alguno en su sinapsis de razonamiento. Y vuelta a empezar.
C3PO – relaciones cibernéticas-humanas-
En conclusión, las tres leyes son perfectamente válidas en un una psique mecánica y matemática, una máquina, un computador. Pero nunca un robot o androide, porque violarían la finalidad última de los mismos. En particular me gusta emplear a C-3PO de Star Wars como un buen ejemplo de un androide autoconciente que puede desear tu muerte todo lo que le plazca, ya que apenas puede mantener su propio equilibrio, no posee potencia hidráulica alguna y su fisonomía no le permite doblar una sola de las articulaciones.
Mención aparte, en 2011, el Consejo de Investigación de Ingeniería y Ciencias Físicas [EPSRC por sus siglas en inglés] y el Consejo de Investigación de Artes y Humanidades [AHRC] británicos publicaron conjuntamente una serie de principios éticos a seguir en el ámbito de la robótica que en la sombra venían no a sustituir las anticuadas leyes, sino a imponer una serie de “reglas éticas”, estas eran:
- Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los humanos.
- Los seres humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
- Los robots deben ser diseñados de forma que aseguren su protección y seguridad.
- Los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.
- Siempre debe ser posible averiguar quién es el responsable legal de un robot.
Las opiniones expreasdas a continuación pertenecen al autor y como tal no expresan más que una opinión personal y apócrifa:
- Las premisas nº1 y nº4 no se respetan en la actualidad.
- La premisa nº2 carga con una serie de controversias que ya han sido tratadas con anterioridad en infinidad de novelas. Esto da siempre a lugar a fallos y trabas en la interpretación de las responsabilidad adjuntas que se atribuyen al creador y/o propietario.
- La premisa nº5 no implica nada mas allá del ruego o el deseo.
A continuación dichos Consejos de Investigación añadieron una serie de mensajes cívicos:
- Creemos que los robots tienen el potencial de proporcionar impacto positivo inmenso para la sociedad. Queremos animar a la investigación del robot responsable.
- La mala práctica nos perjudica a todos.
- Abordar las inquietudes obvias del público nos ayudará a todos avanzar.
- Es importante demostrar que nosotros, como especialistas en robótica, estamos comprometidos con los mejores estándares posibles de la práctica.
- Para entender el contexto y las consecuencias de nuestra investigación, debe trabajar con expertos de otras disciplinas tales como: ciencias sociales, derecho, filosofía y las artes.
- Debemos tener en cuenta la ética de la transparencia: hay límites que deben ser accesibles.
- Cuando vemos las cuentas erróneas en la prensa, nos comprometemos a tomar el tiempo para ponerse en contacto con los periodistas.
*Lejos de mi intención emitir juicios de valores personales, junto a lo anteriormente tratado, toda esta ética en la robótica se asemeja mucho el perro de hortelano, que ni come ni deja comer.