Ética robótica ese gran dilema

Publicado el 24 septiembre 2014 por David León @Abantwitt

Antes de comenzar a hablar de robots veamos que es la Ética:

“La ética es una rama de la filosofía que se ocupa del estudio racional de la moral, la virtud, el deber, la felicidad y el buen vivir.1 Requiere la reflexión y la argumentación. El estudio de la ética se remonta a los orígenes mismos de la filosofía en la Antigua Grecia, y su desarrollo histórico ha sido amplio y variado. La ética estudia qué es lo moral, cómo se justifica racionalmente un sistema moral, y cómo se ha de aplicar posteriormente a nivel individual y a nivel social. En la vida cotidiana constituye una reflexión sobre el hecho moral, busca las razones que justifican la adopción de un sistema moral u otro.Fuente: Wikipedia”

Primera ley de la robótica

Recordemos ahora la primera de las tres leyes de la robótica creadas por Isaac Asimov “Un robot no puede hacer daño a un humano o, por inacción, permitir que un ser humano sufra daño“. Bajo esta premisa el investigador Alan Winfield de Bristol Robotics Laboratory en el Reino Unido construyó una trampa ética para un robot y quedo realmente sorprendido por la respuesta de la máquina... En su experimento se programó a un robot con esta primera ley y se le hizo identificar a otro robot como si fuese un humano. A continuación provocaron que este segundo robot “presunto humano” se precipitase al vacío. La respuesta del primer robot objeto del experimento fue ir en ayuda del autómata “presunto humano”. La sorpresa de este experimento llegó cuando en lugar de precipitar un robot al vacío se precipitaron dos… haciendo creer al primer robot que dos humanos estaban en apuros… en este caso, el robot se quedo completamente inactivo, en una duda moral que lo dejó inmovil, realmente no sabía a cual de los dos humanos salvar y ante la duda no salvó a ninguno. Winfield describe su robot como un “zombie ético” que no tiene más remedio que comportarse como lo hace. A pesar de que puede salvar a otros de acuerdo con un código programado de conducta, no puede entender el razonamiento que hay detrás de sus acciones.

Soldado y conductores primeros problemas de ética robótica

A medida que los robots se integran más en nuestra vida cotidiana, este problema tendrá que ser solucionado, .imaginemos un coche de auto-conducción que algún día tendrá que sopesar la seguridad de sus pasajeros contra el riesgo de dañar a otros automovilistas o peatonesTodo un reto para la programación ética de robots. Pero los robots diseñados para el combate militar pueden ofrecer el comienzo de una solución. Ronald Arkin, científico de computación en el Instituto de Tecnología de Georgia en Atlanta, ha construido un conjunto de algoritmos para robots militares - conocido como el gobernador ético- que está destinado a ayudarles a tomar decisiones inteligentes en el campo de batalla. Él ya lo ha probado en combate simulado, demostrando que los drones con dicha programación pueden elegir no disparar, o tratar de minimizar las bajas durante una batalla cerca de un área protegida de combate de acuerdo con las reglas de la guerra, como una escuela o un hospital.

Fuente: newscientist

Foto: forwallpaper