Alguna consideración sobre roboética
No voy a entrar aquí en mucho detalle, pero una parte no menor de estas diferencias surgen del hecho de que, por un lado, los robots suelen tener un 'cuerpo', una realidad física que un mero algoritmo no posee, y que unida a la natural tendencia de los humanos a la antropomorfización, hace que tendamos a atribuir a los robots una suerte de individualidad, personalidad e incluso intención que, aunque muchas veces falsa en la realidad técnica, es muy vívida para el humano y condiciona la relación con el robot y la percepción del mismo.
Derivado en gran parte de lo anterior, en la ética de los robots están muy presentes todo lo que tiene que ver con la parte emocional y las relaciones y vínculos afectivos, y, por otro, la propia consideración eventual de los robots como agentes o pacientes morales e, incluso como sujetos de derecho.
Robótica social y asistencial
Un área particularmente interesante de la robótica, desde el punto de vista técnico, pero también ético, es la de la robótica social, unos robots, con frecuencia (aunque no siempre) de aspecto humanoide, una de cuyas principales funciones es la de relacionarse con personas.
Solapado con el concepto de robótica social encontramos la robótica asistencial, es decir, la aplicación de robots en el cuidado y ayuda a pacientes humanos, con bastante frecuencia ancianos.
No es lo mismo, ni mucho menos, robótica asistencial que robótica social pero sí que es cierto que, en el ámbito de los cuidados (no tanto de acciones quirúrgicas o terapéuticas más específicas), se tiende a trabajar en el ámbito asistencial con robots sociales o con ciertas características relacionales avanzadas.
Riesgos éticos de la robótica
Y como casi cualquier solución tecnológica, la robótica social, y la robótica asistencial, vienen acompañadas de riesgos éticos, algunos derivados del mal uso intencionado y otros, quizá los más interesantes desde el punto de vista de análisis, riesgos no intencionados, a veces casi inadvertidos.
Aunque, como cualquier lector de este blog es consciente, es un tema que me interesa mucho y al que he dedicado muchos esfuerzos en los últimos dos o tres años, y aunque en este mismo blog he hablado de muchos de esos riesgos, lo cierto es que aún no me 'he animado' a hacer un censo digamos definitivo, una especie de listado estructurado de los riesgos éticos asociados a la robótica en general y la robótica social en particular.
En ese sentido me ha resultado interesante encontrar un primer censo, muy centrado, eso sí, en el caso de la robótica asistencial.
Un censo de riesgos
El censo lo encuentro leyendo el libro 'Tecnología para la salud' editado por María Belén Andreu Martínez y Adolfo Espinosa de los Monteros Rodríguez y que contiene nueve artículos que tratan de aspectos diferentes de la tecnología en salud con foco en lo ético y lo legal.
En concreto, en el capítulo 'Robótica asistencial. Una reflexión ética y filosófica' firmado por Txetxu Ausín, Belén Liedo Fernández y Daniel López Castro se identifican seis riesgos de la robótica asistencial,
Los seis riesgos que identifican los autores, brevemente explicados o comentados con cierta libertad por mi parte son:
- Manipulación: En efecto, existe cierto temor al uso de robots sociales para ejercer una influencia no debida, que alcanza la manipulación, sobre los humanos, en este caso pacientes. Sin embargo, en la descripción que se hace en este libro, más que de robots sociales, se habla de neurotecnología, de la influencia directa sobre la actividad cerebral, mediante el llamado 'neuro-hacking', una posibilidad que, aunque ciertamente abierta y digna de atención, la considero ahora mismo algo más especulativa y a futuro.
- Cancelación de identidad: Confieso que no entiendo del todo a qué se refieren los autores exactamente con este riesgo, que lo relacionan con la necesidad de una seguridad. No estoy seguro de si se refieren a una especie de caso extremo de manipulación, en que se llega a anular la propia identidad y personalidad del individuo atacado o si, quizá, están pensando en una suerte de suplantación de identidad como nos encontramos en el mundo de la ciberseguridad y de ataques en redes sociales.
- Engaño: que por un lado se refiere a la construcción de un entorno de interacción del paciente que en cierto modo es ficticio y por otro, enlaza con el problema de la vinculación afectiva y la dependencia emocional de los robots por parte de ese paciente.
- Merma de contacto humano: de alguna forma la sustitución de las relaciones humanas por este tipo de relaciones con robots, lo que puede llevar a un aislamiento, a una falta de interacción realmente humana y significativa.
- 'Objetualización': una palabra entiendo que inventada, y que casi preferiría cambiar por 'cosificación' y que, en cualquier caso, alude de alguna forma al tratamiento de los pacientes como meros objetos, como un elemento de gestión y actuación ignorando su personalidad y sus características y necesidades más humanas.
- Reducción del cuidado a una ilusión: en el sentido, un poco de lo visto en la merma del contacto humano y la objetualización, es decir, aunque existe en cierto sentido un cuidado, éste se hace en un sentido muy práctico y material, basado en la relación con máquinas, pero sustituyendo la vida social por algo artificial y perdiendo el entendimiento del cuidado como, en boca de los autores, una 'práctica moral relacional esencial' y quedando reducida una práctica deshumanizada
Y este es el censo. Probablemente merezca una revisión, quizá una ampliación, pero tiene el valor de comenzar a estructurar un análisis ético de un campo relativamente novedoso.
Conclusión
No se acaba agota aquí este tema de los riesgos asociados a la robótica social y la robótica asistencial.
Seguramente, en otros artículos recoja nuevos censos que me pueda ir encontrando hasta que, en algún momento, supongo, que me decidiré a proponer un censo propio.
Pero de momento, ahora lo dejamos aquí.