Robots sociales en educación
Los robots sociales son un tipo de robots, con frecuencia de aspecto humanoide, y con capacidades de relación social no sólo por la voz sino también mediante gestos, movimiento, detección de emociones, etc. Y han sido, en efecto, utilizados con éxito en educación. Y no sólo educación en condiciones normales, sino también educación especial como en el caso de niños con trastornos del espectro autista.
Sin embargo, este uso, a pesar de los positivos resultados obtenidos en las experiencias hasta ahora realizadas, también está sometido a cierto escrutinio desde un punto de vista ético.
Roles de los robots sociales en educación
En el libro 'Robotics, AI and Humanity' hay un capítulo, firmado por Pierre Léna y dedicado al empleo de robots sociales en el aula.
En él cita el estudio llevado a cabo por Amanda J. C. Sharkey en 2016 y titulado 'Should we welcome robot teachers?'. En ese artículo, la autora identifica, sin pretender la exhaustividad, cuatro roles que un robot social puede jugar en las labores educativas, cuatro roles basados en experimentos reales y que suponen diferentes niveles de sustitución del profesor humano:
- Profesor ('teacher'): En este escenario, el robot reemplaza completamente al profesor, al menos durante ciertos periodos de tiempo, y por lo tanto ejerce como figura de autoridad y fuente de conocimiento.
- Compañero y par ('companion and peer'): En este caso, el robot no reemplaza al profesor y además puede precisar de la presencia de una figura humana. El robot se presenta a los niños como un compañero, como un par, otro alumno digamos. No implica autoridad y su participación en la enseñanza es implícita, no explícita.
- Compañero-cuidador ('care-eliciting companion'): Muy similar al anterior pero en los que el robot tiene como misión identificar necesidades de cuidados en los niños
- Telepresencia: el robot puede sustituir o complementar a un profesor pero actuando en remoto.
Consideraciones éticas
Sin pretender tampoco agotar todas las consideraciones, se identifican al menos tres grupos de consideraciones éticas relativas al uso de robots en las aulas.
La primera tendría que ver con la privacidad. Los robots están equipados con sensores que les permiten recoger información de muchos tipos. Los robots pueden recoger aspectos del comportamiento de los alumnos (si hablan, si se ponen de pie, etc), pueden también incluir elementos de reconocimiento de personas (típicamente, por reconocimiento facial) e, incluso, pueden captar emociones o deducir condiciones psicológicas. Todo ello eleva la necesidad de una reglas claras, y respetuosas, de la información a que pueden acceder y el uso que hacen de ella.
Otro segundo bloque, el que personalmente más me interesa, tiene que ver más con los aspectos de relación. Así nos encontramos la creación de vínculos emocionales entre los niños y el robot que, aunque tiene su valor positivo, también es controvertida e implica ciertos riesgos. Otros aspecto sería una forma de engaño ('deception') pero que no debe entenderse como un engaño intencionado sino el hecho de que el robot aparenta emociones, sentimientos, empatía comprensión y eso de alguna forma puede engañar a los niños y que éstos pongan en el robot unas expectativas no realistas. Otros tema en este bloque de las relaciones sería el riesgo del aislamiento del contacto humano, de que los niños se acostumbrasen, e incluso prefiriesen, la relación con robots mejor que con seres humanos.
A este respecto de las relaciones creo que viene al caso citar lo que dice el propio Léna al inicio de su capítulo:
Education is a special case, bacause it is fundamentally based on the relationship, involving love and emotions as well as knowledge between a fragile child an an adult.
La relación que se establece entre profesor y alumno, cuando hablamos de que los alumnos son niños, implica amor, emociones y además una parte más frágil en la relación, el niño. Si el robot asume el rol del profesor, de alguna forma pone en marcha o sustituye esa relación de amor y emociones con ese ser frágil que es el niño.
El tercer bloque de consideraciones éticas nos hablan de control y responsabilidad ('accountability') control y la responsabilidad. Cuando el robot ejerce como profesor, asume la autoridad correspondiente y, por tanto, una cierta capacidad de control sobre los alumnos. No vamos a extendernos más sobre ello, pero ya se entiende que conceder autoridad a una máquina, el robot, sobre unos humanos, los niños es algo que puede levantar reservas, incomodidades u oposición y que, incluso si se admite como positiva, parece implicar la necesidad de ciertas limitaciones y controles.
Conclusión
La verdad es que el tema, y el propio artículo mencionado, dan para muchos más comentarios, más detalles y más análisis pero, al menos en lo que respecta a este post, lo dejamos aquí.
Creo que queda claro que las diferentes experiencias realizadas hasta la fecha, indican que hay hueco para el uso de robots en educación, que en algunos casos puede ser necesario (por ejemplo, por falta de profesores) o muy positivo (como en el caso de niños autistas) pero que debe ser realizado con conciencia, con precaución y estando atentos a las consideraciones éticas.