Revista Ciencia

El aprendizaje incestuoso en la era de la Inteligencia Artificial

Por Jguerra
El aprendizaje incestuoso en la era de la Inteligencia Artificial

En los sistemas de Inteligencia Artificial también se cumple el dicho de 'somos lo que comemos', algo que impacta de lleno en sus dos principales vertientes desarrollo: algoritmos de predicción y modelos de lenguaje.

Por un lado, los algoritmos que trabajan con enormes cantidades de información para, por ejemplo, la predicción de enfermedades o la ayuda al diagnóstico, pueden recibir datos sesgados que no sean representativos de toda la población, lo cual limitaría su uso y produciría predicciones incorrectas cuando se apliquen sobre personas para las que no han sido entrenados (un ejemplo).

Y por otro, los nuevos modelos grandes de lenguaje (como ChatGPT) han sido entrenados a partir de todos los contenidos que están circulando por la red, por lo que podríamos decir que sus resultados actuales son lo más humano que nos vamos a encontrar. Porque se da la circunstancia de que muchos de los contenidos que se están volcando ahora mismo en Internet, están parcial (o incluso totalmente) generados por sistemas de inteligencia artificial, algo que, sin ninguna duda, va a ir aumentando conforme estas herramientas sean masivamente adoptadas.

Y esto nos lleva a un concepto que algunos autores han bautizado como el Aprendizaje incestuoso. Se refiere al resultado de que estos modelos de lenguaje están empezando a aprender a partir de contenidos generados por ellos mismos. Contenidos que son menos originales y humanos, de peor calidad y en algunos casos repletos de fabulaciones y sesgos. Esto sin duda nos llevará hacia unos sistemas degradados, repletos de información falsa y no validada por humanos.

Todo ello nos conduce al último gran problema, que tiene mucho que ver con la confianza que los humanos depositamos en una tecnología que tradicionalmente nos ha solucionado muchas tareas en nuestra vida. Teniendo en cuenta además que estos sistemas son auténticos generadores de empatía (que hace que incluso los pacientes prefieran las respuestas de la IA), será muy difícil que cuestionemos la información emitida por una fuente en la que ya confiamos y que nos trata con aparente respeto y empatía.

En definitiva, los sistemas de IA, con su capacidad para generar empatía y respuestas aparentemente válidas, pueden llevarnos a aceptar sus pronósticos y recomendaciones sin cuestionamiento. Esta confianza excesiva, combinada con la proliferación de información ‘incestuosa’ generada por estos sistemas, podría además perpetuar la propagación de desinformación y sesgos.

Para contrarrestar todos estos problemas, es crucial promover la transparencia y la responsabilidad en el desarrollo y uso de la IA. Los diseñadores y desarrolladores de estos sistemas deben trabajar activamente para mitigar los sesgos en los datos y los algoritmos, garantizando que los sistemas de IA sean éticos y equitativos.

Además, ahora más que nunca es fundamental fomentar la alfabetización digital y la capacidad crítica entre la población, muy especialmente en el ámbito de la salud, para que puedan aprender a discernir entre información confiable y falsa.

Únete a la conversación

Por: José M Cepeda Diez

Fuente: Salud Conectada



Volver a la Portada de Logo Paperblog