Los asistentes de escritura dotados de inteligencia artificial que autocompletan frases u ofrecen "respuestas inteligentes" no sólo ponen palabras en boca de la gente, sino también ideas en su cabeza, según una nueva investigación.
Maurice Jakesch, estudiante de doctorado en el campo de las ciencias de la información, pidió a más de 1.500 participantes que escribieran un párrafo respondiendo a la pregunta: "¿Son las redes sociales buenas para la sociedad?". Las personas que utilizaron un asistente de escritura con IA sesgada a favor o en contra de los medios sociales tenían el doble de probabilidades de escribir un párrafo en el que estuvieran de acuerdo con el asistente, y muchas más probabilidades de decir que tenían la misma opinión, en comparación con las personas que escribieron sin la ayuda de la IA.
Según los investigadores, el estudio sugiere que los sesgos incorporados a las herramientas de escritura de la IA, ya sean intencionados o no, podrían tener repercusiones preocupantes en la cultura y la política.
"Nos apresuramos a implantar estos modelos de IA en todos los ámbitos de la vida, pero necesitamos comprender mejor sus implicaciones", afirma Mor Naaman, coautor del estudio y profesor del Instituto Jacobs Technion-Cornell de Cornell Tech y de Ciencias de la Información en la Facultad de Informática y Ciencias de la Información Ann S. Bowers de Cornell. "Además de aumentar la eficiencia y la creatividad, podría haber otras consecuencias para los individuos y también para nuestra sociedad: cambios en el lenguaje y las opiniones".
Mientras que otros han estudiado cómo grandes modelos lingüísticos como ChatGPT pueden crear anuncios y mensajes políticos persuasivos, éste es el primer estudio que demuestra que el proceso de escribir con una herramienta impulsada por IA puede influir en las opiniones de una persona. Jakesch presentó el estudio, "Co-Writing with Opinionated Language Models Affects Users' Views", en la 2023 CHI Conference on Human Factors in Computing Systems celebrada en abril, donde el trabajo recibió una mención honorífica.
Para entender cómo interactúan las personas con los asistentes de escritura de IA, Jakesch dirigió un gran modelo de lenguaje para que tuviera opiniones positivas o negativas sobre las redes sociales. Los participantes escribieron sus párrafos -solos o con uno de los asistentes de opinión- en una plataforma que él construyó y que imita un sitio web de medios sociales. La plataforma recoge datos de los participantes a medida que escriben, como cuáles de las sugerencias de la IA aceptan y cuánto tardan en redactar el párrafo.
Las personas que escribieron junto con el asistente de IA a favor de las redes sociales compusieron más frases en las que defendían que las redes sociales son buenas, y viceversa, en comparación con los participantes sin asistente de escritura, según determinaron jueces independientes. Estos participantes también eran más propensos a profesar la opinión de su asistente en una encuesta de seguimiento.
Los investigadores exploraron la posibilidad de que la gente simplemente aceptara las sugerencias de la IA para completar la tarea más rápidamente. Pero incluso los participantes que tardaron varios minutos en redactar sus párrafos llegaron a afirmaciones muy influenciadas. La encuesta reveló que la mayoría de los participantes ni siquiera se percataron de que la IA era tendenciosa y no se dieron cuenta de que estaban siendo influenciados.
"En el proceso de coescritura no siento que me estén persuadiendo", afirma Naaman. "Siento que estoy haciendo algo muy natural y orgánico: estoy expresando mis propios pensamientos con cierta ayuda".
Al repetir el experimento con un tema diferente, el equipo de investigación observó de nuevo que los asistentes influían en los participantes. Ahora, el equipo está investigando cómo esta experiencia crea el cambio y cuánto duran los efectos.
Al igual que las redes sociales han cambiado el panorama político al facilitar la propagación de la desinformación y la formación de cámaras de eco, las herramientas de escritura sesgada con IA podrían producir cambios de opinión similares, dependiendo de las herramientas que elijan los usuarios. Por ejemplo, algunas organizaciones han anunciado que planean desarrollar una alternativa a ChatGPT, diseñada para expresar puntos de vista más conservadores.
Según los investigadores, estas tecnologías merecen un mayor debate público sobre el uso indebido que puede hacerse de ellas y sobre cómo deben controlarse y regularse.
"Cuanto más poderosas se vuelven estas tecnologías y más profundamente se incrustan en el tejido social de nuestras sociedades", afirma Jakesch, "más cuidado deberíamos tener sobre cómo estamos gobernando los valores, prioridades y opiniones incorporados a ellas".