Cuando los expertos y los investigadores intentaron adivinar qué tipo de campañas de manipulación podrían amenazar las elecciones de 2018 y 2020, los videos engañosos generados por IA a menudo encabezaban la lista. Aunque la tecnología aún estaba emergiendo, su potencial de abuso era tan alarmante que las empresas de tecnología y los laboratorios académicos priorizaron el trabajo y la financiación de los métodos de detección. Las plataformas sociales desarrollaron políticas especiales para publicaciones que contienen "medios sintéticos y manipulados", con la esperanza de lograr el equilibrioadecuado. entre preservar la libertad de expresión y disuadir las mentiras virales. Pero ahora, con unos tres meses para el 3 de noviembre, esa ola de imágenes en movimiento falsas parece no haberse roto nunca. En cambio, otra forma de medios generados por IA está en los titulares, uno que es más difícil de detectar y, sin embargo, es mucho más probable que se convierta en una fuerza omnipresente en Internet: el texto deepfake.
El mes pasado trajo la introducción de GPT-3, la próxima frontera de la escritura generativa: una inteligencia artificial que puede producir oraciones sorprendentemente humanas (aunque a veces surrealistas). A medida que su producción se vuelve cada vez más difícil de distinguir del texto producido por humanos, uno puede imaginar un futuro en el que la gran mayoría del contenido escrito que vemos en Internet sea producido por máquinas. Si esto sucediera, ¿cómo cambiaría la forma en que reaccionamos al contenido que nos rodea?
Este no sería el primer punto de inflexión de los medios en el que nuestro sentido de lo que es real cambió de una vez. Cuando Photoshop, After Effects y otras herramientas de edición de imágenes y CGI comenzaron a surgir hace tres décadas, se reconoció de inmediato el potencial transformador de estas herramientas para los esfuerzos artísticos, así como su impacto en nuestra percepción del mundo. "Adobe Photoshop es fácilmente el programa que más cambio vidas en la historia de la publicación", declaró un artículo de Macworld de 2000, anunciando el lanzamiento de Photoshop 6.0. "Hoy en día, los artistas plásticos agregan toques finales al hacer Photoshop en sus obras de arte, y los pornógrafos no tendrían nada que ofrecer excepto la realidad si no usaran Photoshop en cada uno de sus gráficos".
Llegamos a aceptar esa tecnología por lo que era y desarrollamos un escepticismo saludable. Hoy en día, muy pocas personas creen que la portada de una revista con aerógrafo muestre el modelo tal como es. (De hecho, a menudo es el contenido sin Photoshop lo que atrae la atención del público). Y, sin embargo, tampoco desconfiamos del todo de esas fotos: si bien hay debates acalorados ocasionales sobre el impacto de la normalización de la aerografía, o más relevante hoy en día, el filtrado. todavía confiamos en que las fotos muestren a una persona real capturada en un momento específico en el tiempo. Entendemos que cada imagen tiene sus raíces en la realidad.
Los medios generados, como el video deepfake o la salida de GPT-3, son diferentes. Si se usa maliciosamente, no hay un original inalterado, ninguna materia prima que pueda producirse como base de comparación o evidencia para una verificación de hechos. A principios de la década de 2000, era fácil analizar las fotos anteriores y posteriores de las celebridades y discutir si estas últimas creaban ideales de perfección poco realistas. En 2020, nos enfrentamos a intercambios de rostros de celebridades cada vez más plausibles sobre la pornografía y clips en los que los líderes mundiales dicen cosas que nunca antes habían dicho. Tendremos que ajustarnos y adaptarnos a un nuevo nivel de irrealidad. Incluso las plataformas de redes sociales reconocen esta distinción; sus políticas de moderación deepfake distinguen entre el contenido de los medios que es sintético y el que es simplemente "modificado".
Sin embargo, para moderar el contenido deepfaked, debes saber que está ahí. De todas las formas que existen ahora, el video puede resultar el más fácil de detectar. Los videos creados por IA a menudo tienen señales digitales donde la salida cae en el valle inquietante: " biometría suave", como los movimientos faciales de una persona, están apagados; un pendiente o algunos dientes están mal hechos; o el latido del corazón de una persona, detectable a través de cambios sutiles en el color, no está presente. Muchos de estos detalles se pueden superar con ajustes de software. En los videos deepfake de 2018, por ejemplo, el parpadeo de los sujetos a menudo era incorrecto; pero poco después de la publicación de este descubrimiento, se solucionó el problema. El audio generado puede ser más sutil (sin imágenes, por lo que hay menos oportunidades de cometer errores) pero con esfuerzos de investigación prometedores están en marcha para descubrirlos también. La guerra entre falsificadores y autenticadores continuará a perpetuidad.
Quizás lo más importante es que el público está cada vez más al tanto de la tecnología. De hecho, ese conocimiento puede, en última instancia, representar un tipo de riesgo diferente, relacionado y, sin embargo, distinto del audio y los videos: los políticos ahora podrán descartar videos reales y escandalosos como construcciones artificiales simplemente diciendo: "¡Eso es un deepfake! " En un ejemplo temprano de esto, de finales de 2017, los sustitutos en línea más apasionados del presidente de EE. UU. Sugirieron (mucho después de las elecciones) que la cinta filtrada de Access Hollywood " grab 'em " podría haber sido generada por un producto de voz sintética llamado Adobe Voco.
Pero el texto sintético, particularmente del tipo que se está produciendo ahora, presenta una frontera más desafiante. Será fácil de generar en gran volumen y con menos avisos para permitir la detección. En lugar de desplegarse en momentos delicados para crear un mini escándalo o una sorpresa de octubre, como podría ser el caso del video o audio sintético, las falsificaciones de texto podrían usarse a granel, para coser un manto de mentiras omnipresentes. Como puede atestiguar cualquiera que haya seguido un hashtag de Twitter acalorado, tanto los activistas como los especialistas en marketing reconocen el valor de dominar lo que se conoce como "compartir la voz": ver a muchas personas expresar el mismo punto de vista, a menudo al mismo tiempo o en el mismo lugar, puede convencer a los observadores de que se siente de cierta manera, independientemente de si las personas que hablan son realmente representativas o incluso reales. En psicología, esto se denomina ilusión de mayoria. A medida que disminuya el tiempo y el esfuerzo necesarios para producir comentarios, será posible producir grandes cantidades de contenido generado por IA sobre cualquier tema imaginable. De hecho, es posible que pronto tengamos algoritmos que lean la web, formen "opiniones" y luego publiquen sus propias respuestas. Este corpus ilimitado de contenido y comentarios nuevos, en gran parte fabricados por máquinas, podría luego ser procesado por otras máquinas, lo que generaría un ciclo de retroalimentación que alteraría significativamente nuestro ecosistema de información.
En este momento, es posible detectar comentarios repetitivos o reciclados que usan los mismos fragmentos de texto para inundar una sección de comentarios, jugar con un hashtag de Twitter o persuadir al público a través de publicaciones de Facebook. Esta táctica se ha observado en una variedad de campañas de manipulación pasadas, incluidas aquellas dirigidas a las llamadas del gobierno de EE. UU. Para comentarios públicos sobre temas como los préstamos de día de pago y la política de neutralidad de la red de la FCC. Un análisis del Wall Street Journal de algunos de estos casos se detectaron cientos de miles de contribuciones sospechosas, identificadas como tales porque contenían oraciones largas y repetidas que probablemente no hubieran sido compuestas espontáneamente por diferentes personas. Si estos comentarios se hubieran generado de forma independiente, por una IA, por ejemplo, estas campañas de manipulación habrían sido mucho más difíciles de eliminar.
En el futuro, los videos deepfake y audiofakes bien pueden usarse para crear momentos distintos y sensacionales que comandan un ciclo de prensa, o para distraer la atención de algún otro escándalo más orgánico. Pero las falsificaciones de texto indetectables, enmascaradas como charlas regulares en Twitter, Facebook, Reddit y similares, tienen el potencial de ser mucho más sutiles, mucho más frecuentes y mucho más siniestras. La capacidad de fabricar una opinión mayoritaria, o crear una carrera armamentista de comentaristas falsos, con un potencial mínimo de detección, permitiría campañas de influencia extensas y sofisticadas. El texto generado omnipresente tiene el potencial de deformar nuestro ecosistema de comunicación social: el contenido generado algorítmicamente recibe respuestas generadas algorítmicamente, que se alimentan de sistemas de curación mediados algorítmicamente que muestran información basada en el compromiso.
Nuestra confianza en los demás se está fragmentando y la polarización es cada vez más frecuente. A medida que aumente la prevalencia de los medios sintéticos de todo tipo (texto, video, foto y audio), y a medida que la detección se convierta en un desafío, nos resultará cada vez más difícil confiar en el contenido que vemos. Puede que no sea tan sencillo adaptarse, como hicimos a Photoshop, utilizando la presión social para moderar el alcance del uso de estas herramientas y aceptando que los medios que nos rodean no son lo que parece. Esta vez, también tendremos que aprender a ser consumidores mucho más críticos de contenido en línea, evaluando la sustancia por sus méritos en lugar de su prevalencia.