La ciencia-ficción lleva postulando con la Inteligencia Artificial (IA) prácticamente desde que existe como género. Sin embargo, no ha sido hasta hace poco cuando ha pasado a formar parte de nuestro día a día y por tanto, cuando el público ha comenzado a hacerse muchas de las preguntas que los aficionados llevamos viendo planteadas en innumerables obras del género. Una de las primeras reacciones ante el sorprendente avance en poco tiempo que han experimentado las aplicaciones basadas en esta tecnología, ha sido la de asombro y en algunos casos, temor. Un miedo ancestral a nosotros mismos y a nuestras creaciones, las cuales parecen no tener un final en cuanto al límite de sus capacidades, hasta postular con dejarnos atrás como especie dominante y convertirnos para ellas en meras hormigas intelectuales. Sin embargo, una vez superada esa inicial sorpresa, lo que se ha visto es que las herramientas que usan IA no son más que «organizadores» de información y que al tener acceso a una cantidad ingente de esta, el resultado es extraordinario. No obstante, también se ha evidenciado que queda mucho camino por delante en aspectos como los siguientes:
- Generan un contenido a partir del trabajo de otros autores sin tener en cuenta la autoría.
- Dicho contenido generado por la IA a partir de material original humano, está siendo reutilizado de nuevo por la IA sin distinguir unos de otros, distorsionando el resultado y obligando a los proveedores y buscadores a etiquetar el contenido para poder realizar dicha diferenciación.
- Para alimentar los algoritmos de IA con modelos adecuados, es necesario un «ejército» de trabajadores mal pagados para realizar tareas de corrección de todo aquello que ha de ser revisado —incluyendo pornografía y mutilaciones—
Ahora bien, ese «largo camino» que queda por recorrer implica que la IA todavía puede mejorarse mucho. Esto no ha acabado aquí, aunque de momento, se puede reflexionar sobre lo que llevamos.
El atrevimiento de la ignorancia
El dicho popular señala que suele presumir aquel que menos tiene para hacerlo. También, que el que permanece más calmado es el que menos sabe lo que pasa. Y por último, está el atrevimiento del ignorante. Esos sesgos están contemplados en un concepto llamado efecto Dunning-Kruger, por el cuál las personas de bajo desempeño tienden a sobrestimarse, es decir, son menos capaces para la autocrítica, precisamente por dicha carencia. Una IA puede parecer cualquier cosa menos carente de desempeño, sin embargo, para poder autoevaluarse —para poder dar una medida estimada del posible error de sus respuestas— es necesario poseer alguna consciencia de este. Es necesario «saber» que no lo sabes todo, que «hay más ahí fuera». Una IA asume que todo lo que existe es lo que tiene en su memoria, no tiene manera de considerar lo que no tiene. Por tanto, una IA no tiene medida alguna de sus errores. Se limita a ofrecer de forma genérica advertencias para que revisemos los datos en algunos casos, como los avisos de los medicamentos para mantener fuera del alcance de los niños.«Su defecto más profundo es la ausencia de la capacidad más crítica que posee cualquier inteligencia: decir no solo lo que ocurre, lo que ocurrió y lo que ocurrirá, sino también lo que no ocurre y lo que podría y no podría ocurrir»
—Noam Chomsky, lingüista y experto en ciencia cognitiva (enlace)
Errar es de humanos
El ser humano es falible por naturaleza. No somos «perfectos». Debido precisamente a nuestros prejuicios, se suele considerar nuestra condición despectivamente como algo defectuoso, sujeto a disonancias de todo tipo. Sin embargo, un análisis algo más objetivo nos advierte que esto es sencillamente inevitable. En verdad, el ser humano es una entidad que funciona bastante bien la mayoría de las veces, adaptándose a circunstancias muy volátiles y diversas. Pretender cierto grado de perfección es probablemente aberrante. Esta no existe más que en acotados diseños teóricos —como los de una IA—. Por tanto, nuestra inevitable y a veces molesta falibilidad, probablemente sea nuestra principal característica que nos diferencie frente a ella. Pero no en sentido negativo por el fallo en sí mismo, sino por la capacidad que nos proporciona ser conscientes de nuestro alejamiento de ese ideal que solo existe en nuestra imaginación. Un motor y reflejo de nuestra creatividad, tan simple para nosotros pero tan complicado para una IA.«la respuesta escapaba a mi comprensión porque requería de una mente inferior, o quizá menos limitada por los parámetros de la perfección»
—El Arquitecto (Matrix Reloaded —Wachowsy's)
Respuesta proporcionada por las IA de OpenAI 'ChatGPT' y Google 'Bard' a la pregunta de si
usan programación probabilística en su código —no las usan—
Existen varios casos y estudios que apoyan esta visión. En el 2018 Google y Uber, introdujeron modelos de programación probabilísticos para mejorar sus algoritmos de predicción. Es decir, aplicaron un factor de error —al menos, un grado de incertidumbre— para mejorar su modelo, lo que no deja de resultar paradójico. Desde entonces el único inconveniente que parece que tengan estos paradigmas probabilísticos son los elevados requerimientos de computación. A día de hoy no parece que se haya llegado a una solución definitiva, evidenciando que las posibles mejoras parece que se encuentran en el ámbito de cómo la IA maneja la incertidumbre.
«mientras una inteligencia no demuestre ese punto de duda e inseguridad, ansiedad ante la posibilidad del fracaso y la capacidad de adaptar según las circunstancias el grado de éxito respecto al objetivo original, no habrá realmente inteligencia»
—F. J. Suñer Iglesias (El Sitio de ciencia-ficción)
De manera paralela, en el otro lado de esta ecuación se encuentran los estudios sobre la consciencia humana y qué hace hace a nuestra inteligencia tan particular y distinta de la artificial. Precisamente, varios estudios concuerdan que es el carácter probabilístico de la mecánica cuántica la que mejor podría explicar cómo funciona nuestra mente y una de las conclusiones más llamativas es que la principal característica que nos define es la de cometer errores. En definitiva, tanto para mejorar la inteligencia artificial en si misma, como para hacerlo con la interacción de esta con los humanos, es necesario contemplar el error como parte de un proceso de interacción con el mundo real. Un mundo de probabilidades donde las cosas no siempre salen como queremos. Un mundo en el que la humanidad ha tenido que aprender a vivir, convencidos de una seguridad como manera de hacer frente a la incertidumbre que no deseamos aceptar del todo, pero que en el fondo sabemos que está ahí. Unos humanos que a pesar de sus tropiezos y errores, hemos sabido aprovecharlos para lograr llegar hasta donde estamos.
Enlaces
- Rubio, Isabel. La creación de la World Wide Web fue un accidente. (17/05/2020). Noticias & Protagonistas (publicado originalmente en El País) [acceso el 25/10/2023] <enlace>
- Green, Tristan. Quantum cognition theory explains why humans make stupid decisions (20/01/2020). The Next Web. [acceso el 25/10/2023] <enlace>
- Niel, David. Here's Why Our Most Irrational Decisions Could Be a Result of Quantum Theory. (17/09/2015). Science Alert. [acceso el 25/10/2023] <enlace>