¿Cómo pueden los humanos controlar la Inteligencia Artificial? ¿Es eso siquiera posible?
Con los modelos de lenguaje de IA modernos como ChatGPT y Bing Chat de Microsoft haciendo olas en todo el mundo, a varias personas les preocupa que la IA se apodere del mundo.
Si bien no nos encontraremos con SkyNet en el futuro previsible, la IA está mejorando a los humanos en varias cosas. Ahí es donde entra en juego el problema del control de la Inteligencia Artificial.
Explicación del problema del control de la Inteligencia Artificial
El problema del control de la IA es la idea de que la IA eventualmente será mejor que los humanos para tomar decisiones. De acuerdo con esta teoría, si los humanos no configuran las cosas correctamente de antemano, no tendremos la oportunidad de arreglar las cosas más tarde, lo que significa que la IA tendrá un control efectivo.
La investigación actual sobre modelos de IA y Machine Learning (ML) está, como mínimo, a años de superar las capacidades humanas. Sin embargo, es razonable pensar que, considerando el progreso actual, la IA superará a los humanos en términos de inteligencia y eficiencia.
Si un sistema de IA superara la inteligencia humana sin las garantías adecuadas, el resultado podría ser catastrófico. Dichos sistemas podrían asumir el control de los recursos físicos a medida que muchas tareas se logran mejor o más eficientemente.
¿Cuándo se aplica el problema del control de la Inteligencia Artificial?
El principal problema es que cuanto mejor se vuelve un sistema de IA, más difícil es para un supervisor humano monitorear la tecnología para garantizar que el control manual se pueda tomar fácilmente en caso de que el sistema falle. Además, la tendencia humana a confiar en un sistema automatizado es mayor cuando el sistema funciona de manera confiable la mayor parte del tiempo.
Un gran ejemplo de esto es la suite Tesla Full-Self Driving (FSD). Si bien el automóvil puede conducirse solo, requiere que un humano tenga las manos en el volante, listo para tomar el control del automóvil en caso de que el sistema no funcione correctamente.
Sin embargo, a medida que estos sistemas de IA se vuelvan más confiables, incluso la atención del ser humano más alerta comenzará a variar y aumentará la dependencia del sistema autónomo.
¿Se puede resolver el problema del control de la Inteligencia Artificial?
Hay dos respuestas a si el problema del control de la IA se puede resolver o no. Primero, si interpretamos la pregunta literalmente, el problema del control no se puede resolver. No hay nada que podamos hacer que apunte directamente a la tendencia humana de confiar en un sistema automatizado cuando funciona de manera confiable y más eficiente la mayor parte del tiempo.
Sin embargo, si esta tendencia se considera como una característica de tales sistemas, podemos idear formas de evitar el problema de control. Por ejemplo, el trabajo de investigación Algorithmic Decision-Making and the Control Problem sugiere algunos métodos para lidiar con la situación:
- El uso de sistemas más confiables requiere que un ser humano se comprometa activamente con el sistema, ya que los sistemas menos confiables no plantean el problema de control.
- Esperar a que un sistema supere la eficiencia y la confiabilidad humanas antes de la implementación en el mundo real.
El enfoque DCAF siempre pone a un operador humano al mando de un sistema automatizado, asegurando que su entrada controle las partes más importantes del proceso de toma de decisiones del sistema.
¿Podremos alguna vez controlar verdaderamente la Inteligencia Artificial?
A medida que los sistemas de IA se vuelvan más avanzados, capaces y confiables, continuaremos encargándoles más tareas. Sin embargo, el problema del control de la IA puede resolverse con las precauciones y salvaguardias adecuadas.
La entrada ¿Cuál es el problema de intentar controlar la Inteligencia Artificial? se publicó primero en Cristian Monroy.