La apertura del código de IA: clave para evitar un futuro al estilo SkyNet

Publicado el 02 noviembre 2023 por Lauratuero @incubaweb

En una era marcada por avances vertiginosos en el campo de la inteligencia artificial (IA), expertos de renombre y laureados con el Premio Turing, como Yoshua Bengio, Geoffrey Hinton y Andrew Yao, han hecho un llamado inesperado. Este grupo de élite, acompañado por otros 21 especialistas, está presionando a las empresas líderes en IA para que asignen al menos un tercio de sus presupuestos de investigación y desarrollo (I+D) a la seguridad, una demanda que resuena con urgencia en un contexto de inquietudes crecientes sobre los riesgos que la IA podría representar para la existencia humana.

La sugerencia de estos académicos se suma a la discusión sobre la necesidad de mantener un ecosistema de desarrollo de código abierto robusto y saludable en la industria de la IA. Esto, argumentan, podría ser crucial para evitar escenarios catastróficos, como los imaginados en la ciencia ficción de Hollywood, donde las «rebeliones de las máquinas» a menudo emergen de monopolios opacos y desregulados.

Regulaciones en Disputa: Innovación vs. Seguridad

La cuestión de cómo regular la IA está incendiando debates en todo el mundo. Andrew Ng, pionero en IA y cofundador de Google Brain, ha expresado preocupación por cómo las actuales propuestas regulatorias, promovidas por los gigantes de la tecnología, podrían sofocar la innovación en nombre de la seguridad. Según Ng, este enfoque regulatorio podría perjudicar a las alternativas de código abierto, y eventualmente cementar un oligopolio tecnológico.

Las preocupaciones de Ng no son infundadas. En los últimos meses, hemos visto la influencia de las ‘Big Tech’ en la regulación de la IA, como fue evidente en la comparecencia de Sam Altman, CEO de OpenAI, ante el Senado de EE.UU. Los medios destacaron sus advertencias sobre los potenciales daños de la IA, mientras que los legisladores parecían dispuestos a seguir las recomendaciones de Silicon Valley casi ciegamente.

Por otro lado, mientras Altman y otros promovían públicamente más regulación, se evidenció que OpenAI había presionado exitosamente para que la normativa de la Unión Europea sobre IA se suavizara en beneficio de las grandes tecnológicas, amenazando así la viabilidad de las alternativas de código abierto.

La Promesa del Código Abierto

En contraste con estas maniobras políticas, el debate científico ha destacado el papel potencialmente protector del código abierto. Yann LeCun, otro pionero de la IA, planteó una pregunta provocativa en Twitter: «¿Podría haber ocurrido la toma de control de SkyNet en ‘Terminator’ si SkyNet hubiera sido de código abierto?».

La propuesta de LeCun sugiere que la transparencia y la colaboración inherentes al desarrollo de código abierto podrían ofrecer un antídoto contra las narrativas distópicas que a menudo se ven en el cine, donde un genio aislado crea una tecnología que se sale de control.

No obstante, los oponentes al acceso abierto a la IA destacan el riesgo de proliferación y mal uso sin las salvaguardas adecuadas. Geoffrey Hinton, otro titán en el campo, comparó la idea de código abierto para la IA con publicar diseños de armas nucleares, mientras que otros, como Jeremy Howard, cuestionaron esa analogía, instando a un diálogo más matizado.

Conclusión: Un Equilibrio en Búsqueda

La industria de la IA se encuentra en una encrucijada crítica. Por un lado, está el llamado a fortalecer la seguridad y las regulaciones para prevenir consecuencias desastrosas. Por otro, existe el imperativo de fomentar un ambiente de código abierto que permita la colaboración y la innovación continua. Los próximos pasos que tome la comunidad de IA no solo determinarán la trayectoria de su desarrollo sino también la forma en la que la sociedad puede beneficiarse, o sufrir, a manos de una de las tecnologías más poderosas de nuestro tiempo.