Revista Salud y Bienestar

Cómo preocuparse sabiamente por la inteligencia artificial – The Economist

Por David Ormeño @Arcanus_tco

El rápido progreso en la IA está despertando tanto miedo como emoción. ¿Qué tan preocupado deberías estar?

¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes... y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Estas preguntas fueron formuladas el mes pasado en una carta abierta del Future of Life Institute, una ong . Pidió una "pausa" de seis meses en la creación de las formas más avanzadas de inteligencia artificial ( IA ), y fue firmado por luminarias tecnológicas, incluido Elon Musk. Es el ejemplo más destacado hasta ahora de cómo el rápido progreso de la IA ha provocado ansiedad sobre los peligros potenciales de la tecnología.

En particular, los nuevos "modelos de lenguaje extenso" (LLM, por sus siglas en inglés), del tipo que impulsa a ChatGPT, un chatbot creado por OpenAI, una startup, han sorprendido incluso a sus creadores con sus talentos inesperados a medida que se han ampliado. Tales habilidades "emergentes" incluyen todo, desde resolver acertijos lógicos y escribir código de computadora hasta identificar películas a partir de resúmenes de tramas escritos en emoji.

Estos modelos están destinados a transformar la relación de los humanos con las computadoras, el conocimiento e incluso consigo mismos. Los defensores de la IA defienden su potencial para resolver grandes problemas mediante el desarrollo de nuevos medicamentos, el diseño de nuevos materiales para ayudar a combatir el cambio climático o desentrañar las complejidades de la energía de fusión. Para otros, el hecho de que las capacidades de la IA ya estén superando la comprensión de sus creadores corre el riesgo de dar vida al escenario de desastre de ciencia ficción de la máquina que engaña a su inventor, a menudo con consecuencias fatales.

Esta mezcla burbujeante de emoción y miedo hace que sea difícil sopesar las oportunidades y los riesgos. Pero se pueden aprender lecciones de otras industrias y de cambios tecnológicos pasados. Entonces, ¿qué ha cambiado para que la IA sea mucho más capaz? ¿Qué tan asustado deberías estar? ¿Y qué deben hacer los gobiernos?

En una sección especial de Ciencias, exploramos el funcionamiento de las películas y su dirección futura. La primera ola de sistemas modernos de IA, que surgió hace una década, se basó en datos de entrenamiento cuidadosamente etiquetados. Una vez expuestos a una cantidad suficiente de ejemplos etiquetados, podrían aprender a hacer cosas como reconocer imágenes o transcribir el habla. Los sistemas actuales no requieren etiquetado previo y, como resultado, se pueden entrenar utilizando conjuntos de datos mucho más grandes tomados de fuentes en línea. Los LLM pueden, en efecto, capacitarse en todo Internet, lo que explica sus capacidades, buenas y malas.

Esas capacidades se hicieron evidentes para un público más amplio cuando se lanzó ChatGPT en noviembre. Un millón de personas lo habían usado en una semana; 100m en dos meses. Pronto se utilizó para generar ensayos escolares y discursos de boda. La popularidad de ChatGPT y la decisión de Microsoft de incorporarlo a Bing, su motor de búsqueda, llevó a las empresas rivales a lanzar también chatbots.

Algunos de estos produjeron resultados extraños. Bing Chat le sugirió a un periodista que debería dejar a su esposa. ChatGPT ha sido acusado de difamación por un profesor de derecho. Los LLM producen respuestas que tienen la pátina de la verdad, pero a menudo contienen errores fácticos o invenciones absolutas. Aun así, Microsoft, Google y otras empresas de tecnología han comenzado a incorporar LLM en sus productos para ayudar a los usuarios a crear documentos y realizar otras tareas.

La reciente aceleración tanto en el poder como en la visibilidad de los sistemas de IA , y la creciente conciencia de sus habilidades y defectos, han generado temores de que la tecnología ahora avanza tan rápido que no se puede controlar de manera segura. De ahí el llamado a una pausa y la creciente preocupación de que la IA pueda amenazar no solo los trabajos, la precisión de los hechos y la reputación, sino también la existencia de la humanidad misma.

¿Extinción? ¿Rebelión?

El temor de que las máquinas roben puestos de trabajo tiene siglos de antigüedad. Pero hasta ahora, la nueva tecnología ha creado nuevos puestos de trabajo para reemplazar los que ha destruido. Las máquinas tienden a ser capaces de realizar algunas tareas, no otras, lo que aumenta la demanda de personas que puedan hacer los trabajos que las máquinas no pueden. ¿Podría esta vez ser diferente? No se puede descartar una dislocación repentina en los mercados laborales, incluso si hasta ahora no hay señales de que ocurra. La tecnología anterior tendía a reemplazar las tareas no calificadas, pero los LLM pueden realizar algunas tareas de cuello blanco, como resumir documentos y escribir código.

El grado de riesgo existencial que plantea la IA ha sido objeto de acalorados debates. Los expertos están divididos. En una encuesta de investigadores de IA realizada en 2022, el 48% pensó que había al menos un 10% de posibilidades de que el impacto de la IA fuera "extremadamente malo (por ejemplo, la extinción humana)". Pero el 25% dijo que el riesgo era del 0%; el investigador mediano calculó el riesgo en un 5%. La pesadilla es que una IA avanzada cause daños a gran escala, creando venenos o virus, o persuadiendo a los humanos para que cometan actos terroristas. No es necesario que tenga malas intenciones: a los investigadores les preocupa que las futuras IA puedan tener objetivos que no coincidan con los de sus creadores humanos.

Tales escenarios no deben ser descartados. Pero todos implican una gran cantidad de conjeturas y un salto con respecto a la tecnología actual. Y muchos imaginan que las futuras IA tendrán acceso sin restricciones a la energía, el dinero y el poder de cómputo, que son restricciones reales en la actualidad, y podrían negarse a una IA rebelde en el futuro. Además, los expertos tienden a exagerar los riesgos en su área, en comparación con otros pronosticadores. (Y Musk, que está lanzando su propia startup de inteligencia artificial, tiene interés en que sus rivales derriben herramientas). Imponer una regulación estricta, o incluso una pausa, hoy parece una reacción exagerada. Una pausa también sería inaplicable.

Se necesita regulación, pero por razones más mundanas que salvar a la humanidad. Los sistemas de IA existentes plantean preocupaciones reales sobre el sesgo, la privacidad y los derechos de propiedad intelectual. A medida que avanza la tecnología , podrían surgir otros problemas. La clave es equilibrar la promesa de la IA con una evaluación de los riesgos y estar listo para adaptarse.

Hasta ahora, los gobiernos están adoptando tres enfoques diferentes. En un extremo del espectro está Gran Bretaña, que ha propuesto un enfoque de "toque ligero" sin nuevas reglas ni organismos reguladores, pero aplica las regulaciones existentes a los sistemas de IA. El objetivo es impulsar la inversión y convertir a Gran Bretaña en una "superpotencia de IA". Estados Unidos ha adoptado un enfoque similar, aunque la administración de Biden ahora está buscando opiniones públicas sobre cómo sería un libro de reglas.

La UE está tomando una línea más dura. La ley propuesta clasifica los diferentes usos de la IA según el grado de riesgo, y exige un seguimiento y una divulgación cada vez más estrictos a medida que el grado de riesgo aumenta, por ejemplo, desde la recomendación musical hasta los vehículos autónomos. Algunos usos de la IA están totalmente prohibidos, como la publicidad subliminal y la biometría remota. Las empresas que infrinjan las normas serán multadas. Para algunos críticos, estas regulaciones son demasiado asfixiantes.

Pero otros dicen que se necesita un enfoque aún más severo. Los gobiernos deben tratar la IA como medicamentos, con un regulador dedicado, pruebas estrictas y aprobación previa antes del lanzamiento público. China está haciendo algo de esto, exigiendo a las empresas que registren productos de IA y se sometan a una revisión de seguridad antes del lanzamiento. Pero la seguridad puede ser un motivo menor que la política: un requisito clave es que los resultados de las IA reflejen el "valor central del socialismo".

¿Qué hacer? Es poco probable que el enfoque de toque ligero sea suficiente. Si la IA es una tecnología tan importante como los automóviles, los aviones y los medicamentos, y hay buenas razones para creer que lo es, entonces, al igual que ellos, necesitará nuevas reglas. En consecuencia, el modelo de la UE es el más cercano a la marca, aunque su sistema de clasificación está sobrecargado y un enfoque basado en principios sería más flexible. La divulgación convincente sobre cómo se entrenan los sistemas, cómo funcionan y cómo se monitorean, y cómo requieren inspecciones, sería comparable a reglas similares en otras industrias.

Esto podría permitir una regulación más estricta con el tiempo, si fuera necesario. Entonces, un regulador dedicado puede parecer apropiado; también lo pueden hacer los tratados intergubernamentales, similares a los que rigen las armas nucleares, en caso de que surjan pruebas plausibles de riesgo existencial. Para monitorear ese riesgo, los gobiernos podrían formar un organismo inspirado en el CERN , un laboratorio de física de partículas, que también podría estudiar la seguridad y la ética de la IA, áreas en las que las empresas carecen de incentivos para invertir tanto como la sociedad podría desear.

Esta poderosa tecnología plantea nuevos riesgos, pero también ofrece oportunidades extraordinarias. Equilibrar los dos significa caminar con cuidado. Un enfoque medido hoy puede proporcionar las bases sobre las cuales se pueden agregar más reglas en el futuro. Pero el momento de comenzar a construir esos cimientos es ahora.


Volver a la Portada de Logo Paperblog