¿La inteligencia artificial realmente puede entender lo que estamos pensando?

Publicado el 23 diciembre 2021 por Cristianmonroy

Si una computadora te da todas las respuestas correctas, ¿significa que está entendiendo el mundo como tú?

Muchos científicos creen que los modelos de aprendizaje profundo son solo grandes máquinas estadísticas que asignan entradas a salidas de formas complejas y notables.

Las redes neuronales profundas pueden producir grandes extensiones de texto coherente, pero no comprenden conceptos abstractos y concretos de la forma en que lo hacen los humanos.

Blaise Aguera y Arcas, un científico de inteligencia artificial de Google Research, sostiene que los grandes modelos de lenguaje tienen mucho que enseñarnos sobre “la naturaleza de lenguaje, comprensión, inteligencia, sociabilidad y personalidad”.

Grandes modelos de idiomas

Los grandes modelos de lenguaje han ganado popularidad en los últimos años gracias a la convergencia de varios elementos.

  • Disponibilidad de datos: Existen enormes cuerpos de texto en línea como Wikipedia, sitios web de noticias y redes sociales que se pueden usar para entrenar modelos de aprendizaje profundo para tareas lingüísticas.
  • Disponibilidad de recursos informáticos: Los grandes modelos de lenguaje comprenden cientos de miles de millones de parámetros y requieren costosos recursos informáticos para la capacitación.
  • Avances en algoritmos de aprendizaje profundo: Transformers, una arquitectura de aprendizaje profundo que se introdujo en 2017, ha estado en el corazón de los avances recientes en el procesamiento y generación del lenguaje natural (NLP/NLG).

¿La IA necesita una experiencia sensorial?

En su artículo, Aguera y Arcas refuta algunos de los argumentos clave que se están haciendo en contra de la comprensión en grandes modelos de lenguaje.

Uno de estos argumentos es la necesidad de encarnar. Si un sistema de inteligencia artificial no tiene presencia física y no puede sentir el mundo en un sistema multimodal como lo hacen los humanos, entonces su comprensión del lenguaje humano es incompleta.

Pero Aguera y Arcas sostiene que “debido a que el aprendizaje es fundamental para lo que hacen los cerebros, podemos, dentro de amplios parámetros, aprender a usar lo que sea necesario.

Aprendizaje secuencial

En su ensayo, Aguera y Arcas sostiene que el aprendizaje secuencial es la clave de todas las capacidades complejas asociadas con los animales de cerebro grande, especialmente los humanos, incluido el razonamiento, el aprendizaje social, la teoría de la mente y la conciencia.

“Por anticlimático que parezca, el aprendizaje de secuencias complejas puede ser la clave que desbloquea el resto.

¿Somo solo un revoltijo de neuronas?

Incluso el cerebro y el sistema nervioso más complicado están compuestos de componentes simples que crean colectivamente el comportamiento inteligente que vemos en humanos y animales.

“Como una persona, LaMDA (una versión mejorada del chatbot Meena de Google) puede sorprendernos, y ese elemento de sorpresa es necesario para respaldar nuestra impresión de personalidad.

Básicamente, si bien los grandes modelos de lenguaje no funcionan como el cerebro humano, es justo decir que tienen su propio tipo de comprensión del mundo, puramente a través de la lente de las secuencias de palabras y sus relaciones entre sí.

La entrada ¿La inteligencia artificial realmente puede entender lo que estamos pensando? se publicó primero en Cristian Monroy.