Google le enseña a la Inteligencia Artificial a “ver” y “oír” al mismo tiempo

Publicado el 02 diciembre 2021 por Cristianmonroy

Un paso más hacia la percepción a nivel humano…

Un equipo de científicos de Google Research, el instituto de Alan Turing y la Universidad de Cambridge presentó recientemente un nuevo transformador multimodal de última generación (SOTA) para IA.

En otras palabras, le están enseñando a la IA como “oír” y “ver” al mismo tiempo.

Al frente

Probablemente hayas oído hablar de los sistemas de IA de transformadores como GPT-3. En esencia, procesan y categorizan datos de un tipo especifico de flujo de medios.

Bajo el paradigma actual de SOTA, si quisieras analizar los datos de un video, necesitarías varios modelos de IA ejecutándose al mismo tiempo.

Necesitarías un modelo que haya sido entrenado en videos y otro modelo que haya sido entrenado en clips de audio.

Esto se debe a que, al igual que sus oídos y ojos humanos son sistemas completamente diferentes (pero conectados), los algoritmos necesarios para procesar diferentes tipos de audio suelen ser diferentes a los que se utilizan para procesar video.

Antecedentes

Lo increíble aquí es que el equipo no solo pudo construir un sistema multimodal capaz de manejar sus tareas relacionadas simultáneamente, sino que al hacerlo lograron superar a los modelos SOTA actuales que se enfocan en una sola tarea.

Los investigadores llaman a su sistema “PolyVit”. Y, según ellos, actualmente no tienen competencia.

Toma rápida

Esto podría ser un gran problema para el mundo empresarial.

Uno de los mayores problemas que enfrentan las empresas que esperan implementar pilas de IA es la compatibilidad. Hay literalmente cientos de soluciones de aprendizaje automático y no hay garantías de que funcionen juntas.

Esto da como resultado implementaciones monopolísticas en las que los lideres de TI se quedan como un solo proveedor por motivos de compatibilidad o un enfoque de combinación que conlleva más dolores de cabeza de los que normalmente vale.

Un paradigma en el que los sistemas multimodales se conviertan en la norma sería una bendición para los administradores cansados.

Por supuesto, esta es una investigación preliminar de un documento preimpreso, por lo que no hay razón para creer que veremos esto implementando ampliamente en el corto plazo.

Pero es un gran paso hacia un sistema de clasificación único para todos, y eso es algo bastante emocionante.

La entrada Google le enseña a la Inteligencia Artificial a “ver” y “oír” al mismo tiempo se publicó primero en Cristian Monroy.