Microsoft está desatando un poco su AI Bing

Publicado el 26 febrero 2023 por Ferranmunoz @ferran_munoz

Después de haber restringido por completo con urgencia su IA hasta el punto de dejarla inutilizable, Microsoft vuelve a revisar su estrategia y suelta un poco de lastre. ¿Fue el editor demasiado rápido para revelar Bing AI y demasiado rápido para frenarlo en el proceso? La competencia probablemente aprenderá de esto…

Durante su primera semana de exposición al público en general, la nueva IA de Bing sorprendió a muchos usuarios con su capacidad para acompañar de manera útil las búsquedas, crear resúmenes y mantener conversaciones en torno a los temas buscados. Pero también mostró algunas debilidades con una tendencia a veces a confabular, a perderse en el camino en conversaciones que se prolongaban fuera de los contextos de investigación y sobre todo a querer adoptar un tono similar al del interlocutor, siendo a veces brusco o incluso agresivo. , enamorada o en pleno «estado de ánimo» tantas emociones que no sólo no puede experimentar sino que sobre todo se supone que debe adoptar.

Aquí, no es tanto el modelo conversacional de OpenAI el que está en cuestión como los modelos Prometheus que supuestamente controlan las derivas, modelos desarrollados por Microsoft.

Hasta ahora bastante atrevido, el editor parece haberse asustado de repente ante las muchas derivas incontroladas de su IA, derivas que no había previsto ni detectado durante las fases de prueba de laboratorio. A partir del viernes pasado, Microsoft implementó nuevos bloqueos que se habían vuelto tan restrictivos que su IA de repente perdió la mayoría de sus cualidades e interés. ¡Un imperativo de responsabilidad según el editor que parecía furiosamente un ataque de pánico!

Habiendo recuperado el control de su IA y de sus mentes, pero sobre todo impulsado por las reacciones muy negativas de los usuarios ante esta IA ahora totalmente restringida, Microsoft anunció anoche que había soltado un poco de lastre. » Tenemos la intención de restablecer sesiones de chat más largas y actualmente estamos trabajando en la mejor manera de hacerlo de manera responsable. explican los funcionarios de Bing en una publicación de blog. » El primer paso que estamos tomando es aumentar la cantidad de chats en una sola sesión de chat a 6 chats y pasar a un total de 60 sesiones de chat por día. Nuestros datos muestran que para la gran mayoría de ustedes, esto permitirá el uso diario natural de Bing ».

En la prueba, la IA se vuelve un poco más útil, pero sigue siendo increíblemente restringida en comparación con lo que mostró en los primeros días del lanzamiento. Dicho esto, para las búsquedas clásicas, el nuevo umbral es suficiente. Por otro lado, los otros bloqueos, y en particular el que le prohíbe hablar de sí misma y de las IA en general, siguen vigentes, lo que en ocasiones dificulta la investigación precisamente en torno a las IA.

El editor agrega » Dicho esto, nuestra intención es ir más allá y planeamos aumentar el límite diario a 100 chats en total pronto. Además, con este próximo cambio, sus búsquedas normales ya no contarán para el total de sus chats. Le proporcionaremos más actualizaciones a medida que continuamos mejorando el modelo ». La sentencia es mucho menos inocua de lo que parece. Aparentemente, en Microsoft, el momento no es para algunos ajustes sino para reeducar los modelos y probablemente los famosos modelos Prometheus pero también quizás el de OpenAI que tiene demasiada tendencia a querer adoptar el tono del usuario en lugar de manteniendo la neutralidad total. Un problema probablemente mucho más complejo y lento de resolver que los ajustes de las reglas de control.

Microsoft también confirma que está trabajando activamente en otra falla en su IA: su tendencia natural a jugar con fechas y números, lo que en particular dificulta su capacidad para analizar y resumir documentos financieros. Microsoft explica “ Comenzaremos a probar una opción adicional que le permite elegir el tono de la discusión: ‘más específico’, que le dará respuestas más cortas y más orientadas a la investigación, ‘equilibrado’ o ‘más creativo’, que le permitirá para obtener respuestas más largas y más inspiradas. El objetivo es darle más control sobre el tipo de comportamiento de chat de Bing que mejor se adapte a sus necesidades. ».

Una vez más, los reveses de Microsoft no son una verdadera sorpresa a pesar de que el editor ha sido extrañamente ingenuo e imprudente a pesar de su experiencia con Tay hace años. Hipo que debería encantar y enseñar mucho a Google con su futuro Bard (en prueba interna). Google no debería repetir los mismos errores y escuchar a sus usuarios internos: según algunas fuentes, los empleados de Microsoft expresaron reservas sobre los excesos de comportamiento de AI Bing ya en noviembre de 2022.

Lea también:

Al querer corregir su IA, Bing lo rompió todo

Ya hay más de 1 millón de personas en la lista de espera de Bing IA

Microsoft presenta el nuevo Bing impulsado por IA… ¡Y eso lo cambia todo!

Los costosos reveses de los competidores de Bard y ChatGPT de China

Microsoft ChatGPT vs Google Bard, la guerra de la IA está en marcha

ChatGPT tiene 100 millones de usuarios y Google presentará su contraataque esta semana

[