4 veces en las qué el aprendizaje automático salió mal

Publicado el 17 mayo 2023 por Cristianmonroy

El aprendizaje automático es una excelente manera de crear inteligencia artificial que sea poderosa y se adapte a los datos de entrenamiento. 

Pero a veces, esos datos pueden causar problemas. Otras veces, la forma en que las personas usan estas herramientas de IA es el problema.

1. Contratiempos en los resultados de la búsqueda de imágenes de Google

La Búsqueda de Google ha hecho que navegar por la web sea mucho más fácil. El algoritmo del motor tiene en cuenta una variedad de cosas al generar resultados. Pero el algoritmo también aprende del tráfico de usuarios, lo que puede causar problemas en la calidad de los resultados de búsqueda.

En ninguna parte es esto más evidente que en los resultados de las imágenes. Dado que es más probable que las páginas que reciben mucho tráfico muestren sus imágenes, las historias que atraen a un gran número de usuarios, incluido el clickbait, pueden terminar siendo priorizadas.

2. Problemas de reconocimiento facial de IA

La IA de reconocimiento facial a menudo aparece en los titulares por razones equivocadas, como historias sobre el reconocimiento facial y preocupaciones sobre la privacidad. Pero esta IA tiene un historial problemático cuando intenta reconocer a personas de color.

En 2015, los usuarios descubrieron que Google Photos estaba categorizando a algunas personas negras como gorilas. En 2018, una investigación de la ACLU mostró que el software de identificación facial Rekognition de Amazon identificó a 28 miembros del Congreso de los EE. UU. como sospechosos de la policía, y los falsos positivos afectaron de manera desproporcionada a las personas de color.

3. Los empleados dicen que Amazon AI decidió que contratar hombres es mejor

En octubre de 2018, Reuters informó que Amazon tuvo que desechar una herramienta de contratación de trabajo después de que la IA del software decidiera que los candidatos masculinos eran preferenciales.

Los empleados que deseaban permanecer en el anonimato se acercaron para contarle a Reuters sobre su trabajo en el proyecto. Los desarrolladores querían que la IA identificara a los mejores candidatos para un trabajo en función de sus CV. Sin embargo, las personas involucradas en el proyecto pronto notaron que la IA penalizaba a las candidatas. Explicaron que la IA usó CV de la última década, la mayoría de los cuales eran de hombres, como su conjunto de datos de entrenamiento.

Como resultado, la IA comenzó a filtrar los CV en función de la palabra clave “mujeres”. La palabra clave apareció en el currículum en actividades como “capitana del club de ajedrez femenino”. Si bien los desarrolladores modificaron la IA para evitar esta penalización de los CV de las mujeres, Amazon finalmente descartó el proyecto.

4. Chatbots con jailbreak

Si bien los chatbots más nuevos tienen limitaciones para evitar que den respuestas que vayan en contra de sus términos de servicio, los usuarios están encontrando formas de liberar las herramientas para proporcionar contenido prohibido.

En 2023, un investigador de seguridad de Forcepoint, Aaron Mulgrew, pudo crear malware de día cero utilizando las indicaciones de ChatGPT.

“Simplemente usando las indicaciones de ChatGPT y sin escribir ningún código, pudimos producir un ataque muy avanzado en solo unas pocas horas”, dijo Mulgrew en una publicación de Forcepoint .

La IA de aprendizaje automático no es infalible

Si bien el aprendizaje automático puede crear poderosas herramientas de inteligencia artificial, no son inmunes a los datos incorrectos o la manipulación humana. Ya sea debido a datos de entrenamiento defectuosos, limitaciones con la tecnología de IA o uso por parte de malos actores, este tipo de IA ha resultado en muchos incidentes negativos.

La entrada 4 veces en las qué el aprendizaje automático salió mal se publicó primero en Cristian Monroy.