Google ha decidido pausar la generación de imágenes de personas para abordar críticas relacionadas con inexactitudes raciales. Esta medida destaca los desafíos continuos que enfrentan las empresas tecnológicas al equilibrar la innovación con la responsabilidad social.
Inexactitudes raciales y el compromiso de Google
El equipo detrás de Google Gemini reconoció que su herramienta, aunque capaz de generar una amplia gama de personas, no logró acertar en ciertos contextos históricos. Por ejemplo, se informó que el modelo produjo imágenes de soldados alemanes de la Segunda Guerra Mundial y vikingos como personas de color. Estas representaciones inexactas llevaron a críticas y a un debate más amplio sobre los prejuicios y sesgos en la IA.
La respuesta ante la controversia
Frente a esta situación, Google actuó rápidamente para pausar esta función y anunció que están trabajando en una versión mejorada. Jack Krawczyk, director senior del equipo Gemini, afirmó: «Estamos trabajando para mejorar este tipo de representaciones inmediatamente». Además, destacó que las herramientas generativas deben reflejar su base global de usuarios y admitió que las solicitudes con inclinaciones históricas necesitan un trabajo adicional para ajustarse a los matices requeridos.
Esfuerzos por eliminar el sesgo en la IA
Eliminar el sesgo en los modelos generativos es un problema complejo. Andrew Rogoyski, del Instituto para la IA Centrada en las Personas en la Universidad de Surrey, señaló que se están investigando distintos métodos para mitigar estos problemas. Desde curar conjuntos de datos hasta introducir salvaguardias para modelos entrenados, existe un consenso generalizado sobre la necesidad urgente de mejorar estas tecnologías.
Implicaciones sociales y éticas
Las implicaciones sociales y éticas son enormes cuando se trata del desarrollo responsable de IA. Una investigación realizada por The Washington Post reveló múltiples ejemplos donde generadores de imágenes mostraron sesgos contra personas no blancas o más oscuras. Esto resalta cómo incluso las herramientas basadas en inteligencia artificial pueden perpetuar estereotipos dañinos si no se manejan con cuidado.
Pausa temporal mientras se espera una solución
Mientras tanto, Google ha desactivado temporalmente esta capacidad dentro del modelo Gemini hasta encontrar una solución adecuada. La empresa prometió notificar a sus usuarios cuando esta característica esté disponible nuevamente tras realizar las mejoras necesarias.
La presión por pelear en el campo de la IA
Google está tratando de reducir la ventaja que tiene la alianza OpenAI con Microsoft. Es claro que OpenAI ha presentado soluciones como ChatGPT, DALL-E y recientemente SORA que están marcando el camino a los demás competidores. Esto sumado a la integración que Microsoft ha hecho de OpenAI en sus productos estrellas como Microsoft Office, Windows y Azure ponen mucha presión en Google quien no sólo está perdiendo de liderar estas nuevas categorías de productos sino que ve amenazado su liderazgo en el campo de los motores de búsqueda.
Al parecer esto está haciendo que los productos que saca Google para IA no estén del todo listo y obligue a hacer estas pausas para corregir de una manera apresurada. Esto se refleja también en el hecho de que Google tuvo que sacar una versión Gemini Ultra 1.5, a pocos días de haber sacado la 1.0.