Google pide disculpas por las “inexactitudes” en algunas de las imágenes generadas por su herramienta de Inteligencia Artificial denominada Gemini, que está siendo tremendamente criticada por mostrar a figuras o grupos históricamente integrados por “blancos” como si fueran personas de color, en lo que sería un exceso ficticio de corrección política.
La empresa de tecnología dice que está trabajando para mejorar las representaciones históricas de su herramienta, que tiene como objetivo crear una amplia gama de resultados para reflejar la diversidad del mundo real.
Sin embargo, algunos críticos de posiciones políticas de derecha (lo que en Argentina podría equiparse a los libertarios), acusan a Google de tener una agenda política “para borrar a las personas blancas”.
LA PLATAFORMA DE IA DE GOOGLE
Gemini es una plataforma de generación de imágenes que compite con otras como OpenAI. Utiliza grandes conjuntos de datos de imágenes y subtítulos para producir la “mejor” adaptación a una consulta determinada.
Pero en los últimos días, se publicaron en las redes sociales ejemplos de cómo Gemini produce resultados históricamente inexactos o inapropiados, como mostrar a soldados alemanes de la era nazi de piel negra, o a los Padres Fundadores de Estados Unidos también como personas de color.
Estos ejemplos están siendo esparcidos en gran medida por figuras de derecha que atacan a Google por lo que perciben como un sesgo liberal de racismo inverso.
Algunos incluso utilizan referencias antisemitas codificadas para culpar a Google de intentar reescribir la historia. Otros defienden la idea de retratar la diversidad, pero solo en ciertos casos, y critican a Gemini por no hacerlo de manera matizada.
Google no especificó qué imágenes considera erróneas, pero admitió que Gemini no dio “en el blanco” en algunas representaciones históricas. (en inglés no existe este chistoso juego de palabras, porque la frase es “But it’s missing the mark here”, al traducirlo al español se genera otra paradoja racista con “dar en el blanco”)
Google dijo que está trabajando para mejorar este tipo de representaciones de inmediato. También como justificación dijo que “Gemini genera una amplia gama de personas”, y que eso es algo bueno porque “la gente de todo el mundo lo usa”.
La generación de imágenes de IA tiene un historial de amplificar los estereotipos raciales y de género, debido a la falta de diversidad en los conjuntos de datos utilizados para entrenarlos.
¿RACISMO INVERSO EN RESPUESTAS DE GOOGLE?
Una investigación del Washington Post del año pasado encontró que las consultas del estilo “una persona productiva” daban como resultado imágenes de figuras enteramente blancas y casi exclusivamente masculinas. Mientras que las consultas del tipo “una persona en servicios sociales” producían imágenes de personas negras.
Es posible que Google haya intentado corregir este problema al impulsar la diversidad en sus resultados, pero sin tener en cuenta el contexto histórico o cultural.
Solicitudes de imágenes con Inteligencia Artificial históricas producen resultados que tergiversan el pasado, como mostrar a senadoras estadounidenses en el siglo XIX que eran mujeres negras o nativas americanas, cuando la primera senadora, una mujer blanca, recién ingresó al Congreso de ese país en 1922. Estos errores terminan borrando una historia real de discriminación racial y de género, y crea una falsa impresión de diversidad.