Estás buscando un actor masculino y las sugerencias de imágenes de Google te dirigirán a su filmografía. Pero cuando se trata de actores femeninas, Google está más interesado en mostrarte sus cuerpos.
La herramienta de búsqueda automática de Google se encontró en varias ocasiones, difundiendo la negación del Holocausto, apoyando la supremacía blanca y sugiriendo que los musulmanes son «malvados», que los judíos son «malvados» y que la Tierra es, de hecho, plana. Pero, ¿qué pasa cuando las imágenes que queremos ver se ponen a trabajar?
En septiembre de 2018, Google introdujo una función de sugerencias para búsquedas de imágenes, esencialmente una versión de autocompletar para el mundo visual. Escribe «perros» en Google Images y un adorable carrusel de pollo aparecerá justo debajo de la barra de búsqueda, sugiriendo resultados de imagen para hooks, labrador, pit bull y rottweiler. Hasta ahora, muy lindo.
Pero cambie su área de interés a, digamos, actores de Hollywood, y el algoritmo de Google se vuelve un poco espeluznante. Si está buscando a un hombre, el algoritmo de búsqueda de imágenes de Google se centrará principalmente en su carrera. Si está buscando una mujer, el algoritmo de Google se centrará en su cuerpo.
Haga una búsqueda en Google Imágenes de Robert Downey, Jr., por ejemplo, y solo cuatro de los 30 términos de búsqueda generados algorítmicamente se refieren a su apariencia física: entrenamiento, cuerpo, guapo, lindo. La gran mayoría se centra en las películas que protagonizó y los actores con los que apareció. Haga lo mismo con la coprotagonista de Avengers, Scarlett Johansson, y Google recomendará no menos de 14 búsquedas visuales relacionadas en función de su apariencia física, desde «estómago» hasta «figura» y «grande» a «estante». Es el look masculino, el estilo del algoritmo.
Para probar la escala del problema, realizamos búsquedas en Google Imágenes de los 60 mejores actores masculinos y femeninos, según los ingresos de taquilla. Al igual que con Downey Jr. y Johansson, recopilamos todos los términos relacionados con Google que se basaban en la apariencia física. De los 30 actores masculinos, Google sugirió que nos gustaría ver un total de 82 búsquedas similares de atributos físicos: «cuerpo», «cabello» y «entrenamiento» son los favoritos para correr.
Para las 30 mujeres, Google sugirió un total de 176 búsquedas similares de atributos físicos, desde «ombligo», «21 años», «salto», «playa» y «traje de baño» hasta «medida» «,» Thicc «, «Muslo» y «pokie». En los resultados de búsqueda que analizamos para los 60 principales actores femeninos y masculinos, el algoritmo de Google sugirió más del doble de búsquedas relacionadas de atributos físicos de mujeres que de hombres. Después de que DyN Noticias llamó la atención de Google sobre estos resultados, eliminó tres de las sugerencias de búsqueda: «thicc», «oops» y «pokie».
Es el equivalente visual del Desafío de Autocompletar de YouTube, donde las celebridades están convencidas de responder la mayoría de las preguntas de Google sobre ellas. «¿Emma Watson es francesa?», «¿Emma Watson está casada?», «¿Emma Watson es vegana?» – Tienes la idea. Fundamentalmente, estas sugerencias de autocompletar, aunque se producen automáticamente, no solo se basan en la popularidad de los términos de búsqueda. De hecho, a lo largo de los años, Google ha cambiado y ha jugado con su receta de autocompletar; en un momento, lanzó una ofensiva contra los fetichistas de los pies. Sin embargo, cuando el algoritmo de búsqueda de Google se ocupa exclusivamente de lo que queremos ver, sigue siendo objetivo. Busque Emma Watson en Google Images y el algoritmo sugerirá, entre otras cosas, «cuerpo completo». Los términos de búsqueda visual de Google para Cameron Diaz incluyen 22 según su apariencia física. En comparación, Matt Damon tiene dos.
«Estos resultados de búsqueda de imágenes se basan en la distribución subyacente de datos sobre Scarlett Johansson y sus menciones de texto, así como en nombres de archivos y títulos de imágenes», dijo Aylin Caliskan, profesora asistente de informática en la Universidad George Washington en Washington, DC. Señala ejemplos similares y más conocidos de resultados de búsqueda de imágenes de Google sesgados y discriminatorios para el médico (casi todos hombres blancos); CEO (de manera similar hombres y caucásicos) y cabello poco profesional (especialmente mujeres negras).
Tales resultados de búsqueda son el resultado desordenado de la realidad que se empuja a través de un circuito de retroalimentación, donde los prejuicios del mundo real se sacuden en torno al algoritmo de Google y se escupen. Para las actrices, la cuidadosa cobertura de los medios de «escotes hundidos» y cuerpos «listos para la playa» informó, en parte, lo que Google considera más importante y relevante. Pero esa no es toda la historia.
«Abordarlos podría ser un esfuerzo a largo plazo que requiera representar a todos los grupos de personas con el mismo número de puntos de datos, eliminar las injusticias históricas de los conjuntos de datos, aumentar la diversidad en los desarrolladores de IA y democratizar la IA», dice Caliskan. Caso en cuestión: el 77% de la fuerza laboral de tecnología global de Google es masculina. En términos de liderazgo, Google tiene un 73% de hombres. Sí, el algoritmo de búsqueda de la empresa es un reflejo de lo que buscamos nosotros, las personas que usamos Internet. Pero también está conformado por limitaciones y prioridades, codificadas de forma rígida por los ingenieros de Google. Y en este momento, la mayoría de los ingenieros y tomadores de decisiones clave son hombres.
Leer más: Cómo borrar su historial de búsqueda de Google y detener el seguimiento
«Tenemos políticas contra los pronósticos que asocian términos potencialmente despectivos o sensibles con personas nombradas, y cuando encontramos estas predicciones, trabajamos para eliminarlas rápidamente», dice un portavoz de Google. «Sentimos una profunda responsabilidad de no reforzar las percepciones potencialmente dañinas de nuestros productos y, con este fin, continuamos invirtiendo en esfuerzos como la corrección del aprendizaje automático».
Este no es un problema exclusivo de Google; el problema del sesgo algorítmico probablemente será uno de los problemas tecnológicos que definen la era moderna. En un estudio de 2017, investigadores de la Universidad de Virginia observaron cómo los datos utilizados por el software de reconocimiento de imágenes mostraban la tendencia de género. Las imágenes de compras y limpieza, por ejemplo, estaban relacionadas con mujeres. El software de aprendizaje automático entrenado en estos conjuntos de datos no solo repitió estos prejuicios, sino que los empeoró. Por lo tanto, si bien los datos estaban sesgados hacia las mujeres, su interpretación algorítmica fue aún más sesgada. Se ingresaron datos incorrectos, datos aún peores.
En este sentido, es incorrecto pensar en los resultados de búsqueda de Google como un reflejo puro de nuestros propios prejuicios. La empresa también puede modificar su algoritmo para ocultar resultados inaceptables. Antes de que Google abordara problemas generalizados con sugerencias de autocompletado basadas en texto, la introducción «hizo el pasillo» devolvió una sugerencia para «sucedió el Holocausto» y luego dirigió a la gente a un sitio web nazi. Ahora, AutoComplete no ofrece esa sugerencia en absoluto, y ingresarlo lo lleva a la página de Wikipedia de la negación del Holocausto y al Museo Conmemorativo del Holocausto en los Estados Unidos.
Dejado en sus propios dispositivos, el algoritmo de Google ha promovido la negación del Holocausto. No lo hizo porque sea nazi, sino porque no sabe que esas opiniones son desagradables. Entonces Google tuvo que ajustarlo. Es un movimiento curioso y basado en valores en una empresa que generalmente se presenta como imparcial. Pero cuando tal imparcialidad se llama con razón racista, sexista y ayuda a difundir las teorías de la conspiración, el odio y la división, Google se ha visto obligado a actuar.
La forma en que Google Imágenes se dirige a las celebridades femeninas, y a las mujeres en general, es otra faceta de este problema. «La particularidad, la justicia, la explicabilidad, la responsabilidad y la transparencia requieren el trabajo de los investigadores, los responsables políticos y el público», dice Caliskan. Y ahora mismo, eso no está sucediendo. Como muestra la reciente indignación por el acoso sexual y una supuesta cultura de represalias, Google está luchando por abordar las preocupaciones de sus empleados, y mucho menos enfrentar el desafío de admitir y luego solucionar un problema técnico de su propia creación.
Y, de manera abrumadora, esta acción es más reactiva que proactiva. Como resultado, a Google rara vez se le ha ocurrido este problema. Los problemas de autocompletar, y las sugerencias de búsqueda generadas algorítmicamente en Google Imágenes, muestran que Google necesita con urgencia limpiar sus datos. A través de la inacción de Google, su cámara ecológica algorítmica corre el riesgo de fortalecer las visiones sexistas. A medida que los algoritmos se pongan en funcionamiento en más y más áreas de nuestras vidas, será cada vez más urgente eliminar esos prejuicios.
Google afirma ser imparcial: su algoritmo solo observa nuestro mundo y nos lo refleja. Pero sin supervisar cómo funciona su algoritmo, desde los datos que ha entrenado hasta la forma en que interpreta esos datos y los resultados que arroja, la definición de imparcialidad de Google es difícil de entender. Se puede ver que Discover y el algoritmo de búsqueda de la compañía perpetúan puntos de vista racistas y sexistas y amplifican los prejuicios sociales. Una búsqueda en Google Imágenes de una celebridad femenina sugiere que es un objeto en el que debemos pensar, mientras que nuestro interés en las celebridades masculinas aparentemente se centra en su profesión, no en sus cuerpos. Es otro ejemplo más de cómo, sin control y transparencia, los algoritmos distorsionan la forma en que vemos nuestro mundo.
Desde anti-vacunas hasta supremacistas blancos, el algoritmo de búsqueda de Google siempre ha dado una importancia indebida a puntos de vista peligrosos y marginales. Pero el problema es más amplio y con más matices que eso. Por último, todavía no estamos cerca de comprender qué nos muestra el mundo Google y en quién nos está convirtiendo.
🐉 Game of Thrones violó una regla fundamental de la narración
👍 Siga estos consejos esenciales para usar Trello como su jefe
🚀 Jeff Bezos quiere colonizar el espacio, pero destruye la Tierra
💰 Esto es lo que pagan los empleados de Facebook, Google y Tesla en 2019
👽 Los mejores libros de ciencia ficción que todo el mundo debería leer
📧 No vuelva a perderse una historia maravillosa con el semanario DyN Noticias Weekender
Todas las noticias de la ciencia de la tierra en un sólo sitio. noticias de Ciencia.