sábado 7 de diciembre de 2024
spot_img

El algoritmo de los pezones: el experimento que expone la discriminación en Instagram

Las redes sociales definen qué contenido es aceptable y cuál es censurable a través de reglas que parecen simples pero esconden grandes complejidades y contradicciones. Con el objetivo de exponer estas inconsistencias y arbitrariedades, una artista digital llevó adelante un experimento en el que documentó durante dos años su transición de género en Instagram. Para demostrar los absurdos en los sistemas de moderación, Ada Ada Ada, como se identifica en línea, subió autorretratos semanales sin remera junto con datos sobre cómo distintas herramientas de inteligencia artificial clasificaron su género.

Este proyecto, llamado In Transitu, tardó más de un año de publicaciones similares para que Instagram elimine una de sus fotos por violar las normas contra la desnudez. En ese momento, el algoritmo decidió que sus pezones eran «femeninos» y por lo tanto inadecuados para la plataforma. La paradoja es evidente: Instagram permite fotos de torsos masculinos descubiertos, pero censura los pezones femeninos.

«Me interesa entender el impacto que los algoritmos tienen en nuestras vidas», explicó Ada Ada Ada. «La regla del pezón es una de las formas más simples de hablar sobre esto porque está planteada como una idea binaria: pezones femeninos no, pezones masculinos sí. Pero esto genera preguntas: ¿qué es un pezón masculino? ¿Qué es un pezón femenino?»

Para documentar este proceso, la artista registró en una planilla de cálculo cada imagen eliminada, los motivos oficiales de Instagram y el alcance de sus publicaciones para crear un número que le permitiera medir el nivel de censura o restricciones a sus fotos. Los datos mostraron que las eliminaciones aumentaron a medida que avanzó su transición, aunque los criterios resultaron arbitrarios: una foto con pinzas en los pezones permaneció en línea, mientras que otra donde sostenía un libro fue censurada.

La influencer también analizó cómo cinco sistemas de clasificación de género por IA —incluyeron herramientas de Microsoft, Amazon y otras empresas— interpretaron su identidad. Los resultados expusieron la falta de consistencia: el género asignado por los algoritmos cambió semana a semana, y las diferentes herramientas a menudo discreparon entre sí.

El experimento revela un problema más profundo que los pezones: aunque Instagram tiene reglas aparentemente claras sobre desnudez, su aplicación resulta confusa y discriminatoria. La plataforma suele eliminar contenido de educadores sexuales y personas no binarias que intentan seguir las normas, mientras imágenes robadas o no consensuadas no encuentran restricciones e incluso son promocionadas mediante publicidad paga.

Vía

Lo último